LDAModel

pyspark.ml.clustering。 LDAModel ( java_model:可選(JavaObject]=沒有一個 )

潛在狄利克雷分配(LDA)模型。這種抽象允許為不同的底層表示,包括本地和分布式數據結構。

方法

清晰的(參數)

清除參數映射的參數是否被顯式地設置。

複製((額外的))

創建這個實例的副本具有相同uid和一些額外的參數。

describeTopics([maxTermsPerTopic])

返回top-weighted條款描述的主題。

estimatedDocConcentration()

LDA.docConcentration估計的數據。

explainParam(參數)

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams()

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap((額外的))

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

getCheckpointInterval()

得到的價值checkpointInterval或其默認值。

getDocConcentration()

獲得的價值docConcentration或其默認值。

getFeaturesCol()

得到的價值featuresCol或其默認值。

getK()

獲得的價值k或其默認值。

getKeepLastCheckpoint()

獲得的價值keepLastCheckpoint或其默認值。

getLearningDecay()

獲得的價值learningDecay或其默認值。

getLearningOffset()

獲得的價值learningOffset或其默認值。

getMaxIter()

麥克斯特的價值或其默認值。

getOptimizeDocConcentration()

獲得的價值optimizeDocConcentration或其默認值。

getOptimizer()

獲得的價值優化器或其默認值。

getOrDefault(參數)

得到參數的值在用戶提供的參數映射或其默認值。

getParam(paramName)

通過它的名稱參數。

getSeed()

種子的價值或其默認值。

getSubsamplingRate()

獲得的價值subsamplingRate或其默認值。

getTopicConcentration()

獲得的價值topicConcentration或其默認值。

getTopicDistributionCol()

獲得的價值topicDistributionCol或其默認值。

hasDefault(參數)

檢查是否一個參數有默認值。

hasParam(paramName)

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined(參數)

檢查參數是否由用戶或顯式地設置一個默認值。

isDistributed()

表明這是否DistributedLDAModel類型的實例

收取(參數)

檢查參數是否由用戶顯式地設置。

logLikelihood(數據集)

計算一個下界的日誌整個語料庫的可能性。

logPerplexity(數據集)

計算一個上限困惑。

(參數值)

設置一個參數嵌入參數映射。

setFeaturesCol(值)

設置的值featuresCol

setSeed(值)

設置的值種子

setTopicDistributionCol(值)

設置的值topicDistributionCol

topicsMatrix()

推斷出主題,每個主題由分布的條件。

變換(數據集[params))

與可選參數轉換的輸入數據集。

vocabSize()

詞彙量的大小(詞彙的詞彙數量)

屬性

checkpointInterval

docConcentration

featuresCol

k

keepLastCheckpoint

learningDecay

learningOffset

麥克斯特

optimizeDocConcentration

優化器

參數個數

返回所有參數命令的名字。

種子

subsamplingRate

topicConcentration

topicDistributionCol

方法的文檔

清晰的 ( 參數:pyspark.ml.param.Param )→沒有

清除參數映射的參數是否被顯式地設置。

複製 ( 額外的:可選(ParamMap]=沒有一個 )→摩根大通

創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

參數
額外的 東西,可選

額外參數複製到新實例

返回
JavaParams

這個實例的副本

describeTopics ( maxTermsPerTopic:int=10 )→pyspark.sql.dataframe.DataFrame

返回top-weighted條款描述的主題。

estimatedDocConcentration ( )pyspark.ml.linalg.Vector

LDA.docConcentration估計的數據。如果在線LDA和使用LDA.optimizeDocConcentration被設為false,那麼這個返回固定(給)的值LDA.docConcentration參數。

explainParam ( 參數:聯盟(str,pyspark.ml.param.Param] )→str

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams ( )→str

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap ( 額外的:可選(ParamMap]=沒有一個 )→ParamMap

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

參數
額外的 東西,可選

額外的參數值

返回
dict

合並後的參數映射

getCheckpointInterval ( )→int

得到的價值checkpointInterval或其默認值。

getDocConcentration ( )→列表(浮動]

獲得的價值docConcentration或其默認值。

getFeaturesCol ( )→str

得到的價值featuresCol或其默認值。

getK ( )→int

獲得的價值k或其默認值。

getKeepLastCheckpoint ( )→bool

獲得的價值keepLastCheckpoint或其默認值。

getLearningDecay ( )→浮動

獲得的價值learningDecay或其默認值。

getLearningOffset ( )→浮動

獲得的價值learningOffset或其默認值。

getMaxIter ( )→int

麥克斯特的價值或其默認值。

getOptimizeDocConcentration ( )→bool

獲得的價值optimizeDocConcentration或其默認值。

getOptimizer ( )→str

獲得的價值優化器或其默認值。

getOrDefault ( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T]

得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。

getParam ( paramName:str )pyspark.ml.param.Param

通過它的名稱參數。

getSeed ( )→int

種子的價值或其默認值。

getSubsamplingRate ( )→浮動

獲得的價值subsamplingRate或其默認值。

getTopicConcentration ( )→浮動

獲得的價值topicConcentration或其默認值。

getTopicDistributionCol ( )→str

獲得的價值topicDistributionCol或其默認值。

hasDefault ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查是否一個參數有默認值。

hasParam ( paramName:str )→bool

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶或顯式地設置一個默認值。

isDistributed ( )→bool

表明這是否DistributedLDAModel類型的實例

收取 ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶顯式地設置。

logLikelihood ( 數據集:pyspark.sql.dataframe.DataFrame )→浮動

計算一個下界的日誌整個語料庫的可能性。看到方程(16)在網上LDA紙(霍夫曼et al ., 2010)。

警告

如果這種模式的一個實例DistributedLDAModel(生產時優化器設置為“新興市場”),這需要收集大量topicsMatrix ()的司機。這個實現在未來可能會改變。

logPerplexity ( 數據集:pyspark.sql.dataframe.DataFrame )→浮動

計算一個上限困惑。(低更好。)看到方程(16)在網上LDA紙(霍夫曼et al ., 2010)。

警告

如果這種模式的一個實例DistributedLDAModel(生產時優化器設置為“新興市場”),這需要收集大量topicsMatrix ()的司機。這個實現在未來可能會改變。

( 參數:pyspark.ml.param.Param,價值:任何 )→沒有

設置一個參數嵌入參數映射。

setFeaturesCol ( 價值:str )→米

設置的值featuresCol

setSeed ( 價值:int )→米

設置的值種子

setTopicDistributionCol ( 價值:str )→米

設置的值topicDistributionCol

topicsMatrix ( )pyspark.ml.linalg.Matrix

推斷出主題,每個主題由分布的條件。這是一個矩陣的大小vocabSize x k,其中每一列是一個主題。不能保證對主題的順序給出。

警告

如果這種模式實際上是一個DistributedLDAModel產生的實例采用(em)優化器,那麼這個方法可能涉及收集大量數據司機(vocabSize的x k)。

變換 ( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame

與可選參數轉換的輸入數據集。

參數
數據集 pyspark.sql.DataFrame

輸入數據集

參數個數 東西,可選

一個可選的參數覆蓋嵌入參數的地圖。

返回
pyspark.sql.DataFrame

改變了數據集

vocabSize ( )→int

詞彙量的大小(詞彙的詞彙數量)

屬性的文檔

checkpointInterval =參數(父母=‘定義’,name = ' checkpointInterval ', doc = '設置檢查點間隔(> = 1)或禁用檢查點(1)。例如10意味著緩存將檢查點每10迭代。注意:此設置將被忽略,如果目錄沒有設置檢查站SparkContext。”)
docConcentration :pyspark.ml.param.Param列表(浮動) =參數(父母=‘定義’,name = ' docConcentration ', doc =“濃度參數(通常叫“阿爾法”)之前放在文檔\ '分布在主題(“θ”)。”)
featuresCol =參數(父母=‘定義’,name = ' featuresCol ', doc =功能列名稱。)
k :pyspark.ml.param.Param (int) =參數(父母=‘定義’,名字=“k”,醫生= '的主題(集群)來推斷。必須> 1。)
keepLastCheckpoint :pyspark.ml.param.Param(保齡球) =參數(父母=‘定義’,name = ' keepLastCheckpoint ', doc = ' (EM優化器)如果使用檢查點,這表明是否繼續最後一個檢查點。如果錯誤,那麼檢查站將被刪除。刪除檢查點會導致失敗如果一個數據分區丟失,所以設置這個小心。”)
learningDecay :pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name = ' learningDecay ', doc = '學習速率,設置為anexponential衰減率。這應該是在(0.5,1.0)保證漸近收斂。”)
learningOffset :pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name = ' learningOffset ', doc = '(積極)的學習參數,downweights早期的迭代。更大的值使早期的迭代數少的)
麥克斯特 =參數(父母=‘定義’,name =“麥克斯特”,醫生=“馬克斯(> = 0)的迭代次數。)
optimizeDocConcentration :pyspark.ml.param.Param(保齡球) =參數(父母=‘定義’,name = ' optimizeDocConcentration ', doc =”表示是否docConcentration (document-topic狄利克雷參數分布)將優化在訓練。)
優化器 :pyspark.ml.param.Param (str) =參數(父母=‘定義’,name =“優化”,醫生= '優化器或推理算法用於估計LDA模型。在線支持:em”)
參數個數

返回所有參數命令的名字。默認實現使用dir ()所有的屬性類型參數

種子 =參數(父母=‘定義’,name =“種子”,醫生=“隨機種子。”)
subsamplingRate :pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name = ' subsamplingRate ', doc = '的一部分使用的語料庫采樣和每次迭代mini-batch梯度下降的範圍內(0,1]。)
topicConcentration :pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name = ' topicConcentration ', doc =“濃度參數(通常叫“測試版”或“埃塔”)的事先放在主題\ '分布在條款。”)
topicDistributionCol :pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' topicDistributionCol ', doc = '輸出列主題混合分布的估計為每個文檔(通常稱為“θ”文學)。返回一個零的向量空文檔。”)