LDAModel¶
-
類
pyspark.ml.clustering。
LDAModel
( java_model:可選(JavaObject]=沒有一個 ) ¶ -
潛在狄利克雷分配(LDA)模型。這種抽象允許為不同的底層表示,包括本地和分布式數據結構。
方法
清晰的
(參數)清除參數映射的參數是否被顯式地設置。
複製
((額外的))創建這個實例的副本具有相同uid和一些額外的參數。
describeTopics
([maxTermsPerTopic])返回top-weighted條款描述的主題。
值
LDA.docConcentration
估計的數據。explainParam
(參數)解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
返回文檔的所有參數選擇默認值和用戶提供的值。
extractParamMap
((額外的))提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
得到的價值checkpointInterval或其默認值。
獲得的價值
docConcentration
或其默認值。得到的價值featuresCol或其默認值。
getK
()獲得的價值
k
或其默認值。獲得的價值
keepLastCheckpoint
或其默認值。獲得的價值
learningDecay
或其默認值。獲得的價值
learningOffset
或其默認值。麥克斯特的價值或其默認值。
獲得的價值
optimizeDocConcentration
或其默認值。獲得的價值
優化器
或其默認值。getOrDefault
(參數)得到參數的值在用戶提供的參數映射或其默認值。
getParam
(paramName)通過它的名稱參數。
getSeed
()種子的價值或其默認值。
獲得的價值
subsamplingRate
或其默認值。獲得的價值
topicConcentration
或其默認值。獲得的價值
topicDistributionCol
或其默認值。hasDefault
(參數)檢查是否一個參數有默認值。
hasParam
(paramName)測試這個實例包含一個參數是否與給定名稱(字符串)。
isDefined
(參數)檢查參數是否由用戶或顯式地設置一個默認值。
表明這是否DistributedLDAModel類型的實例
收取
(參數)檢查參數是否由用戶顯式地設置。
logLikelihood
(數據集)計算一個下界的日誌整個語料庫的可能性。
logPerplexity
(數據集)計算一個上限困惑。
集
(參數值)設置一個參數嵌入參數映射。
設置的值
featuresCol
。setSeed
(值)設置的值
種子
。設置的值
topicDistributionCol
。推斷出主題,每個主題由分布的條件。
變換
(數據集[params))與可選參數轉換的輸入數據集。
詞彙量的大小(詞彙的詞彙數量)
屬性
返回所有參數命令的名字。
方法的文檔
-
清晰的
( 參數:pyspark.ml.param.Param )→沒有¶ -
清除參數映射的參數是否被顯式地設置。
-
複製
( 額外的:可選(ParamMap]=沒有一個 )→摩根大通¶ -
創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 參數
-
- 額外的 東西,可選
-
額外參數複製到新實例
- 返回
-
-
JavaParams
-
這個實例的副本
-
-
describeTopics
( maxTermsPerTopic:int=10 )→pyspark.sql.dataframe.DataFrame¶ -
返回top-weighted條款描述的主題。
-
estimatedDocConcentration
( )→pyspark.ml.linalg.Vector ¶ -
值
LDA.docConcentration
估計的數據。如果在線LDA和使用LDA.optimizeDocConcentration
被設為false,那麼這個返回固定(給)的值LDA.docConcentration
參數。
-
explainParam
( 參數:聯盟(str,pyspark.ml.param.Param] )→str¶ -
解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
-
explainParams
( )→str¶ -
返回文檔的所有參數選擇默認值和用戶提供的值。
-
extractParamMap
( 額外的:可選(ParamMap]=沒有一個 )→ParamMap¶ -
提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
- 參數
-
- 額外的 東西,可選
-
額外的參數值
- 返回
-
- dict
-
合並後的參數映射
-
getCheckpointInterval
( )→int¶ -
得到的價值checkpointInterval或其默認值。
-
getDocConcentration
( )→列表(浮動] ¶ -
獲得的價值
docConcentration
或其默認值。
-
getFeaturesCol
( )→str¶ -
得到的價值featuresCol或其默認值。
-
getKeepLastCheckpoint
( )→bool¶ -
獲得的價值
keepLastCheckpoint
或其默認值。
-
getLearningDecay
( )→浮動¶ -
獲得的價值
learningDecay
或其默認值。
-
getLearningOffset
( )→浮動¶ -
獲得的價值
learningOffset
或其默認值。
-
getMaxIter
( )→int¶ -
麥克斯特的價值或其默認值。
-
getOptimizeDocConcentration
( )→bool¶ -
獲得的價值
optimizeDocConcentration
或其默認值。
-
getOrDefault
( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T] ¶ -
得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通過它的名稱參數。
-
getSeed
( )→int¶ -
種子的價值或其默認值。
-
getSubsamplingRate
( )→浮動¶ -
獲得的價值
subsamplingRate
或其默認值。
-
getTopicConcentration
( )→浮動¶ -
獲得的價值
topicConcentration
或其默認值。
-
getTopicDistributionCol
( )→str¶ -
獲得的價值
topicDistributionCol
或其默認值。
-
hasDefault
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查是否一個參數有默認值。
-
hasParam
( paramName:str )→bool¶ -
測試這個實例包含一個參數是否與給定名稱(字符串)。
-
isDefined
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶或顯式地設置一個默認值。
-
isDistributed
( )→bool¶ -
表明這是否DistributedLDAModel類型的實例
-
收取
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶顯式地設置。
-
logLikelihood
( 數據集:pyspark.sql.dataframe.DataFrame )→浮動¶ -
計算一個下界的日誌整個語料庫的可能性。看到方程(16)在網上LDA紙(霍夫曼et al ., 2010)。
警告
如果這種模式的一個實例
DistributedLDAModel
(生產時優化器
設置為“新興市場”),這需要收集大量topicsMatrix ()
的司機。這個實現在未來可能會改變。
-
logPerplexity
( 數據集:pyspark.sql.dataframe.DataFrame )→浮動¶ -
計算一個上限困惑。(低更好。)看到方程(16)在網上LDA紙(霍夫曼et al ., 2010)。
警告
如果這種模式的一個實例
DistributedLDAModel
(生產時優化器
設置為“新興市場”),這需要收集大量topicsMatrix ()
的司機。這個實現在未來可能會改變。
-
集
( 參數:pyspark.ml.param.Param,價值:任何 )→沒有¶ -
設置一個參數嵌入參數映射。
-
setFeaturesCol
( 價值:str )→米¶ -
設置的值
featuresCol
。
-
setTopicDistributionCol
( 價值:str )→米¶ -
設置的值
topicDistributionCol
。
-
topicsMatrix
( )→pyspark.ml.linalg.Matrix ¶ -
推斷出主題,每個主題由分布的條件。這是一個矩陣的大小vocabSize x k,其中每一列是一個主題。不能保證對主題的順序給出。
警告
如果這種模式實際上是一個
DistributedLDAModel
產生的實例采用(em)優化器,那麼這個方法可能涉及收集大量數據司機(vocabSize的x k)。
-
變換
( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame¶ -
與可選參數轉換的輸入數據集。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
輸入數據集
- 參數個數 東西,可選
-
一個可選的參數覆蓋嵌入參數的地圖。
-
數據集
- 返回
-
-
pyspark.sql.DataFrame
-
改變了數據集
-
-
vocabSize
( )→int¶ -
詞彙量的大小(詞彙的詞彙數量)
屬性的文檔
-
checkpointInterval
=參數(父母=‘定義’,name = ' checkpointInterval ', doc = '設置檢查點間隔(> = 1)或禁用檢查點(1)。例如10意味著緩存將檢查點每10迭代。注意:此設置將被忽略,如果目錄沒有設置檢查站SparkContext。”) ¶
-
docConcentration
:pyspark.ml.param.Param列表(浮動) =參數(父母=‘定義’,name = ' docConcentration ', doc =“濃度參數(通常叫“阿爾法”)之前放在文檔\ '分布在主題(“θ”)。”) ¶
-
featuresCol
=參數(父母=‘定義’,name = ' featuresCol ', doc =功能列名稱。) ¶
-
k
:pyspark.ml.param.Param (int) =參數(父母=‘定義’,名字=“k”,醫生= '的主題(集群)來推斷。必須> 1。) ¶
-
keepLastCheckpoint
:pyspark.ml.param.Param(保齡球) =參數(父母=‘定義’,name = ' keepLastCheckpoint ', doc = ' (EM優化器)如果使用檢查點,這表明是否繼續最後一個檢查點。如果錯誤,那麼檢查站將被刪除。刪除檢查點會導致失敗如果一個數據分區丟失,所以設置這個小心。”) ¶
-
learningDecay
:pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name = ' learningDecay ', doc = '學習速率,設置為anexponential衰減率。這應該是在(0.5,1.0)保證漸近收斂。”) ¶
-
learningOffset
:pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name = ' learningOffset ', doc = '(積極)的學習參數,downweights早期的迭代。更大的值使早期的迭代數少的) ¶
-
麥克斯特
=參數(父母=‘定義’,name =“麥克斯特”,醫生=“馬克斯(> = 0)的迭代次數。) ¶
-
optimizeDocConcentration
:pyspark.ml.param.Param(保齡球) =參數(父母=‘定義’,name = ' optimizeDocConcentration ', doc =”表示是否docConcentration (document-topic狄利克雷參數分布)將優化在訓練。) ¶
-
優化器
:pyspark.ml.param.Param (str) =參數(父母=‘定義’,name =“優化”,醫生= '優化器或推理算法用於估計LDA模型。在線支持:em”) ¶
-
參數個數
¶ -
返回所有參數命令的名字。默認實現使用
dir ()
所有的屬性類型參數
。
-
種子
=參數(父母=‘定義’,name =“種子”,醫生=“隨機種子。”) ¶
-
subsamplingRate
:pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name = ' subsamplingRate ', doc = '的一部分使用的語料庫采樣和每次迭代mini-batch梯度下降的範圍內(0,1]。) ¶
-
topicConcentration
:pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name = ' topicConcentration ', doc =“濃度參數(通常叫“測試版”或“埃塔”)的事先放在主題\ '分布在條款。”) ¶
-
topicDistributionCol
:pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' topicDistributionCol ', doc = '輸出列主題混合分布的估計為每個文檔(通常稱為“θ”文學)。返回一個零的向量空文檔。”) ¶
-