KMeansModel

pyspark.ml.clustering。 KMeansModel ( java_model:可選(JavaObject]=沒有一個 )

由KMeans模型擬合。

方法

清晰的(參數)

清除參數映射的參數是否被顯式地設置。

clusterCenters()

得到聚類中心,表示為一個列表的NumPy數組。

複製((額外的))

創建這個實例的副本具有相同uid和一些額外的參數。

explainParam(參數)

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams()

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap((額外的))

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

getDistanceMeasure()

得到的價值distanceMeasure或其默認值。

getFeaturesCol()

得到的價值featuresCol或其默認值。

getInitMode()

獲得的價值initMode

getInitSteps()

獲得的價值initSteps

getK()

獲得的價值k

getMaxBlockSizeInMB()

得到的價值maxBlockSizeInMB或其默認值。

getMaxIter()

麥克斯特的價值或其默認值。

getOrDefault(參數)

得到參數的值在用戶提供的參數映射或其默認值。

getParam(paramName)

通過它的名稱參數。

getPredictionCol()

得到的價值predictionCol或其默認值。

getSeed()

種子的價值或其默認值。

getSolver()

得到解決的價值或其默認值。

getTol()

被托爾的價值或其默認值。

getWeightCol()

得到的價值weightCol或其默認值。

hasDefault(參數)

檢查是否一個參數有默認值。

hasParam(paramName)

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined(參數)

檢查參數是否由用戶或顯式地設置一個默認值。

收取(參數)

檢查參數是否由用戶顯式地設置。

負載(路徑)

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

預測(值)

預測給定特性的標簽。

()

返回一個MLReader這個類的實例。

保存(路徑)

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

(參數值)

設置一個參數嵌入參數映射。

setFeaturesCol(值)

設置的值featuresCol

setPredictionCol(值)

設置的值predictionCol

變換(數據集[params))

與可選參數轉換的輸入數據集。

()

返回一個GeneralMLWriter實例毫升實例。

屬性

distanceMeasure

featuresCol

hasSummary

表明這個模型實例是否存在一個培訓總結。

initMode

initSteps

k

maxBlockSizeInMB

麥克斯特

參數個數

返回所有參數命令的名字。

predictionCol

種子

解算器

總結

總結(集群,集群大小)模型的訓練訓練集。

托爾

weightCol

方法的文檔

清晰的 ( 參數:pyspark.ml.param.Param )→沒有

清除參數映射的參數是否被顯式地設置。

clusterCenters ( )→列表(numpy.ndarray]

得到聚類中心,表示為一個列表的NumPy數組。

複製 ( 額外的:可選(ParamMap]=沒有一個 )→摩根大通

創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

參數
額外的 東西,可選

額外參數複製到新實例

返回
JavaParams

這個實例的副本

explainParam ( 參數:聯盟(str,pyspark.ml.param.Param] )→str

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams ( )→str

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap ( 額外的:可選(ParamMap]=沒有一個 )→ParamMap

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

參數
額外的 東西,可選

額外的參數值

返回
dict

合並後的參數映射

getDistanceMeasure ( )→str

得到的價值distanceMeasure或其默認值。

getFeaturesCol ( )→str

得到的價值featuresCol或其默認值。

getInitMode ( )→str

獲得的價值initMode

getInitSteps ( )→int

獲得的價值initSteps

getK ( )→int

獲得的價值k

getMaxBlockSizeInMB ( )→浮動

得到的價值maxBlockSizeInMB或其默認值。

getMaxIter ( )→int

麥克斯特的價值或其默認值。

getOrDefault ( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T]

得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。

getParam ( paramName:str )pyspark.ml.param.Param

通過它的名稱參數。

getPredictionCol ( )→str

得到的價值predictionCol或其默認值。

getSeed ( )→int

種子的價值或其默認值。

getSolver ( )→str

得到解決的價值或其默認值。

getTol ( )→浮動

被托爾的價值或其默認值。

getWeightCol ( )→str

得到的價值weightCol或其默認值。

hasDefault ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查是否一個參數有默認值。

hasParam ( paramName:str )→bool

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶或顯式地設置一個默認值。

收取 ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶顯式地設置。

classmethod 負載 ( 路徑:str )→RL

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

預測 ( 價值:pyspark.ml.linalg.Vector )→int

預測給定特性的標簽。

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一個MLReader這個類的實例。

保存 ( 路徑:str )→沒有

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

( 參數:pyspark.ml.param.Param,價值:任何 )→沒有

設置一個參數嵌入參數映射。

setFeaturesCol ( 價值:str )pyspark.ml.clustering.KMeansModel

設置的值featuresCol

setPredictionCol ( 價值:str )pyspark.ml.clustering.KMeansModel

設置的值predictionCol

變換 ( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame

與可選參數轉換的輸入數據集。

參數
數據集 pyspark.sql.DataFrame

輸入數據集

參數個數 東西,可選

一個可選的參數覆蓋嵌入參數的地圖。

返回
pyspark.sql.DataFrame

改變了數據集

( )→pyspark.ml.util.GeneralJavaMLWriter

返回一個GeneralMLWriter實例毫升實例。

屬性的文檔

distanceMeasure =參數(父母=‘定義’,name = ' distanceMeasure ', doc = "測量的距離。支持選擇:“歐幾裏得”和“餘弦”。”)
featuresCol =參數(父母=‘定義’,name = ' featuresCol ', doc =功能列名稱。)
hasSummary

表明這個模型實例是否存在一個培訓總結。

initMode :pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' initMode ', doc = '初始化算法。這可以是“隨機”選擇隨機點作為初始簇中心,或“k - means | |”使用並行變異的k - means + +)
initSteps :pyspark.ml.param.Param (int) =參數(父母=‘定義’,name = ' initSteps ', doc = '的步數為k - means | |初始化模式。必須> 0。”)
k :pyspark.ml.param.Param (int) =參數(父母=‘定義’,名字=“k”,醫生= '創建集群的數量。必須> 1。)
maxBlockSizeInMB =參數(父母=‘定義’,name = ' maxBlockSizeInMB ',醫生在MB = '最大內存疊加輸入數據塊。數據分區內堆放。如果超過剩餘的數據大小的分區是調整大小的數據。默認0.0代表了選擇最優值,取決於特定的算法。必須> = 0”。)
麥克斯特 =參數(父母=‘定義’,name =“麥克斯特”,醫生=“馬克斯(> = 0)的迭代次數。)
參數個數

返回所有參數命令的名字。默認實現使用dir ()所有的屬性類型參數

predictionCol =參數(父母=‘定義’,name = ' predictionCol ', doc =預測列名稱。)
種子 =參數(父母=‘定義’,name =“種子”,醫生=“隨機種子。”)
解算器 :pyspark.ml.param.Param (str) =參數(父母=‘定義’,name =“規劃求解”,醫生= '優化的求解算法。支持選擇:汽車、行塊。”)
總結

總結(集群,集群大小)模型的訓練集訓練。如果沒有總結拋出異常。

托爾 =參數(父母=‘定義’,name =“托爾”,醫生=迭代算法的收斂公差(> = 0)”。)
weightCol =參數(父母=‘定義’,name = ' weightCol ', doc = '體重列名。如果這不是設置或空,我們對所有實例權重為1.0。”)