ALSModel¶
-
類
pyspark.ml.recommendation。
ALSModel
( java_model:可選(JavaObject]=沒有一個 ) ¶ -
模型擬合了肌萎縮性側索硬化症。
方法
清晰的
(參數)清除參數映射的參數是否被顯式地設置。
複製
((額外的))創建這個實例的副本具有相同uid和一些額外的參數。
explainParam
(參數)解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
返回文檔的所有參數選擇默認值和用戶提供的值。
extractParamMap
((額外的))提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
得到的價值blockSize或其默認值。
得到的價值coldStartStrategy或其默認值。
得到的價值itemCol或其默認值。
getOrDefault
(參數)得到參數的值在用戶提供的參數映射或其默認值。
getParam
(paramName)通過它的名稱參數。
得到的價值predictionCol或其默認值。
得到的價值userCol或其默認值。
hasDefault
(參數)檢查是否一個參數有默認值。
hasParam
(paramName)測試這個實例包含一個參數是否與給定名稱(字符串)。
isDefined
(參數)檢查參數是否由用戶或顯式地設置一個默認值。
收取
(參數)檢查參數是否由用戶顯式地設置。
負載
(路徑)從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
讀
()返回一個MLReader這個類的實例。
recommendForAllItems
(numUsers)返回頂部numUsers用戶推薦為每個項目,所有項目。
recommendForAllUsers
(numItems)返回頂部numItems項目推薦給每一個用戶,為所有用戶。
recommendForItemSubset
(numUsers數據集)返回頂部numUsers用戶推薦為每個項id的輸入數據集。
recommendForUserSubset
(numItems數據集)返回頂部numItems項目推薦為每個用戶id的輸入數據集。
保存
(路徑)這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
集
(參數值)設置一個參數嵌入參數映射。
setBlockSize
(值)設置的值
blockSize
。設置的值
coldStartStrategy
。setItemCol
(值)設置的值
itemCol
。設置的值
predictionCol
。setUserCol
(值)設置的值
userCol
。變換
(數據集[params))與可選參數轉換的輸入數據集。
寫
()返回一個MLWriter實例毫升實例。
屬性
DataFrame存儲項因素在兩列:id和特性
返回所有參數命令的名字。
矩陣的秩分解模型
DataFrame存儲用戶因素在兩列:id和特性
方法的文檔
-
清晰的
( 參數:pyspark.ml.param.Param )→沒有¶ -
清除參數映射的參數是否被顯式地設置。
-
複製
( 額外的:可選(ParamMap]=沒有一個 )→摩根大通¶ -
創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 參數
-
- 額外的 東西,可選
-
額外參數複製到新實例
- 返回
-
-
JavaParams
-
這個實例的副本
-
-
explainParam
( 參數:聯盟(str,pyspark.ml.param.Param] )→str¶ -
解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
-
explainParams
( )→str¶ -
返回文檔的所有參數選擇默認值和用戶提供的值。
-
extractParamMap
( 額外的:可選(ParamMap]=沒有一個 )→ParamMap¶ -
提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
- 參數
-
- 額外的 東西,可選
-
額外的參數值
- 返回
-
- dict
-
合並後的參數映射
-
getBlockSize
( )→int¶ -
得到的價值blockSize或其默認值。
-
getColdStartStrategy
( )→str¶ -
得到的價值coldStartStrategy或其默認值。
-
getItemCol
( )→str¶ -
得到的價值itemCol或其默認值。
-
getOrDefault
( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T] ¶ -
得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通過它的名稱參數。
-
getPredictionCol
( )→str¶ -
得到的價值predictionCol或其默認值。
-
getUserCol
( )→str¶ -
得到的價值userCol或其默認值。
-
hasDefault
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查是否一個參數有默認值。
-
hasParam
( paramName:str )→bool¶ -
測試這個實例包含一個參數是否與給定名稱(字符串)。
-
isDefined
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶或顯式地設置一個默認值。
-
收取
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶顯式地設置。
-
classmethod
負載
( 路徑:str )→RL¶ -
從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
-
classmethod
讀
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一個MLReader這個類的實例。
-
recommendForAllItems
( numUsers:int )→pyspark.sql.dataframe.DataFrame¶ -
返回頂部numUsers用戶推薦為每個項目,所有項目。
- 參數
-
- numUsers int
-
每個條目的最大數量的建議
- 返回
-
-
pyspark.sql.DataFrame
-
DataFrame (itemCol、推薦),建議在哪裏存儲為一個數組(userCol,評級)的行。
-
-
recommendForAllUsers
( numItems:int )→pyspark.sql.dataframe.DataFrame¶ -
返回頂部numItems項目推薦給每一個用戶,為所有用戶。
- 參數
-
- numItems int
-
為每個用戶最大數量的建議
- 返回
-
-
pyspark.sql.DataFrame
-
DataFrame (userCol、推薦),建議在哪裏存儲為一個數組(itemCol,評級)的行。
-
-
recommendForItemSubset
( 數據集:pyspark.sql.dataframe.DataFrame,numUsers:int )→pyspark.sql.dataframe.DataFrame¶ -
返回頂部numUsers用戶推薦為每個項id的輸入數據集。注意,如果有重複的id輸入數據集,隻有一組建議每個惟一的id將被歸還。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
DataFrame包含一列條目id。列名必須匹配itemCol。
- numUsers int
-
每個條目的最大數量的建議
-
數據集
- 返回
-
-
pyspark.sql.DataFrame
-
DataFrame (itemCol、推薦),建議在哪裏存儲為一個數組(userCol,評級)的行。
-
-
recommendForUserSubset
( 數據集:pyspark.sql.dataframe.DataFrame,numItems:int )→pyspark.sql.dataframe.DataFrame¶ -
返回頂部numItems項目推薦為每個用戶id的輸入數據集。注意,如果有重複的id輸入數據集,隻有一組建議每個惟一的id將被歸還。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
包含一個列DataFrame用戶id。列名必須匹配userCol。
- numItems int
-
為每個用戶最大數量的建議
-
數據集
- 返回
-
-
pyspark.sql.DataFrame
-
DataFrame (userCol、推薦),建議在哪裏存儲為一個數組(itemCol,評級)的行。
-
-
保存
( 路徑:str )→沒有¶ -
這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
-
集
( 參數:pyspark.ml.param.Param,價值:任何 )→沒有¶ -
設置一個參數嵌入參數映射。
-
setBlockSize
( 價值:int )→pyspark.ml.recommendation.ALSModel ¶ -
設置的值
blockSize
。
-
setColdStartStrategy
( 價值:str )→pyspark.ml.recommendation.ALSModel ¶ -
設置的值
coldStartStrategy
。
-
setItemCol
( 價值:str )→pyspark.ml.recommendation.ALSModel ¶ -
設置的值
itemCol
。
-
setPredictionCol
( 價值:str )→pyspark.ml.recommendation.ALSModel ¶ -
設置的值
predictionCol
。
-
setUserCol
( 價值:str )→pyspark.ml.recommendation.ALSModel ¶ -
設置的值
userCol
。
-
變換
( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame¶ -
與可選參數轉換的輸入數據集。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
輸入數據集
- 參數個數 東西,可選
-
一個可選的參數覆蓋嵌入參數的地圖。
-
數據集
- 返回
-
-
pyspark.sql.DataFrame
-
改變了數據集
-
-
寫
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一個MLWriter實例毫升實例。
屬性的文檔
-
blockSize
=參數(父母=‘定義’,name = ' blockSize ', doc = '疊加輸入數據塊大小的矩陣。數據分區內堆放。如果超過剩餘的數據塊大小調整一個分區那麼這個數據的大小。) ¶
-
coldStartStrategy
:pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' coldStartStrategy ', doc = "戰略應對未知或新用戶/項目預測時間。這可能是有用的在交叉驗證或生產場景中,用於處理用戶/項目id模型並沒有出現在訓練數據。支持價值觀:‘南’,‘降’。”) ¶
-
itemCol
:pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' itemCol ', doc = '列名稱條目id。id必須在整數值範圍之內。”) ¶
-
itemFactors
¶ -
DataFrame存儲項因素在兩列:id和特性
-
參數個數
¶ -
返回所有參數命令的名字。默認實現使用
dir ()
所有的屬性類型參數
。
-
predictionCol
=參數(父母=‘定義’,name = ' predictionCol ', doc =預測列名稱。) ¶
-
排名
¶ -
矩陣的秩分解模型
-
userCol
:pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' userCol ',醫生為用戶id = '列名稱。id必須在整數值範圍之內。”) ¶
-
userFactors
¶ -
DataFrame存儲用戶因素在兩列:id和特性
-