MinHashLSHModel

pyspark.ml.feature。 MinHashLSHModel ( java_model:可選(JavaObject]=沒有一個 )

模型由MinHashLSH,存儲在多個哈希函數。每個哈希函數選擇從以下家庭的哈希函數,在那裏\ \ (a_i)\ (b_i \)是隨機選擇的整數不到':\ (h_i (x) = ((x + b_i) \ cdot a_i \ mod ') \)這個哈希家庭大約是min-wise獨立根據參考。

筆記

看到湯姆Bohman表示,科林·庫珀和艾倫·弗裏茲。“Min-wise獨立線性排列。“電子雜誌組合7 (2000):R26。

方法

approxNearestNeighbors(數據、關鍵…[…])

給定一個大型數據集和一個項目,大約發現最多k項的項目最近的距離。

approxSimilarityJoin(datasetB datasetA…)

加入兩個數據集大約找到所有成對的距離小於閾值的行。

清晰的(參數)

清除參數映射的參數是否被顯式地設置。

複製((額外的))

創建這個實例的副本具有相同uid和一些額外的參數。

explainParam(參數)

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams()

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap((額外的))

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

getInputCol()

得到的價值inputCol或其默認值。

getNumHashTables()

得到的價值numHashTables或其默認值。

getOrDefault(參數)

得到參數的值在用戶提供的參數映射或其默認值。

getOutputCol()

得到的價值outputCol或其默認值。

getParam(paramName)

通過它的名稱參數。

hasDefault(參數)

檢查是否一個參數有默認值。

hasParam(paramName)

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined(參數)

檢查參數是否由用戶或顯式地設置一個默認值。

收取(參數)

檢查參數是否由用戶顯式地設置。

負載(路徑)

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

()

返回一個MLReader這個類的實例。

保存(路徑)

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

(參數值)

設置一個參數嵌入參數映射。

setInputCol(值)

設置的值inputCol

setOutputCol(值)

設置的值outputCol

變換(數據集[params))

與可選參數轉換的輸入數據集。

()

返回一個MLWriter實例毫升實例。

屬性

inputCol

numHashTables

outputCol

參數個數

返回所有參數命令的名字。

方法的文檔

approxNearestNeighbors ( 數據集:pyspark.sql.dataframe.DataFrame,關鍵:pyspark.ml.linalg.Vector,numNearestNeighbors:int,distCol:str=“distCol” )→pyspark.sql.dataframe.DataFrame

給定一個大型數據集和一個項目,大約發現最多k項的項目最近的距離。如果outputCol丟失,該方法將轉換數據;如果outputCol存在,它將使用。這允許在必要時改變了數據的緩存。

參數
數據集 pyspark.sql.DataFrame

數據集搜索最近的鄰居的關鍵。

關鍵 pyspark.ml.linalg.Vector

特征向量代表項目搜索。

numNearestNeighbors int

最近的鄰居的最大數量。

distCol str

輸出列來存儲每個結果行之間的距離和關鍵。使用“distCol”如果不指定為默認值。

返回
pyspark.sql.DataFrame

數據集包含最多k項最關鍵。一列“distCol”添加到顯示每一行之間的距離和關鍵。

筆記

這個方法是實驗性的,下一個版本可能會改變行為。

approxSimilarityJoin ( datasetA:pyspark.sql.dataframe.DataFrame,datasetB:pyspark.sql.dataframe.DataFrame,閾值:浮動,distCol:str=“distCol” )→pyspark.sql.dataframe.DataFrame

加入兩個數據集大約找到所有成對的距離小於閾值的行。如果outputCol丟失,該方法將轉換數據;如果outputCol存在,它將使用。這允許在必要時改變了數據的緩存。

參數
datasetA pyspark.sql.DataFrame

的一個數據集加入。

datasetB pyspark.sql.DataFrame

加入另一個數據集。

閾值 浮動

距離閾值的行。

distCol str,可選

輸出列來存儲每一對行之間的距離。使用“distCol”如果不指定為默認值。

返回
pyspark.sql.DataFrame

加入數據集包含雙行。原來的行是列“datasetA”和“datasetB”,和“distCol”一列添加到顯示每一對之間的距離。

清晰的 ( 參數:pyspark.ml.param.Param )→沒有

清除參數映射的參數是否被顯式地設置。

複製 ( 額外的:可選(ParamMap]=沒有一個 )→摩根大通

創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

參數
額外的 東西,可選

額外參數複製到新實例

返回
JavaParams

這個實例的副本

explainParam ( 參數:聯盟(str,pyspark.ml.param.Param] )→str

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams ( )→str

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap ( 額外的:可選(ParamMap]=沒有一個 )→ParamMap

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

參數
額外的 東西,可選

額外的參數值

返回
dict

合並後的參數映射

getInputCol ( )→str

得到的價值inputCol或其默認值。

getNumHashTables ( )→int

得到的價值numHashTables或其默認值。

getOrDefault ( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T]

得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。

getOutputCol ( )→str

得到的價值outputCol或其默認值。

getParam ( paramName:str )pyspark.ml.param.Param

通過它的名稱參數。

hasDefault ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查是否一個參數有默認值。

hasParam ( paramName:str )→bool

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶或顯式地設置一個默認值。

收取 ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶顯式地設置。

classmethod 負載 ( 路徑:str )→RL

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一個MLReader這個類的實例。

保存 ( 路徑:str )→沒有

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

( 參數:pyspark.ml.param.Param,價值:任何 )→沒有

設置一個參數嵌入參數映射。

setInputCol ( 價值:str )→P

設置的值inputCol

setOutputCol ( 價值:str )→P

設置的值outputCol

變換 ( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame

與可選參數轉換的輸入數據集。

參數
數據集 pyspark.sql.DataFrame

輸入數據集

參數個數 東西,可選

一個可選的參數覆蓋嵌入參數的地圖。

返回
pyspark.sql.DataFrame

改變了數據集

( )→pyspark.ml.util.JavaMLWriter

返回一個MLWriter實例毫升實例。

屬性的文檔

inputCol =參數(父母=‘定義’,name = ' inputCol ', doc =輸入列名稱。)
numHashTables :pyspark.ml.param.Param (int) =參數(父母=‘定義’,name = ' numHashTables ', doc =”數量的哈希表,哈希表數量的增加降低了假陰性率,並提高運行性能降低。”)
outputCol =參數(父母=‘定義’,name = ' outputCol ', doc =輸出列名稱。)
參數個數

返回所有參數命令的名字。默認實現使用dir ()所有的屬性類型參數