Bucketizer

pyspark.ml.feature。 Bucketizer ( *,分裂:可選(列表(浮動]]=沒有一個,inputCol:可選(str]=沒有一個,outputCol:可選(str]=沒有一個,handleInvalid:str=“錯誤”,splitsArray:可選(列表(列表(浮動]]]=沒有一個,inputCols:可選(列表(str]]=沒有一個,outputCols:可選(列表(str]]=沒有一個 )

一列連續特性映射到列桶的特性。3.0.0以來,Bucketizer一次可以映射多個列通過設置inputCols參數。注意,當這兩個inputColinputCols參數設置,就會拋出一個異常。的分裂參數是隻用於單一列使用,splitsArray是多個列。

例子

> > >=((0.1,0.0),(0.4,1.0),(1.2,1.3),(1.5,浮動(“南”)),(浮動(“南”),1.0),(浮動(“南”),0.0)]> > >df=火花createDataFrame(,(“values1”,“values2”])> > >bucketizer=Bucketizer()> > >bucketizersetSplits([- - - - - -浮動(“正”),0.5,1.4,浮動(“正”)))Bucketizer……> > >bucketizersetInputCol(“values1”)Bucketizer……> > >bucketizersetOutputCol(“桶”)Bucketizer……> > >=bucketizersetHandleInvalid(“保持”)變換(df)收集()> > >=bucketizersetHandleInvalid(“保持”)變換(df選擇(“values1”))> > >顯示(截斷=)+ - - - - - - - - - - - - - - +| values1 | |+ - - - - - - - - - - - - - - +| 0.1 | 0.0 || 0.4 | 0.0 || 1.2 | 1.0 || 1.5 | 2.0 ||南| 3.0 ||南| 3.0 |+ - - - - - - - - - - - - - - +> > >bucketizersetparam(outputCol=“b”)變換(df)()b0.0> > >bucketizerPath=temp_path+“/ bucketizer”> > >bucketizer保存(bucketizerPath)> > >loadedBucketizer=Bucketizer負載(bucketizerPath)> > >loadedBucketizergetSplits()= =bucketizergetSplits()真正的> > >loadedBucketizer變換(df)(1)= =bucketizer變換(df)(1)真正的> > >=bucketizersetHandleInvalid(“跳過”)變換(df)收集()> > >len()4> > >bucketizer2=Bucketizer(splitsArray=[[- - - - - -浮動(“正”),0.5,1.4,浮動(“正”)),(- - - - - -浮動(“正”),0.5,浮動(“正”)]],inputCols=(“values1”,“values2”),outputCols=(“buckets1”,“buckets2”])> > >bucketed2=bucketizer2setHandleInvalid(“保持”)變換(df)> > >bucketed2顯示(截斷=)+ - - - - - - - - - - - - - - + - - - - - - - - - - - - - - - - - - - - +| values1 | values2 | buckets1 | buckets2 |+ - - - - - - - - - - - - - - + - - - - - - - - - - - - - - - - - - - - +| 0.1 | 0.0 | 0.0 | 0.0 || 0.4 | 1.0 | 0.0 | 1.0 || 1.2 | 1.3 | 1.0 | 1.0 || 1.5 |南| 2.0 | 2.0 ||南| 1.0 | 3.0 | 1.0 ||南| 0.0 | 3.0 | 0.0 |+ - - - - - - - - - - - - - - + - - - - - - - - - - - - - - - - - - - - +

方法

清晰的(參數)

清除參數映射的參數是否被顯式地設置。

複製((額外的))

創建這個實例的副本具有相同uid和一些額外的參數。

explainParam(參數)

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams()

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap((額外的))

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

getHandleInvalid()

得到的價值handleInvalid或其默認值。

getInputCol()

得到的價值inputCol或其默認值。

getInputCols()

得到的價值inputCols或其默認值。

getOrDefault(參數)

得到參數的值在用戶提供的參數映射或其默認值。

getOutputCol()

得到的價值outputCol或其默認值。

getOutputCols()

得到的價值outputCols或其默認值。

getParam(paramName)

通過它的名稱參數。

getSplits()

得到的值閾值或其默認值。

getSplitsArray()

獲取數組分割點或其默認值。

hasDefault(參數)

檢查是否一個參數有默認值。

hasParam(paramName)

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined(參數)

檢查參數是否由用戶或顯式地設置一個默認值。

收取(參數)

檢查參數是否由用戶顯式地設置。

負載(路徑)

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

()

返回一個MLReader這個類的實例。

保存(路徑)

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

(參數值)

設置一個參數嵌入參數映射。

setHandleInvalid(值)

設置的值handleInvalid

setInputCol(值)

設置的值inputCol

setInputCols(值)

設置的值inputCols

setOutputCol(值)

設置的值outputCol

setOutputCols(值)

設置的值outputCols

setparam(自我,\[,分裂,inputCol,…))

為這個Bucketizer設置參數。

setSplits(值)

設置的值分裂

setSplitsArray(值)

設置的值splitsArray

變換(數據集[params))

與可選參數轉換的輸入數據集。

()

返回一個MLWriter實例毫升實例。

屬性

handleInvalid

inputCol

inputCols

outputCol

outputCols

參數個數

返回所有參數命令的名字。

分裂

splitsArray

方法的文檔

清晰的 ( 參數:pyspark.ml.param.Param )→沒有

清除參數映射的參數是否被顯式地設置。

複製 ( 額外的:可選(ParamMap]=沒有一個 )→摩根大通

創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

參數
額外的 東西,可選

額外參數複製到新實例

返回
JavaParams

這個實例的副本

explainParam ( 參數:聯盟(str,pyspark.ml.param.Param] )→str

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams ( )→str

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap ( 額外的:可選(ParamMap]=沒有一個 )→ParamMap

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

參數
額外的 東西,可選

額外的參數值

返回
dict

合並後的參數映射

getHandleInvalid ( )→str

得到的價值handleInvalid或其默認值。

getInputCol ( )→str

得到的價值inputCol或其默認值。

getInputCols ( )→列表(str]

得到的價值inputCols或其默認值。

getOrDefault ( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T]

得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。

getOutputCol ( )→str

得到的價值outputCol或其默認值。

getOutputCols ( )→列表(str]

得到的價值outputCols或其默認值。

getParam ( paramName:str )pyspark.ml.param.Param

通過它的名稱參數。

getSplits ( )→列表(浮動]

得到的值閾值或其默認值。

getSplitsArray ( )→列表(列表(浮動] ]

獲取數組分割點或其默認值。

hasDefault ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查是否一個參數有默認值。

hasParam ( paramName:str )→bool

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶或顯式地設置一個默認值。

收取 ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶顯式地設置。

classmethod 負載 ( 路徑:str )→RL

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一個MLReader這個類的實例。

保存 ( 路徑:str )→沒有

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

( 參數:pyspark.ml.param.Param,價值:任何 )→沒有

設置一個參數嵌入參數映射。

setHandleInvalid ( 價值:str )pyspark.ml.feature.Bucketizer

設置的值handleInvalid

setInputCol ( 價值:str )pyspark.ml.feature.Bucketizer

設置的值inputCol

setInputCols ( 價值:列表(str] )pyspark.ml.feature.Bucketizer

設置的值inputCols

setOutputCol ( 價值:str )pyspark.ml.feature.Bucketizer

設置的值outputCol

setOutputCols ( 價值:列表(str] )pyspark.ml.feature.Bucketizer

設置的值outputCols

setparam ( 自我,\ *,分裂=沒有,inputCol =沒有,outputCol =沒有,handleInvalid = "錯誤",splitsArray =沒有,inputCols =沒有,outputCols =沒有 )

為這個Bucketizer設置參數。

setSplits ( 價值:列表(浮動] )pyspark.ml.feature.Bucketizer

設置的值分裂

setSplitsArray ( 價值:列表(列表(浮動]] )pyspark.ml.feature.Bucketizer

設置的值splitsArray

變換 ( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame

與可選參數轉換的輸入數據集。

參數
數據集 pyspark.sql.DataFrame

輸入數據集

參數個數 東西,可選

一個可選的參數覆蓋嵌入參數的地圖。

返回
pyspark.sql.DataFrame

改變了數據集

( )→pyspark.ml.util.JavaMLWriter

返回一個MLWriter實例毫升實例。

屬性的文檔

handleInvalid :pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' handleInvalid ', doc = "如何處理無效的條目包含NaN值。值之外的分裂將永遠被視為錯誤。選擇“跳過”(過濾掉行無效值),“錯誤”(拋出一個錯誤),或“保持”(無效值保存在一個特殊的附加桶)。注意,在多個列情況下,無效的處理是適用於所有列。說的“錯誤”,它將拋出一個錯誤如果任何列中發現任何問題,對於“跳過”它會跳過行中與任何問題的任何列等)。”
inputCol =參數(父母=‘定義’,name = ' inputCol ', doc =輸入列名稱。)
inputCols =參數(父母=‘定義’,name = ' inputCols ', doc =輸入列名稱。)
outputCol =參數(父母=‘定義’,name = ' outputCol ', doc =輸出列名稱。)
outputCols =參數(父母=‘定義’,name = ' outputCols ', doc =輸出列名稱。)
參數個數

返回所有參數命令的名字。默認實現使用dir ()所有的屬性類型參數

分裂 :pyspark.ml.param.Param列表(浮動) =參數(父母=‘定義’,name = '分裂',doc = '分割點連續特性映射到桶中。n + 1分裂,有n個桶。一桶由分裂x, y值在範圍內(x, y)除了最後一桶,其中還包括y。分裂應該長度> = 3,嚴格增加。值在無窮,正必須顯式地提供涵蓋所有雙值;否則,將指定以外的值將被視為錯誤。”)
splitsArray :pyspark.ml.param.Param(列表(列表(浮動))) =參數(父母=‘定義’,name = ' splitsArray ', doc = '數組分割點連續映射特性為多個列桶。對於每個輸入列,n + 1分裂,有n個桶。一桶由分裂x, y值在範圍內(x, y)除了最後一桶,其中還包括y。分裂應該長度> = 3,嚴格增加。值在無窮,正必須顯式地提供涵蓋所有雙值;否則,將指定以外的值將被視為錯誤。”)