OneHotEncoder

pyspark.ml.feature。 OneHotEncoder ( *,inputCols:可選(列表(str]]=沒有一個,outputCols:可選(列表(str]]=沒有一個,handleInvalid:str=“錯誤”,dropLast:bool=真正的,inputCol:可選(str]=沒有一個,outputCol:可選(str]=沒有一個 )

一個地圖的一個炎熱的編碼器類別索引的列的列二進製向量,每行最多一個一個值,指示輸入類別索引。與5個類別,例如一個輸入值為2.0時將映射到一個輸出向量(0.0,0.0,1.0,0.0)。最後一類是不包括在默認情況下(可配置通過dropLast),因為它使向量條目總結,因此線性相關的。所以4.0地圖的輸入值(0.0,0.0,0.0,0.0)

handleInvalid配置為“保持”,添加一個額外的“類別”指示無效值作為最後的類別。所以,當dropLast是真的,編碼為無效值都為零向量。

另請參閱

StringIndexer

定值轉化為分類指標

筆記

這不同於scikit-learn OneHotEncoder,讓所有類別。輸出向量是稀疏的。

當編碼多列使用inputColsoutputCols參數,輸入/輸出關口都是成對的,順序指定的數組,每一對獨立處理。

例子

> > >pyspark.ml.linalg進口向量> > >df=火花createDataFrame(((0.0),(1.0),(2.0),(“輸入”])> > >鹹寧=OneHotEncoder()> > >鹹寧setInputCols([“輸入”])OneHotEncoder……> > >鹹寧setOutputCols([“輸出”])OneHotEncoder……> > >模型=鹹寧適合(df)> > >模型setOutputCols([“輸出”])OneHotEncoderModel……> > >模型getHandleInvalid()“錯誤”> > >模型變換(df)()輸出SparseVector ({0: 1.0})> > >single_col_ohe=OneHotEncoder(inputCol=“輸入”,outputCol=“輸出”)> > >single_col_model=single_col_ohe適合(df)> > >single_col_model變換(df)()輸出SparseVector ({0: 1.0})> > >ohePath=temp_path+“/鹹寧”> > >鹹寧保存(ohePath)> > >loadedOHE=OneHotEncoder負載(ohePath)> > >loadedOHEgetInputCols()= =鹹寧getInputCols()真正的> > >modelPath=temp_path+“/ ohe-model”> > >模型保存(modelPath)> > >loadedModel=OneHotEncoderModel負載(modelPath)> > >loadedModelcategorySizes= =模型categorySizes真正的> > >loadedModel變換(df)(1)= =模型變換(df)(1)真正的

方法

清晰的(參數)

清除參數映射的參數是否被顯式地設置。

複製((額外的))

創建這個實例的副本具有相同uid和一些額外的參數。

explainParam(參數)

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams()

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap((額外的))

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

適合(數據集[params))

適合一個模型與可選參數的輸入數據集。

fitMultiple(paramMaps數據集)

適合一個模型為每個參數映射的輸入數據集paramMaps

getDropLast()

得到的價值dropLast或其默認值。

getHandleInvalid()

得到的價值handleInvalid或其默認值。

getInputCol()

得到的價值inputCol或其默認值。

getInputCols()

得到的價值inputCols或其默認值。

getOrDefault(參數)

得到參數的值在用戶提供的參數映射或其默認值。

getOutputCol()

得到的價值outputCol或其默認值。

getOutputCols()

得到的價值outputCols或其默認值。

getParam(paramName)

通過它的名稱參數。

hasDefault(參數)

檢查是否一個參數有默認值。

hasParam(paramName)

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined(參數)

檢查參數是否由用戶或顯式地設置一個默認值。

收取(參數)

檢查參數是否由用戶顯式地設置。

負載(路徑)

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

()

返回一個MLReader這個類的實例。

保存(路徑)

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

(參數值)

設置一個參數嵌入參數映射。

setDropLast(值)

設置的值dropLast

setHandleInvalid(值)

設置的值handleInvalid

setInputCol(值)

設置的值inputCol

setInputCols(值)

設置的值inputCols

setOutputCol(值)

設置的值outputCol

setOutputCols(值)

設置的值outputCols

setparam(自我,\ [,outputCols inputCols…))

為這個OneHotEncoder設置參數。

()

返回一個MLWriter實例毫升實例。

屬性

dropLast

handleInvalid

inputCol

inputCols

outputCol

outputCols

參數個數

返回所有參數命令的名字。

方法的文檔

清晰的 ( 參數:pyspark.ml.param.Param )→沒有

清除參數映射的參數是否被顯式地設置。

複製 ( 額外的:可選(ParamMap]=沒有一個 )→摩根大通

創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

參數
額外的 東西,可選

額外參數複製到新實例

返回
JavaParams

這個實例的副本

explainParam ( 參數:聯盟(str,pyspark.ml.param.Param] )→str

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams ( )→str

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap ( 額外的:可選(ParamMap]=沒有一個 )→ParamMap

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

參數
額外的 東西,可選

額外的參數值

返回
dict

合並後的參數映射

適合 ( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:聯盟[ParamMap、列表(ParamMap)元組(ParamMap),沒有一個)=沒有一個 )→聯盟(,列表(] ]

適合一個模型與可選參數的輸入數據集。

參數
數據集 pyspark.sql.DataFrame

輸入數據集。

參數個數 dict或列表或元組,可選的

一個可選的參數覆蓋嵌入參數的地圖。如果列表/元組的參數映射,這適用於每一個參數並返回一個列表的模型映射。

返回
變壓器或者一個列表變壓器

擬合模型(年代)

fitMultiple ( 數據集:pyspark.sql.dataframe.DataFrame,paramMaps:序列(ParamMap] )→迭代器(元組(int,] ]

適合一個模型為每個參數映射的輸入數據集paramMaps

參數
數據集 pyspark.sql.DataFrame

輸入數據集。

paramMaps collections.abc.Sequence

一係列的參數映射。

返回
_FitMultipleIterator

一個線程安全的iterable包含為每個參數映射模型。每次調用下一個(modelIterator)將返回(指數模型)模型是適合使用在哪裏paramMaps(指數)指數值可能不是連續的。

getDropLast ( )→bool

得到的價值dropLast或其默認值。

getHandleInvalid ( )→str

得到的價值handleInvalid或其默認值。

getInputCol ( )→str

得到的價值inputCol或其默認值。

getInputCols ( )→列表(str]

得到的價值inputCols或其默認值。

getOrDefault ( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T]

得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。

getOutputCol ( )→str

得到的價值outputCol或其默認值。

getOutputCols ( )→列表(str]

得到的價值outputCols或其默認值。

getParam ( paramName:str )pyspark.ml.param.Param

通過它的名稱參數。

hasDefault ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查是否一個參數有默認值。

hasParam ( paramName:str )→bool

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶或顯式地設置一個默認值。

收取 ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶顯式地設置。

classmethod 負載 ( 路徑:str )→RL

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一個MLReader這個類的實例。

保存 ( 路徑:str )→沒有

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

( 參數:pyspark.ml.param.Param,價值:任何 )→沒有

設置一個參數嵌入參數映射。

setDropLast ( 價值:bool )pyspark.ml.feature.OneHotEncoder

設置的值dropLast

setHandleInvalid ( 價值:str )pyspark.ml.feature.OneHotEncoder

設置的值handleInvalid

setInputCol ( 價值:str )pyspark.ml.feature.OneHotEncoder

設置的值inputCol

setInputCols ( 價值:列表(str] )pyspark.ml.feature.OneHotEncoder

設置的值inputCols

setOutputCol ( 價值:str )pyspark.ml.feature.OneHotEncoder

設置的值outputCol

setOutputCols ( 價值:列表(str] )pyspark.ml.feature.OneHotEncoder

設置的值outputCols

setparam ( 自我,\ *,inputCols =沒有,outputCols =沒有,handleInvalid = "錯誤",dropLast = True,inputCol =沒有,outputCol =沒有 )

為這個OneHotEncoder設置參數。

( )→pyspark.ml.util.JavaMLWriter

返回一個MLWriter實例毫升實例。

屬性的文檔

dropLast =參數(父母=‘定義’,name = ' dropLast ', doc =是否放棄過去的類別)
handleInvalid =參數(父母=‘定義’,name = ' handleInvalid ', doc = "期間如何處理無效數據變換()。選擇“繼續”(無效的數據作為一個額外的分類特性)或錯誤(拋出一個錯誤)。注意,這個參數是隻用在變換;在擬合,無效的數據將導致一個錯誤。”)
inputCol =參數(父母=‘定義’,name = ' inputCol ', doc =輸入列名稱。)
inputCols =參數(父母=‘定義’,name = ' inputCols ', doc =輸入列名稱。)
outputCol =參數(父母=‘定義’,name = ' outputCol ', doc =輸出列名稱。)
outputCols =參數(父母=‘定義’,name = ' outputCols ', doc =輸出列名稱。)
參數個數

返回所有參數命令的名字。默認實現使用dir ()所有的屬性類型參數