LinearSVC

pyspark.ml.classification。 LinearSVC ( *,featuresCol:str=“特性”,labelCol:str=“標簽”,predictionCol:str=“預測”,麥克斯特:int=One hundred.,regParam:浮動=0.0,托爾:浮動=1 e-06,rawPredictionCol:str=“rawPrediction”,fitIntercept:bool=真正的,標準化:bool=真正的,閾值:浮動=0.0,weightCol:可選(str]=沒有一個,aggregationDepth:int=2,maxBlockSizeInMB:浮動=0.0 )

這種二元分類器使用OWLQN優化器優化鉸鏈損失。目前隻支持L2正規化。

筆記

線性支持向量機分類器

例子

> > >pyspark.sql進口> > >pyspark.ml.linalg進口向量> > >df=sc並行化([(標簽=1.0,特性=向量密集的(1.0,1.0,1.0)),(標簽=0.0,特性=向量密集的(1.0,2.0,3.0))))toDF()> > >支持向量機=LinearSVC()> > >支持向量機getMaxIter()One hundred.> > >支持向量機setMaxIter(5)LinearSVC……> > >支持向量機getMaxIter()5> > >支持向量機getRegParam()0.0> > >支持向量機setRegParam(0.01)LinearSVC……> > >支持向量機getRegParam()0.01> > >模型=支持向量機適合(df)> > >模型setPredictionCol(“newPrediction”)LinearSVCModel……> > >模型getPredictionCol()“newPrediction”> > >模型setThreshold(0.5)LinearSVCModel……> > >模型getThreshold()0.5> > >模型getMaxBlockSizeInMB()0.0> > >模型係數DenseVector ((0.0, -1.0319, -0.5159))> > >模型攔截2.579645978780695> > >模型numClasses2> > >模型numFeatures3> > >電平=sc並行化([(特性=向量密集的(- - - - - -1.0,- - - - - -1.0,- - - - - -1.0))))toDF()> > >模型預測(電平()特性)1.0> > >模型predictRaw(電平()特性)DenseVector ([-4.1274, 4.1274])> > >結果=模型變換(電平)()> > >結果newPrediction1.0> > >結果rawPredictionDenseVector ([-4.1274, 4.1274])> > >svm_path=temp_path+“/ svm”> > >支持向量機保存(svm_path)> > >svm2=LinearSVC負載(svm_path)> > >svm2getMaxIter()5> > >model_path=temp_path+“/ svm_model”> > >模型保存(model_path)> > >model2=LinearSVCModel負載(model_path)> > >模型係數(0]= =model2係數(0]真正的> > >模型攔截= =model2攔截真正的> > >模型變換(電平)(1)= =model2變換(電平)(1)真正的

方法

清晰的(參數)

清除參數映射的參數是否被顯式地設置。

複製((額外的))

創建這個實例的副本具有相同uid和一些額外的參數。

explainParam(參數)

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams()

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap((額外的))

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

適合(數據集[params))

適合一個模型與可選參數的輸入數據集。

fitMultiple(paramMaps數據集)

適合一個模型為每個參數映射的輸入數據集paramMaps

getAggregationDepth()

得到的價值aggregationDepth或其默認值。

getFeaturesCol()

得到的價值featuresCol或其默認值。

getFitIntercept()

得到的價值fitIntercept或其默認值。

getLabelCol()

得到的價值labelCol或其默認值。

getMaxBlockSizeInMB()

得到的價值maxBlockSizeInMB或其默認值。

getMaxIter()

麥克斯特的價值或其默認值。

getOrDefault(參數)

得到參數的值在用戶提供的參數映射或其默認值。

getParam(paramName)

通過它的名稱參數。

getPredictionCol()

得到的價值predictionCol或其默認值。

getRawPredictionCol()

得到的價值rawPredictionCol或其默認值。

getRegParam()

得到的價值regParam或其默認值。

getStandardization()

被標準化的價值或其默認值。

getThreshold()

得到的值閾值或其默認值。

getTol()

被托爾的價值或其默認值。

getWeightCol()

得到的價值weightCol或其默認值。

hasDefault(參數)

檢查是否一個參數有默認值。

hasParam(paramName)

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined(參數)

檢查參數是否由用戶或顯式地設置一個默認值。

收取(參數)

檢查參數是否由用戶顯式地設置。

負載(路徑)

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

()

返回一個MLReader這個類的實例。

保存(路徑)

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

(參數值)

設置一個參數嵌入參數映射。

setAggregationDepth(值)

設置的值aggregationDepth

setFeaturesCol(值)

設置的值featuresCol

setFitIntercept(值)

設置的值fitIntercept

setLabelCol(值)

設置的值labelCol

setMaxBlockSizeInMB(值)

設置的值maxBlockSizeInMB

setMaxIter(值)

設置的值麥克斯特

setparam(* [,labelCol featuresCol…))

setparam(自我,*,featuresCol =“特性”,labelCol =“標簽”,predictionCol =“預測”,麥克斯特= 100,regParam = 0.0, tol = 1 e-6, rawPredictionCol =“rawPrediction fitIntercept = True,標準化= True,閾值= 0.0,weightCol = None, aggregationDepth = 2, maxBlockSizeInMB = 0.0):設置參數線性SVM分類器。

setPredictionCol(值)

設置的值predictionCol

setRawPredictionCol(值)

設置的值rawPredictionCol

setRegParam(值)

設置的值regParam

setStandardization(值)

設置的值標準化

setThreshold(值)

設置的值閾值

setTol(值)

設置的值托爾

setWeightCol(值)

設置的值weightCol

()

返回一個MLWriter實例毫升實例。

屬性

aggregationDepth

featuresCol

fitIntercept

labelCol

maxBlockSizeInMB

麥克斯特

參數個數

返回所有參數命令的名字。

predictionCol

rawPredictionCol

regParam

標準化

閾值

托爾

weightCol

方法的文檔

清晰的 ( 參數:pyspark.ml.param.Param )→沒有

清除參數映射的參數是否被顯式地設置。

複製 ( 額外的:可選(ParamMap]=沒有一個 )→摩根大通

創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

參數
額外的 東西,可選

額外參數複製到新實例

返回
JavaParams

這個實例的副本

explainParam ( 參數:聯盟(str,pyspark.ml.param.Param] )→str

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams ( )→str

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap ( 額外的:可選(ParamMap]=沒有一個 )→ParamMap

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

參數
額外的 東西,可選

額外的參數值

返回
dict

合並後的參數映射

適合 ( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:聯盟[ParamMap、列表(ParamMap)元組(ParamMap),沒有一個)=沒有一個 )→聯盟(,列表(] ]

適合一個模型與可選參數的輸入數據集。

參數
數據集 pyspark.sql.DataFrame

輸入數據集。

參數個數 dict或列表或元組,可選的

一個可選的參數覆蓋嵌入參數的地圖。如果列表/元組的參數映射,這適用於每一個參數並返回一個列表的模型映射。

返回
變壓器或者一個列表變壓器

擬合模型(年代)

fitMultiple ( 數據集:pyspark.sql.dataframe.DataFrame,paramMaps:序列(ParamMap] )→迭代器(元組(int,] ]

適合一個模型為每個參數映射的輸入數據集paramMaps

參數
數據集 pyspark.sql.DataFrame

輸入數據集。

paramMaps collections.abc.Sequence

一係列的參數映射。

返回
_FitMultipleIterator

一個線程安全的iterable包含為每個參數映射模型。每次調用下一個(modelIterator)將返回(指數模型)模型是適合使用在哪裏paramMaps(指數)指數值可能不是連續的。

getAggregationDepth ( )→int

得到的價值aggregationDepth或其默認值。

getFeaturesCol ( )→str

得到的價值featuresCol或其默認值。

getFitIntercept ( )→bool

得到的價值fitIntercept或其默認值。

getLabelCol ( )→str

得到的價值labelCol或其默認值。

getMaxBlockSizeInMB ( )→浮動

得到的價值maxBlockSizeInMB或其默認值。

getMaxIter ( )→int

麥克斯特的價值或其默認值。

getOrDefault ( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T]

得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。

getParam ( paramName:str )pyspark.ml.param.Param

通過它的名稱參數。

getPredictionCol ( )→str

得到的價值predictionCol或其默認值。

getRawPredictionCol ( )→str

得到的價值rawPredictionCol或其默認值。

getRegParam ( )→浮動

得到的價值regParam或其默認值。

getStandardization ( )→bool

被標準化的價值或其默認值。

getThreshold ( )→浮動

得到的值閾值或其默認值。

getTol ( )→浮動

被托爾的價值或其默認值。

getWeightCol ( )→str

得到的價值weightCol或其默認值。

hasDefault ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查是否一個參數有默認值。

hasParam ( paramName:str )→bool

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶或顯式地設置一個默認值。

收取 ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶顯式地設置。

classmethod 負載 ( 路徑:str )→RL

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一個MLReader這個類的實例。

保存 ( 路徑:str )→沒有

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

( 參數:pyspark.ml.param.Param,價值:任何 )→沒有

設置一個參數嵌入參數映射。

setAggregationDepth ( 價值:int )pyspark.ml.classification.LinearSVC

設置的值aggregationDepth

setFeaturesCol ( 價值:str )→P

設置的值featuresCol

setFitIntercept ( 價值:bool )pyspark.ml.classification.LinearSVC

設置的值fitIntercept

setLabelCol ( 價值:str )→P

設置的值labelCol

setMaxBlockSizeInMB ( 價值:浮動 )pyspark.ml.classification.LinearSVC

設置的值maxBlockSizeInMB

setMaxIter ( 價值:int )pyspark.ml.classification.LinearSVC

設置的值麥克斯特

setparam ( *,featuresCol:str=“特性”,labelCol:str=“標簽”,predictionCol:str=“預測”,麥克斯特:int=One hundred.,regParam:浮動=0.0,托爾:浮動=1 e-06,rawPredictionCol:str=“rawPrediction”,fitIntercept:bool=真正的,標準化:bool=真正的,閾值:浮動=0.0,weightCol:可選(str]=沒有一個,aggregationDepth:int=2,maxBlockSizeInMB:浮動=0.0 )pyspark.ml.classification.LinearSVC

setparam(自我,*,featuresCol =“特性”,labelCol =“標簽”,predictionCol =“預測”,麥克斯特= 100,regParam = 0.0, tol = 1 e-6, rawPredictionCol =“rawPrediction fitIntercept = True,標準化= True,閾值= 0.0,weightCol = None, aggregationDepth = 2, maxBlockSizeInMB = 0.0):設置參數線性SVM分類器。

setPredictionCol ( 價值:str )→P

設置的值predictionCol

setRawPredictionCol ( 價值:str )→P

設置的值rawPredictionCol

setRegParam ( 價值:浮動 )pyspark.ml.classification.LinearSVC

設置的值regParam

setStandardization ( 價值:bool )pyspark.ml.classification.LinearSVC

設置的值標準化

setThreshold ( 價值:浮動 )pyspark.ml.classification.LinearSVC

設置的值閾值

setTol ( 價值:浮動 )pyspark.ml.classification.LinearSVC

設置的值托爾

setWeightCol ( 價值:str )pyspark.ml.classification.LinearSVC

設置的值weightCol

( )→pyspark.ml.util.JavaMLWriter

返回一個MLWriter實例毫升實例。

屬性的文檔

aggregationDepth =參數(父母=‘定義’,name = ' aggregationDepth ', doc =的建議深度treeAggregate (> = 2)。)
featuresCol =參數(父母=‘定義’,name = ' featuresCol ', doc =功能列名稱。)
fitIntercept =參數(父母=‘定義’,name = ' fitIntercept ', doc =是否適合一個截距項。)
labelCol =參數(父母=‘定義’,name = ' labelCol ', doc =“標簽列名。”)
maxBlockSizeInMB =參數(父母=‘定義’,name = ' maxBlockSizeInMB ',醫生在MB = '最大內存疊加輸入數據塊。數據分區內堆放。如果超過剩餘的數據大小的分區是調整大小的數據。默認0.0代表了選擇最優值,取決於特定的算法。必須> = 0”。)
麥克斯特 =參數(父母=‘定義’,name =“麥克斯特”,醫生=“馬克斯(> = 0)的迭代次數。)
參數個數

返回所有參數命令的名字。默認實現使用dir ()所有的屬性類型參數

predictionCol =參數(父母=‘定義’,name = ' predictionCol ', doc =預測列名稱。)
rawPredictionCol =參數(父母=‘定義’,name = ' rawPredictionCol ', doc =“原始預測(又名信心)列名”。)
regParam =參數(父母=‘定義’,name = ' regParam ', doc =“正則化參數(> = 0)”。)
標準化 =參數(父母=‘定義’,name =“標準化”,醫生=是否規範培訓特性擬合模型之前。)
閾值 =參數(父母=‘定義’,name =“閾值”,醫生= '以二進製分類閾值應用到線性模型預測。這個閾值可以是任何實數,正將所有預測0.0和1.0負無窮將使所有的預測。”)
托爾 =參數(父母=‘定義’,name =“托爾”,醫生=迭代算法的收斂公差(> = 0)”。)
weightCol =參數(父母=‘定義’,name = ' weightCol ', doc = '體重列名。如果這不是設置或空,我們對所有實例權重為1.0。”)