LinearRegressionModel

pyspark.ml.regression。 LinearRegressionModel ( java_model:可選(JavaObject]=沒有一個 )

模型擬合的LinearRegression

方法

清晰的(參數)

清除參數映射的參數是否被顯式地設置。

複製((額外的))

創建這個實例的副本具有相同uid和一些額外的參數。

評估(數據集)

評估模型的測試數據集。

explainParam(參數)

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams()

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap((額外的))

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

getAggregationDepth()

得到的價值aggregationDepth或其默認值。

getElasticNetParam()

得到的價值elasticNetParam或其默認值。

getEpsilon()

得到的值ε或其默認值。

getFeaturesCol()

得到的價值featuresCol或其默認值。

getFitIntercept()

得到的價值fitIntercept或其默認值。

getLabelCol()

得到的價值labelCol或其默認值。

getLoss()

獲得的價值損失或其默認值。

getMaxBlockSizeInMB()

得到的價值maxBlockSizeInMB或其默認值。

getMaxIter()

麥克斯特的價值或其默認值。

getOrDefault(參數)

得到參數的值在用戶提供的參數映射或其默認值。

getParam(paramName)

通過它的名稱參數。

getPredictionCol()

得到的價值predictionCol或其默認值。

getRegParam()

得到的價值regParam或其默認值。

getSolver()

得到解決的價值或其默認值。

getStandardization()

被標準化的價值或其默認值。

getTol()

被托爾的價值或其默認值。

getWeightCol()

得到的價值weightCol或其默認值。

hasDefault(參數)

檢查是否一個參數有默認值。

hasParam(paramName)

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined(參數)

檢查參數是否由用戶或顯式地設置一個默認值。

收取(參數)

檢查參數是否由用戶顯式地設置。

負載(路徑)

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

預測(值)

預測給定特性的標簽。

()

返回一個MLReader這個類的實例。

保存(路徑)

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

(參數值)

設置一個參數嵌入參數映射。

setFeaturesCol(值)

設置的值featuresCol

setPredictionCol(值)

設置的值predictionCol

變換(數據集[params))

與可選參數轉換的輸入數據集。

()

返回一個GeneralMLWriter實例毫升實例。

屬性

aggregationDepth

係數

模型係數。

elasticNetParam

ε

featuresCol

fitIntercept

hasSummary

表明這個模型實例是否存在一個培訓總結。

攔截

截距的模型。

labelCol

損失

maxBlockSizeInMB

麥克斯特

numFeatures

返回的數量特征模型訓練。

參數個數

返回所有參數命令的名字。

predictionCol

regParam

規模

的價值\ (y - X 'w \ \ | | \)按比例縮小損失是“huber”時,否則1.0。

解算器

標準化

總結

總結(MSE,殘差平方)模型訓練集。

托爾

weightCol

方法的文檔

清晰的 ( 參數:pyspark.ml.param.Param )→沒有

清除參數映射的參數是否被顯式地設置。

複製 ( 額外的:可選(ParamMap]=沒有一個 )→摩根大通

創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

參數
額外的 東西,可選

額外參數複製到新實例

返回
JavaParams

這個實例的副本

評估 ( 數據集:pyspark.sql.dataframe.DataFrame )pyspark.ml.regression.LinearRegressionSummary

評估模型的測試數據集。

參數
數據集 pyspark.sql.DataFrame

測試數據集評估模型,數據集的一個實例pyspark.sql.DataFrame

explainParam ( 參數:聯盟(str,pyspark.ml.param.Param] )→str

解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。

explainParams ( )→str

返回文檔的所有參數選擇默認值和用戶提供的值。

extractParamMap ( 額外的:可選(ParamMap]=沒有一個 )→ParamMap

提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。

參數
額外的 東西,可選

額外的參數值

返回
dict

合並後的參數映射

getAggregationDepth ( )→int

得到的價值aggregationDepth或其默認值。

getElasticNetParam ( )→浮動

得到的價值elasticNetParam或其默認值。

getEpsilon ( )→浮動

得到的值ε或其默認值。

getFeaturesCol ( )→str

得到的價值featuresCol或其默認值。

getFitIntercept ( )→bool

得到的價值fitIntercept或其默認值。

getLabelCol ( )→str

得到的價值labelCol或其默認值。

getLoss ( )→str

獲得的價值損失或其默認值。

getMaxBlockSizeInMB ( )→浮動

得到的價值maxBlockSizeInMB或其默認值。

getMaxIter ( )→int

麥克斯特的價值或其默認值。

getOrDefault ( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T]

得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。

getParam ( paramName:str )pyspark.ml.param.Param

通過它的名稱參數。

getPredictionCol ( )→str

得到的價值predictionCol或其默認值。

getRegParam ( )→浮動

得到的價值regParam或其默認值。

getSolver ( )→str

得到解決的價值或其默認值。

getStandardization ( )→bool

被標準化的價值或其默認值。

getTol ( )→浮動

被托爾的價值或其默認值。

getWeightCol ( )→str

得到的價值weightCol或其默認值。

hasDefault ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查是否一個參數有默認值。

hasParam ( paramName:str )→bool

測試這個實例包含一個參數是否與給定名稱(字符串)。

isDefined ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶或顯式地設置一個默認值。

收取 ( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool

檢查參數是否由用戶顯式地設置。

classmethod 負載 ( 路徑:str )→RL

從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)

預測 ( 價值:T )→浮動

預測給定特性的標簽。

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一個MLReader這個類的實例。

保存 ( 路徑:str )→沒有

這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。

( 參數:pyspark.ml.param.Param,價值:任何 )→沒有

設置一個參數嵌入參數映射。

setFeaturesCol ( 價值:str )→P

設置的值featuresCol

setPredictionCol ( 價值:str )→P

設置的值predictionCol

變換 ( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame

與可選參數轉換的輸入數據集。

參數
數據集 pyspark.sql.DataFrame

輸入數據集

參數個數 東西,可選

一個可選的參數覆蓋嵌入參數的地圖。

返回
pyspark.sql.DataFrame

改變了數據集

( )→pyspark.ml.util.GeneralJavaMLWriter

返回一個GeneralMLWriter實例毫升實例。

屬性的文檔

aggregationDepth =參數(父母=‘定義’,name = ' aggregationDepth ', doc =的建議深度treeAggregate (> = 2)。)
係數

模型係數。

elasticNetParam =參數(父母=‘定義’,name = ' elasticNetParam ', doc = ' ElasticNet混合參數,在區間[0,1]。L2為α= 0,懲罰是一種懲罰。L1為α= 1,這是一個點球。”)
ε :pyspark.ml.param.Param(浮動) =參數(父母=‘定義’,name =ε,doc = '形狀參數控製的魯棒性。必須> 1.0。隻有有效的huber)損失時
featuresCol =參數(父母=‘定義’,name = ' featuresCol ', doc =功能列名稱。)
fitIntercept =參數(父母=‘定義’,name = ' fitIntercept ', doc =是否適合一個截距項。)
hasSummary

表明這個模型實例是否存在一個培訓總結。

攔截

截距的模型。

labelCol =參數(父母=‘定義’,name = ' labelCol ', doc =“標簽列名。”)
損失 :pyspark.ml.param.Param (str) =參數(父母=‘定義’,name =“損失”,醫生= '損失函數進行優化。支持選擇:squaredError huber。”)
maxBlockSizeInMB =參數(父母=‘定義’,name = ' maxBlockSizeInMB ',醫生在MB = '最大內存疊加輸入數據塊。數據分區內堆放。如果超過剩餘的數據大小的分區是調整大小的數據。默認0.0代表了選擇最優值,取決於特定的算法。必須> = 0”。)
麥克斯特 =參數(父母=‘定義’,name =“麥克斯特”,醫生=“馬克斯(> = 0)的迭代次數。)
numFeatures

返回的數量特征模型訓練。如果未知,返回1

參數個數

返回所有參數命令的名字。默認實現使用dir ()所有的屬性類型參數

predictionCol =參數(父母=‘定義’,name = ' predictionCol ', doc =預測列名稱。)
regParam =參數(父母=‘定義’,name = ' regParam ', doc =“正則化參數(> = 0)”。)
規模

的價值\ (y - X 'w \ \ | | \)按比例縮小損失是“huber”時,否則1.0。

解算器 :pyspark.ml.param.Param (str) =參數(父母=‘定義’,name =“規劃求解”,醫生= '優化的求解算法。支持選擇:汽車、正常,l-bfgs。”)
標準化 =參數(父母=‘定義’,name =“標準化”,醫生=是否規範培訓特性擬合模型之前。)
總結

總結(MSE,殘差平方)模型訓練集。如果是一個例外trainingSummary沒有

托爾 =參數(父母=‘定義’,name =“托爾”,醫生=迭代算法的收斂公差(> = 0)”。)
weightCol =參數(父母=‘定義’,name = ' weightCol ', doc = '體重列名。如果這不是設置或空,我們對所有實例權重為1.0。”)