GBTRegressionModel¶
-
類
pyspark.ml.regression。
GBTRegressionModel
( java_model:可選(JavaObject]=沒有一個 ) ¶ -
模型擬合的
GBTRegressor
。方法
清晰的
(參數)清除參數映射的參數是否被顯式地設置。
複製
((額外的))創建這個實例的副本具有相同uid和一些額外的參數。
evaluateEachIteration
(損失數據集)為每個迭代方法計算錯誤或丟失的梯度增加。
explainParam
(參數)解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
返回文檔的所有參數選擇默認值和用戶提供的值。
extractParamMap
((額外的))提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
得到的價值cacheNodeIds或其默認值。
得到的價值checkpointInterval或其默認值。
得到的價值featureSubsetStrategy或其默認值。
得到的價值featuresCol或其默認值。
雜質的價值或其默認值。
得到的價值labelCol或其默認值。
得到的價值leafCol或其默認值。
得到的價值lossType或其默認值。
得到的價值maxBins或其默認值。
maxDepth的價值或其默認值。
麥克斯特的價值或其默認值。
得到的價值maxMemoryInMB或其默認值。
得到的價值minInfoGain或其默認值。
得到的價值minInstancesPerNode或其默認值。
得到的價值minWeightFractionPerNode或其默認值。
getOrDefault
(參數)得到參數的值在用戶提供的參數映射或其默認值。
getParam
(paramName)通過它的名稱參數。
得到的價值predictionCol或其默認值。
getSeed
()種子的價值或其默認值。
得到的價值stepSize或其默認值。
得到的價值subsamplingRate或其默認值。
得到的價值validationIndicatorCol或其默認值。
得到的價值validationTol或其默認值。
得到的價值weightCol或其默認值。
hasDefault
(參數)檢查是否一個參數有默認值。
hasParam
(paramName)測試這個實例包含一個參數是否與給定名稱(字符串)。
isDefined
(參數)檢查參數是否由用戶或顯式地設置一個默認值。
收取
(參數)檢查參數是否由用戶顯式地設置。
負載
(路徑)從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
預測
(值)預測給定特性的標簽。
predictLeaf
(值)預測樹葉的指標對應的特征向量。
讀
()返回一個MLReader這個類的實例。
保存
(路徑)這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
集
(參數值)設置一個參數嵌入參數映射。
設置的值
featuresCol
。setLeafCol
(值)設置的值
leafCol
。設置的值
predictionCol
。變換
(數據集[params))與可選參數轉換的輸入數據集。
寫
()返回一個MLWriter實例毫升實例。
屬性
估計每個特性的重要性。
樹木的數量。
返回的數量特征模型訓練。
返回所有參數命令的名字。
完整的描述模型。
的節點總數,求和所有樹木。
返回每棵樹的權重
樹木在這個樂團。
方法的文檔
-
清晰的
( 參數:pyspark.ml.param.Param )→沒有¶ -
清除參數映射的參數是否被顯式地設置。
-
複製
( 額外的:可選(ParamMap]=沒有一個 )→摩根大通¶ -
創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 參數
-
- 額外的 東西,可選
-
額外參數複製到新實例
- 返回
-
-
JavaParams
-
這個實例的副本
-
-
evaluateEachIteration
( 數據集:pyspark.sql.dataframe.DataFrame,損失:str )→列表(浮動] ¶ -
為每個迭代方法計算錯誤或丟失的梯度增加。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
測試數據集評估模型,數據集的一個實例
pyspark.sql.DataFrame
- 損失 str
-
損失函數用於計算錯誤。支持選擇:平方,絕對的
-
數據集
-
explainParam
( 參數:聯盟(str,pyspark.ml.param.Param] )→str¶ -
解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
-
explainParams
( )→str¶ -
返回文檔的所有參數選擇默認值和用戶提供的值。
-
extractParamMap
( 額外的:可選(ParamMap]=沒有一個 )→ParamMap¶ -
提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
- 參數
-
- 額外的 東西,可選
-
額外的參數值
- 返回
-
- dict
-
合並後的參數映射
-
getCacheNodeIds
( )→bool¶ -
得到的價值cacheNodeIds或其默認值。
-
getCheckpointInterval
( )→int¶ -
得到的價值checkpointInterval或其默認值。
-
getFeatureSubsetStrategy
( )→str¶ -
得到的價值featureSubsetStrategy或其默認值。
-
getFeaturesCol
( )→str¶ -
得到的價值featuresCol或其默認值。
-
getImpurity
( )→str¶ -
雜質的價值或其默認值。
-
getLabelCol
( )→str¶ -
得到的價值labelCol或其默認值。
-
getLeafCol
( )→str¶ -
得到的價值leafCol或其默認值。
-
getLossType
( )→str¶ -
得到的價值lossType或其默認值。
-
getMaxBins
( )→int¶ -
得到的價值maxBins或其默認值。
-
getMaxDepth
( )→int¶ -
maxDepth的價值或其默認值。
-
getMaxIter
( )→int¶ -
麥克斯特的價值或其默認值。
-
getMaxMemoryInMB
( )→int¶ -
得到的價值maxMemoryInMB或其默認值。
-
getMinInfoGain
( )→浮動¶ -
得到的價值minInfoGain或其默認值。
-
getMinInstancesPerNode
( )→int¶ -
得到的價值minInstancesPerNode或其默認值。
-
getMinWeightFractionPerNode
( )→浮動¶ -
得到的價值minWeightFractionPerNode或其默認值。
-
getOrDefault
( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T] ¶ -
得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通過它的名稱參數。
-
getPredictionCol
( )→str¶ -
得到的價值predictionCol或其默認值。
-
getSeed
( )→int¶ -
種子的價值或其默認值。
-
getStepSize
( )→浮動¶ -
得到的價值stepSize或其默認值。
-
getSubsamplingRate
( )→浮動¶ -
得到的價值subsamplingRate或其默認值。
-
getValidationIndicatorCol
( )→str¶ -
得到的價值validationIndicatorCol或其默認值。
-
getValidationTol
( )→浮動¶ -
得到的價值validationTol或其默認值。
-
getWeightCol
( )→str¶ -
得到的價值weightCol或其默認值。
-
hasDefault
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查是否一個參數有默認值。
-
hasParam
( paramName:str )→bool¶ -
測試這個實例包含一個參數是否與給定名稱(字符串)。
-
isDefined
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶或顯式地設置一個默認值。
-
收取
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶顯式地設置。
-
classmethod
負載
( 路徑:str )→RL¶ -
從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
-
預測
( 價值:T )→浮動¶ -
預測給定特性的標簽。
-
predictLeaf
( 價值:pyspark.ml.linalg.Vector )→浮動¶ -
預測樹葉的指標對應的特征向量。
-
classmethod
讀
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一個MLReader這個類的實例。
-
保存
( 路徑:str )→沒有¶ -
這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
-
集
( 參數:pyspark.ml.param.Param,價值:任何 )→沒有¶ -
設置一個參數嵌入參數映射。
-
setFeaturesCol
( 價值:str )→P¶ -
設置的值
featuresCol
。
-
setPredictionCol
( 價值:str )→P¶ -
設置的值
predictionCol
。
-
變換
( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame¶ -
與可選參數轉換的輸入數據集。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
輸入數據集
- 參數個數 東西,可選
-
一個可選的參數覆蓋嵌入參數的地圖。
-
數據集
- 返回
-
-
pyspark.sql.DataFrame
-
改變了數據集
-
-
寫
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一個MLWriter實例毫升實例。
屬性的文檔
-
cacheNodeIds
=參數(父母=‘定義’,name = ' cacheNodeIds ', doc = '如果錯誤,算法將樹木與節點執行人匹配實例。如果這是真的,該算法將緩存節點為每個實例id。緩存可以加快訓練更深層次的樹。用戶可以設置緩存應該多久通過設置checkpointInterval檢查點或禁用它。”) ¶
-
checkpointInterval
=參數(父母=‘定義’,name = ' checkpointInterval ', doc = '設置檢查點間隔(> = 1)或禁用檢查點(1)。例如10意味著緩存將檢查點每10迭代。注意:此設置將被忽略,如果目錄沒有設置檢查站SparkContext。”) ¶
-
featureImportances
¶ -
估計每個特性的重要性。
每個特性的重要性是它的重要性在所有樹的平均向量規範化的重要性的合奏總和為1。提出的這種方法是Hastie et al。(Hastie Tibshirani,弗裏德曼。“統計學習的要素,第二版。2001。從scikit-learn)開始的,並遵照執行。
例子
DecisionTreeRegressionModel.featureImportances
-
featureSubsetStrategy
=參數(父母=‘定義’,name = ' featureSubsetStrategy ', doc = "的特性考慮數量在每個樹節點分裂。支持選擇:“汽車”(自動選擇任務:如果numTrees = = 1,設置為“所有”。如果numTrees > 1(森林),設置為“√”為分類和回歸“onethird”),“所有”(使用所有功能),“onethird”(使用1/3的特性),“√”(調用sqrt(特性)的數量),“log2”(用log2(特性)的數量),“n”(當n的範圍(0,1.0],使用n *數量的特性。當n的範圍(1,數量的功能),使用n特性)。默認=汽車”) ¶
-
featuresCol
=參數(父母=‘定義’,name = ' featuresCol ', doc =功能列名稱。) ¶
-
getNumTrees
¶ -
樹木的數量。
-
雜質
=參數(父母=‘定義’,name =“雜質”,醫生= '標準用於信息增益計算(不區分大小寫)。支持選擇:方差”) ¶
-
labelCol
:Param (str) =參數(父母=‘定義’,name = ' labelCol ', doc =“標簽列名。”) ¶
-
leafCol
=參數(父母=‘定義’,name = ' leafCol ', doc = '葉指數列名。預測葉指數每棵樹的每個實例預訂。) ¶
-
lossType
=參數(父母=‘定義’,name = ' lossType ', doc = '損失函數GBT試圖最小化(不區分大小寫)。支持選擇:平方,絕對的) ¶
-
maxBins
=參數(父母=‘定義’,name = ' maxBins ', doc = '最大數量的垃圾箱離散化連續特性。必須> = 2,> =數量的類別分類特性。”) ¶
-
maxDepth
=參數(父母=‘定義’,name = ' maxDepth ',醫生= '樹的最大深度。(> = 0)例如,深度0意味著1葉節點;深度1意味著1 + 2葉節點內部節點。必須在區間[0,30]。”) ¶
-
麥克斯特
=參數(父母=‘定義’,name =“麥克斯特”,醫生=“馬克斯(> = 0)的迭代次數。) ¶
-
maxMemoryInMB
=參數(父母=‘定義’,name = ' maxMemoryInMB ',醫生在MB = '最大內存分配給直方圖聚合。如果太小,那麼1個節點將被分配每個迭代,和它的總量可能超過這個大小。”) ¶
-
minInfoGain
=參數(父母=‘定義’,name = ' minInfoGain ', doc =分割的最小信息增益被認為是在一個樹節點。) ¶
-
minInstancesPerNode
=參數(父母=‘定義’,name = ' minInstancesPerNode ', doc = '每個孩子都必須有最小數量的實例後分裂。如果分裂導致左邊或者右邊的孩子不到minInstancesPerNode,分割將作為無效的被丟棄。應該是> = 1”。) ¶
-
minWeightFractionPerNode
=參數(父母=‘定義’,name = ' minWeightFractionPerNode ', doc = '的最低分數加權樣本計數後,每個孩子都必須有分裂。如果一個分裂導致分數總重量的向左或向右孩子小於minWeightFractionPerNode,分割將作為無效的被丟棄。應該在區間[0.0,0.5)。”) ¶
-
numFeatures
¶ -
返回的數量特征模型訓練。如果未知,返回1
-
參數個數
¶ -
返回所有參數命令的名字。默認實現使用
dir ()
所有的屬性類型參數
。
-
predictionCol
=參數(父母=‘定義’,name = ' predictionCol ', doc =預測列名稱。) ¶
-
種子
=參數(父母=‘定義’,name =“種子”,醫生=“隨機種子。”) ¶
-
stepSize
=參數(父母=‘定義’,name = ' stepSize ', doc = '步長(又名學習速率)在區間(0,1)縮小每個估計量的貢獻。”) ¶
-
subsamplingRate
=參數(父母=‘定義’,name = ' subsamplingRate ', doc = '訓練數據的一部分用於學習每一個決策樹,在範圍(0,1]。) ¶
-
supportedFeatureSubsetStrategies
=[‘汽車’,‘所有’,‘onethird’,‘√’,‘log2’) ¶
-
supportedImpurities
=(“方差”) ¶
-
supportedLossTypes
=(“平方”,“絕對”) ¶
-
toDebugString
¶ -
完整的描述模型。
-
totalNumNodes
¶ -
的節點總數,求和所有樹木。
-
treeWeights
¶ -
返回每棵樹的權重
-
樹
¶ -
樹木在這個樂團。警告:這些零父母估計。
-
validationIndicatorCol
=參數(父母=‘定義’,name = ' validationIndicatorCol ', doc = '的名字列表明每一行是否為培訓或驗證。錯誤顯示培訓;真正顯示驗證。) ¶
-
validationTol
=參數(父母=‘定義’,name = ' validationTol ', doc = '閾值時停止早符合使用驗證。如果錯誤率小於validationTol驗證輸入的變化,然後將停止學習早期(“麥克斯特”之前)。使用時,將忽略此參數適合沒有驗證。) ¶
-
weightCol
=參數(父母=‘定義’,name = ' weightCol ', doc = '體重列名。如果這不是設置或空,我們對所有實例權重為1.0。”) ¶
-