DecisionTreeRegressor¶
-
類
pyspark.ml.regression。
DecisionTreeRegressor
( *,featuresCol:str=“特性”,labelCol:str=“標簽”,predictionCol:str=“預測”,maxDepth:int=5,maxBins:int=32,minInstancesPerNode:int=1,minInfoGain:浮動=0.0,maxMemoryInMB:int=256年,cacheNodeIds:bool=假,checkpointInterval:int=10,雜質:str=“方差”,種子:可選(int]=沒有一個,varianceCol:可選(str]=沒有一個,weightCol:可選(str]=沒有一個,leafCol:str=”,minWeightFractionPerNode:浮動=0.0 ) ¶ -
決策樹為回歸學習算法。它同時支持連續和分類功能。
例子
> > >從pyspark.ml.linalg進口向量> > >df=火花。createDataFrame([…(1.0,向量。密集的(1.0)),…(0.0,向量。稀疏的(1,[],[]))),(“標簽”,“特征”])> > >dt=DecisionTreeRegressor(maxDepth=2)> > >dt。setVarianceCol(“方差”)DecisionTreeRegressor……> > >模型=dt。適合(df)> > >模型。getVarianceCol()“方差”> > >模型。setLeafCol(“leafId”)DecisionTreeRegressionModel……> > >模型。深度1> > >模型。numNodes3> > >模型。featureImportancesSparseVector ({0: 1.0})> > >模型。numFeatures1> > >電平=火花。createDataFrame(((向量。密集的(- - - - - -1.0),),(“特征”])> > >模型。預測(電平。頭()。特性)0.0> > >結果=模型。變換(電平)。頭()> > >結果。預測0.0> > >模型。predictLeaf(電平。頭()。特性)0.0> > >結果。leafId0.0> > >test1=火花。createDataFrame(((向量。稀疏的(1,(0),(1.0),),(“特征”])> > >模型。變換(test1)。頭()。預測1.0> > >dtr_path=temp_path+“/ dtr”> > >dt。保存(dtr_path)> > >dt2=DecisionTreeRegressor。負載(dtr_path)> > >dt2。getMaxDepth()2> > >model_path=temp_path+“/ dtr_model”> > >模型。保存(model_path)> > >model2=DecisionTreeRegressionModel。負載(model_path)> > >模型。numNodes= =model2。numNodes真正的> > >模型。深度= =model2。深度真正的> > >模型。變換(test1)。頭()。方差0.0> > >模型。變換(電平)。取(1)= =model2。變換(電平)。取(1)真正的> > >df3=火花。createDataFrame([…(1.0,0.2,向量。密集的(1.0)),…(1.0,0.8,向量。密集的(1.0)),…(0.0,1.0,向量。稀疏的(1,[],[]))),(“標簽”,“重量”,“特征”])> > >dt3=DecisionTreeRegressor(maxDepth=2,weightCol=“重量”,varianceCol=“方差”)> > >model3=dt3。適合(df3)> > >打印(model3。toDebugString)DecisionTreeRegressionModel…深度= 1,numNodes = 3…
方法
清晰的
(參數)清除參數映射的參數是否被顯式地設置。
複製
((額外的))創建這個實例的副本具有相同uid和一些額外的參數。
explainParam
(參數)解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
返回文檔的所有參數選擇默認值和用戶提供的值。
extractParamMap
((額外的))提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
適合
(數據集[params))適合一個模型與可選參數的輸入數據集。
fitMultiple
(paramMaps數據集)適合一個模型為每個參數映射的輸入數據集paramMaps。
得到的價值cacheNodeIds或其默認值。
得到的價值checkpointInterval或其默認值。
得到的價值featuresCol或其默認值。
雜質的價值或其默認值。
得到的價值labelCol或其默認值。
得到的價值leafCol或其默認值。
得到的價值maxBins或其默認值。
maxDepth的價值或其默認值。
得到的價值maxMemoryInMB或其默認值。
得到的價值minInfoGain或其默認值。
得到的價值minInstancesPerNode或其默認值。
得到的價值minWeightFractionPerNode或其默認值。
getOrDefault
(參數)得到參數的值在用戶提供的參數映射或其默認值。
getParam
(paramName)通過它的名稱參數。
得到的價值predictionCol或其默認值。
getSeed
()種子的價值或其默認值。
得到的價值varianceCol或其默認值。
得到的價值weightCol或其默認值。
hasDefault
(參數)檢查是否一個參數有默認值。
hasParam
(paramName)測試這個實例包含一個參數是否與給定名稱(字符串)。
isDefined
(參數)檢查參數是否由用戶或顯式地設置一個默認值。
收取
(參數)檢查參數是否由用戶顯式地設置。
負載
(路徑)從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
讀
()返回一個MLReader這個類的實例。
保存
(路徑)這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
集
(參數值)設置一個參數嵌入參數映射。
設置的值
cacheNodeIds
。設置的值
checkpointInterval
。設置的值
featuresCol
。setImpurity
(值)設置的值
雜質
。setLabelCol
(值)設置的值
labelCol
。setLeafCol
(值)設置的值
leafCol
。setMaxBins
(值)設置的值
maxBins
。setMaxDepth
(值)設置的值
maxDepth
。設置的值
maxMemoryInMB
。設置的值
minInfoGain
。設置的值
minInstancesPerNode
。setparam
(自我,\ [,labelCol featuresCol…))DecisionTreeRegressor設置參數。
設置的值
predictionCol
。setSeed
(值)設置的值
種子
。設置的值
varianceCol
。setWeightCol
(值)設置的值
weightCol
。寫
()返回一個MLWriter實例毫升實例。
屬性
返回所有參數命令的名字。
方法的文檔
-
清晰的
( 參數:pyspark.ml.param.Param )→沒有¶ -
清除參數映射的參數是否被顯式地設置。
-
複製
( 額外的:可選(ParamMap]=沒有一個 )→摩根大通¶ -
創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 參數
-
- 額外的 東西,可選
-
額外參數複製到新實例
- 返回
-
-
JavaParams
-
這個實例的副本
-
-
explainParam
( 參數:聯盟(str,pyspark.ml.param.Param] )→str¶ -
解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
-
explainParams
( )→str¶ -
返回文檔的所有參數選擇默認值和用戶提供的值。
-
extractParamMap
( 額外的:可選(ParamMap]=沒有一個 )→ParamMap¶ -
提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
- 參數
-
- 額外的 東西,可選
-
額外的參數值
- 返回
-
- dict
-
合並後的參數映射
-
適合
( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:聯盟[ParamMap、列表(ParamMap)元組(ParamMap),沒有一個)=沒有一個 )→聯盟(米,列表(米] ] ¶ -
適合一個模型與可選參數的輸入數據集。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
輸入數據集。
- 參數個數 dict或列表或元組,可選的
-
一個可選的參數覆蓋嵌入參數的地圖。如果列表/元組的參數映射,這適用於每一個參數並返回一個列表的模型映射。
-
數據集
- 返回
-
-
變壓器
或者一個列表變壓器
-
擬合模型(年代)
-
-
fitMultiple
( 數據集:pyspark.sql.dataframe.DataFrame,paramMaps:序列(ParamMap] )→迭代器(元組(int,米] ] ¶ -
適合一個模型為每個參數映射的輸入數據集paramMaps。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
輸入數據集。
-
paramMaps
collections.abc.Sequence
-
一係列的參數映射。
-
數據集
- 返回
-
-
_FitMultipleIterator
-
一個線程安全的iterable包含為每個參數映射模型。每次調用下一個(modelIterator)將返回(指數模型)模型是適合使用在哪裏paramMaps(指數)。指數值可能不是連續的。
-
-
getCacheNodeIds
( )→bool¶ -
得到的價值cacheNodeIds或其默認值。
-
getCheckpointInterval
( )→int¶ -
得到的價值checkpointInterval或其默認值。
-
getFeaturesCol
( )→str¶ -
得到的價值featuresCol或其默認值。
-
getImpurity
( )→str¶ -
雜質的價值或其默認值。
-
getLabelCol
( )→str¶ -
得到的價值labelCol或其默認值。
-
getLeafCol
( )→str¶ -
得到的價值leafCol或其默認值。
-
getMaxBins
( )→int¶ -
得到的價值maxBins或其默認值。
-
getMaxDepth
( )→int¶ -
maxDepth的價值或其默認值。
-
getMaxMemoryInMB
( )→int¶ -
得到的價值maxMemoryInMB或其默認值。
-
getMinInfoGain
( )→浮動¶ -
得到的價值minInfoGain或其默認值。
-
getMinInstancesPerNode
( )→int¶ -
得到的價值minInstancesPerNode或其默認值。
-
getMinWeightFractionPerNode
( )→浮動¶ -
得到的價值minWeightFractionPerNode或其默認值。
-
getOrDefault
( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T] ¶ -
得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通過它的名稱參數。
-
getPredictionCol
( )→str¶ -
得到的價值predictionCol或其默認值。
-
getSeed
( )→int¶ -
種子的價值或其默認值。
-
getVarianceCol
( )→str¶ -
得到的價值varianceCol或其默認值。
-
getWeightCol
( )→str¶ -
得到的價值weightCol或其默認值。
-
hasDefault
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查是否一個參數有默認值。
-
hasParam
( paramName:str )→bool¶ -
測試這個實例包含一個參數是否與給定名稱(字符串)。
-
isDefined
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶或顯式地設置一個默認值。
-
收取
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶顯式地設置。
-
classmethod
負載
( 路徑:str )→RL¶ -
從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
-
classmethod
讀
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一個MLReader這個類的實例。
-
保存
( 路徑:str )→沒有¶ -
這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
-
集
( 參數:pyspark.ml.param.Param,價值:任何 )→沒有¶ -
設置一個參數嵌入參數映射。
-
setCacheNodeIds
( 價值:bool )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
cacheNodeIds
。
-
setCheckpointInterval
( 價值:int )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
checkpointInterval
。
-
setFeaturesCol
( 價值:str )→P¶ -
設置的值
featuresCol
。
-
setImpurity
( 價值:str )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
雜質
。
-
setMaxBins
( 價值:int )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
maxBins
。
-
setMaxDepth
( 價值:int )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
maxDepth
。
-
setMaxMemoryInMB
( 價值:int )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
maxMemoryInMB
。
-
setMinInfoGain
( 價值:浮動 )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
minInfoGain
。
-
setMinInstancesPerNode
( 價值:int )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
minInstancesPerNode
。
-
setMinWeightFractionPerNode
( 價值:浮動 )→pyspark.ml.regression.DecisionTreeRegressor ¶
-
setparam
( 自我,\ *,featuresCol = "特性",labelCol = "標簽",predictionCol = "預測",maxDepth = 5,maxBins = 32,minInstancesPerNode = 1,minInfoGain = 0.0,maxMemoryInMB = 256,cacheNodeIds = False,checkpointInterval = 10,雜質=“方差”,種子=沒有,varianceCol =沒有,weightCol =沒有,leafCol = " ",minWeightFractionPerNode = 0.0 ) ¶ -
DecisionTreeRegressor設置參數。
-
setPredictionCol
( 價值:str )→P¶ -
設置的值
predictionCol
。
-
setSeed
( 價值:int )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
種子
。
-
setVarianceCol
( 價值:str )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
varianceCol
。
-
setWeightCol
( 價值:str )→pyspark.ml.regression.DecisionTreeRegressor ¶ -
設置的值
weightCol
。
-
寫
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一個MLWriter實例毫升實例。
屬性的文檔
-
cacheNodeIds
=參數(父母=‘定義’,name = ' cacheNodeIds ', doc = '如果錯誤,算法將樹木與節點執行人匹配實例。如果這是真的,該算法將緩存節點為每個實例id。緩存可以加快訓練更深層次的樹。用戶可以設置緩存應該多久通過設置checkpointInterval檢查點或禁用它。”) ¶
-
checkpointInterval
=參數(父母=‘定義’,name = ' checkpointInterval ', doc = '設置檢查點間隔(> = 1)或禁用檢查點(1)。例如10意味著緩存將檢查點每10迭代。注意:此設置將被忽略,如果目錄沒有設置檢查站SparkContext。”) ¶
-
featuresCol
=參數(父母=‘定義’,name = ' featuresCol ', doc =功能列名稱。) ¶
-
雜質
=參數(父母=‘定義’,name =“雜質”,醫生= '標準用於信息增益計算(不區分大小寫)。支持選擇:方差”) ¶
-
labelCol
=參數(父母=‘定義’,name = ' labelCol ', doc =“標簽列名。”) ¶
-
leafCol
=參數(父母=‘定義’,name = ' leafCol ', doc = '葉指數列名。預測葉指數每棵樹的每個實例預訂。) ¶
-
maxBins
=參數(父母=‘定義’,name = ' maxBins ', doc = '最大數量的垃圾箱離散化連續特性。必須> = 2,> =數量的類別分類特性。”) ¶
-
maxDepth
=參數(父母=‘定義’,name = ' maxDepth ',醫生= '樹的最大深度。(> = 0)例如,深度0意味著1葉節點;深度1意味著1 + 2葉節點內部節點。必須在區間[0,30]。”) ¶
-
maxMemoryInMB
=參數(父母=‘定義’,name = ' maxMemoryInMB ',醫生在MB = '最大內存分配給直方圖聚合。如果太小,那麼1個節點將被分配每個迭代,和它的總量可能超過這個大小。”) ¶
-
minInfoGain
=參數(父母=‘定義’,name = ' minInfoGain ', doc =分割的最小信息增益被認為是在一個樹節點。) ¶
-
minInstancesPerNode
=參數(父母=‘定義’,name = ' minInstancesPerNode ', doc = '每個孩子都必須有最小數量的實例後分裂。如果分裂導致左邊或者右邊的孩子不到minInstancesPerNode,分割將作為無效的被丟棄。應該是> = 1”。) ¶
-
minWeightFractionPerNode
=參數(父母=‘定義’,name = ' minWeightFractionPerNode ', doc = '的最低分數加權樣本計數後,每個孩子都必須有分裂。如果一個分裂導致分數總重量的向左或向右孩子小於minWeightFractionPerNode,分割將作為無效的被丟棄。應該在區間[0.0,0.5)。”) ¶
-
參數個數
¶ -
返回所有參數命令的名字。默認實現使用
dir ()
所有的屬性類型參數
。
-
predictionCol
=參數(父母=‘定義’,name = ' predictionCol ', doc =預測列名稱。) ¶
-
種子
=參數(父母=‘定義’,name =“種子”,醫生=“隨機種子。”) ¶
-
supportedImpurities
=(“方差”) ¶
-
varianceCol
=參數(父母=‘定義’,name = ' varianceCol ', doc =的列名偏向樣本方差的預測。) ¶
-
weightCol
=參數(父母=‘定義’,name = ' weightCol ', doc = '體重列名。如果這不是設置或空,我們對所有實例權重為1.0。”) ¶
-