pyspark.RDD.saveAsNewAPIHadoopFile

抽樣。 saveAsNewAPIHadoopFile ( 路徑:str,outputFormatClass:str,keyClass:可選(str]=沒有一個,valueClass:可選(str]=沒有一個,keyConverter:可選(str]=沒有一個,valueConverter:可選(str]=沒有一個,相依:可選(Dict(str,str]]=沒有一個 )→沒有

輸出一個Python抽樣的鍵-值對的形式抽樣[(K,V)))任何Hadoop文件係統,使用新的Hadoop OutputFormat API (mapreduce包)。鍵和值類型推斷如果不指定。鍵和值被轉換為輸出使用用戶指定的轉換器或“org.apache.spark.api.python.JavaToWritableConverter”。的相依應用基礎上配置與Hadoop的SparkContext抽樣合並創建一個Hadoop MapReduce任務配置保存數據。

路徑str

Hadoop文件路徑

outputFormatClassstr

完全限定類名的Hadoop OutputFormat(例如“org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat”)

keyClassstr,可選
關鍵可寫的類的完全限定類名

(例如“org.apache.hadoop.io。IntWritable”,默認情況下沒有一個)

valueClassstr,可選

價值寫的類的完全限定類名(例如“org.apache.hadoop.io。文本”,沒有一個默認情況下)

keyConverterstr,可選

完全限定類名關鍵的轉換器(默認情況下沒有一個)

valueConverterstr,可選

默認值轉換器的完全限定類名(沒有)

相依東西,可選

Hadoop任務配置(默認情況下沒有一個)