pyspark.sql.DataFrameWriter

pyspark.sql。 DataFrameWriter ( df:DataFrame )

接口用於編寫一個DataFrame外部存儲係統(如文件係統、鍵值存儲等)。使用DataFrame.write來訪問。

方法

bucketBy(col numBuckets *峽路)

桶的輸出給定的列。

csv(路徑、模式、壓縮、9月報價,…))

保存的內容DataFrame在CSV格式指定的路徑。

格式(源)

指定底層輸出數據源。

insertInto(表名(覆蓋))

插入的內容DataFrame指定的表。

jdbc(url,表[模式中,屬性])

保存的內容DataFrame通過JDBC外部數據庫表。

json(路徑、模式、壓縮、dateFormat…))

保存的內容DataFrame在JSON格式(JSON文本格式或用JSON在指定的路徑)。

模式(saveMode)

指定的行為當數據或表已經存在。

選項(關鍵字,值)

增加了一個輸出選擇基礎數據源。

選項(* *選項)

為底層數據源添加了輸出選項。

獸人(路徑(模式、partitionBy壓縮))

保存的內容DataFrame在獸人格式指定的路徑。

拚花(路徑(模式、partitionBy壓縮))

保存的內容DataFrame在拚花格式指定的路徑。

partitionBy(*峽路)

分區文件係統上的輸出通過給定的列。

保存([路徑、格式、模式,partitionBy])

保存的內容DataFrame一個數據源。

saveAsTable(名稱、格式、模式,partitionBy])

保存的內容DataFrame指定的表。

sortBy(*關口坳)

在每個桶排序輸出給定的列在文件係統。

文本(道路、壓縮、lineSep])

保存的內容DataFrame在文本文件在指定的路徑。