pyspark.sql.DataFrameWriter.save¶
-
DataFrameWriter。
保存
( 路徑:可選(str]=沒有一個,格式:可選(str]=沒有一個,模式:可選(str]=沒有一個,partitionBy:聯盟(str,列表(str),沒有一個)=沒有一個,* *選項:OptionalPrimitiveType )→沒有¶ -
保存的內容
DataFrame
一個數據源。指定的數據源
格式
和一組選項
。如果格式
沒有指定,默認數據源配置spark.sql.sources.default
就會被使用。- 參數
-
- 路徑 str,可選
-
Hadoop文件係統支持的路徑
- 格式 str,可選
-
用於保存的格式
- 模式 str,可選
-
指定保存操作的行為當數據已經存在。
附加
:添加內容DataFrame
現有的數據。覆蓋
:覆蓋現有的數據。忽略
如果數據已經存在:默默地忽略這個操作。錯誤
或errorifexists
(默認情況下):拋出一個異常如果數據已經存在。
- partitionBy 列表中,選
-
分區列的名字
- * *選項 dict
-
所有其他選項字符串
例子
> > >df。寫。模式(“添加”)。保存(操作係統。路徑。加入(tempfile。mkdtemp(),“數據”))