pyspark.sql.DataFrameWriter.saveAsTable¶
-
DataFrameWriter。
saveAsTable
( 的名字:str,格式:可選(str]=沒有一個,模式:可選(str]=沒有一個,partitionBy:聯盟(str,列表(str),沒有一個)=沒有一個,* *選項:OptionalPrimitiveType )→沒有¶ -
保存的內容
DataFrame
指定的表。情況下表中已經存在,這個函數的行為取決於保存模式,指定的模式函數拋出異常(默認)。當模式是覆蓋的模式
DataFrame
不需要與現有的表。附加:添加內容
DataFrame
現有的數據。覆蓋:覆蓋現有的數據。
錯誤或errorifexists如果數據已經存在:拋出一個異常。
忽略如果數據已經存在:默默地忽略這個操作。
- 參數
-
- 的名字 str
-
表名
- 格式 str,可選
-
用於保存的格式
- 模式 str,可選
-
之一附加,覆蓋,錯誤,errorifexists,忽略(默認值:錯誤)
- partitionBy str或列表
-
分區列的名字
- * *選項 dict
-
所有其他選項字符串
筆記
當模式是附加如果有一個現有表,我們將使用現有表的格式和選項。列順序的模式
DataFrame
不需要與現有表的相同。不像DataFrameWriter.insertInto ()
,DataFrameWriter.saveAsTable ()
將使用列名來找到正確的列位置。