pyspark.sql.DataFrameWriter.saveAsTable

DataFrameWriter。 saveAsTable ( 的名字:str,格式:可選(str]=沒有一個,模式:可選(str]=沒有一個,partitionBy:聯盟(str,列表(str),沒有一個)=沒有一個,* *選項:OptionalPrimitiveType )→沒有

保存的內容DataFrame指定的表。

情況下表中已經存在,這個函數的行為取決於保存模式,指定的模式函數拋出異常(默認)。當模式覆蓋的模式DataFrame不需要與現有的表。

  • 附加:添加內容DataFrame現有的數據。

  • 覆蓋:覆蓋現有的數據。

  • 錯誤errorifexists如果數據已經存在:拋出一個異常。

  • 忽略如果數據已經存在:默默地忽略這個操作。

參數
的名字 str

表名

格式 str,可選

用於保存的格式

模式 str,可選

之一附加,覆蓋,錯誤,errorifexists,忽略(默認值:錯誤)

partitionBy str或列表

分區列的名字

* *選項 dict

所有其他選項字符串

筆記

模式附加如果有一個現有表,我們將使用現有表的格式和選項。列順序的模式DataFrame不需要與現有表的相同。不像DataFrameWriter.insertInto (),DataFrameWriter.saveAsTable ()將使用列名來找到正確的列位置。