pyspark.sql.DataFrameWriter.jdbc¶
-
DataFrameWriter。
jdbc
( url:str,表:str,模式:可選(str]=沒有一個,屬性:可選(Dict(str,str]]=沒有一個 )→沒有¶ -
保存的內容
DataFrame
通過JDBC外部數據庫表。- 參數
-
- 表 str
-
外部數據庫的表的名稱。
- 模式 str,可選
-
指定保存操作的行為當數據已經存在。
附加
:添加內容DataFrame
現有的數據。覆蓋
:覆蓋現有的數據。忽略
如果數據已經存在:默默地忽略這個操作。錯誤
或errorifexists
(默認情況下):拋出一個異常如果數據已經存在。
- 屬性 dict
-
字典的JDBC數據庫連接參數。通常至少屬性“用戶”和“密碼”,相應的值。例如{“用戶”:“係統”,“密碼”:“我的密碼”}
- 其他參數
-
- 額外的選項
-
額外的選項,請參考數據源的選擇在你使用的版本。
筆記
不要製造太多大型集群並行分區;否則火花可能崩潰外部數據庫係統。