pyspark.sql.DataFrameReader.jdbc

DataFrameReader。 jdbc ( url:str,:str,:可選(str]=沒有一個,下界:聯盟(str, int,沒有)=沒有一個,upperBound:聯盟(str, int,沒有)=沒有一個,numPartitions:可選(int]=沒有一個,謂詞:可選(列表(str]]=沒有一個,屬性:可選(Dict(str,str]]=沒有一個 )→DataFrame

構造一個DataFrame表示數據庫表命名通過JDBC URLurl和連接屬性

分區表的並行檢索如果謂詞都是確定的。下界,upperBoundnumPartitions需要的時候都是確定的。

如果兩個謂詞是指定的,就會被使用。

參數
str

表的名稱

str,可選

的別名partitionColumn選擇。指partitionColumn數據源的選擇在你使用的版本。

謂詞 列表中,選

表達式的列表適合包含WHERE子句;每一個定義的一個分區DataFrame

屬性 東西,可選

字典的JDBC數據庫連接參數。通常至少屬性“用戶”和“密碼”,相應的值。例如{“用戶”:“係統”,“密碼”:“我的密碼”}

返回
DataFrame
其他參數
額外的選項

額外的選項,請參考數據源的選擇在你使用的版本。

筆記

不要製造太多大型集群並行分區;否則火花可能崩潰外部數據庫係統。