pyspark.sql.DataFrameReader¶
-
類
pyspark.sql。
DataFrameReader
( 火花:SparkSession ) ¶ -
接口用於負載
DataFrame
從外部存儲係統(如文件係統、鍵值存儲等)。使用SparkSession.read
來訪問。方法
csv
(路徑、模式、sep、編碼、引用、…))加載一個CSV文件,並返回結果
DataFrame
。格式
(源)指定輸入數據源格式。
jdbc
(url、表(列,下界,…))構造一個
DataFrame
表示數據庫表命名表
通過JDBC URLurl
和連接屬性
。json
(路徑、模式、primitivesAsString…))加載JSON文件並返回結果
DataFrame
。負載
([路徑、格式模式])從一個數據源加載數據並返回它
DataFrame
。選項
(關鍵字,值)添加了一個底層數據源的輸入選項。
選項
(* *選項)增加了底層數據源的輸入選項。
獸人
(路徑,pathGlobFilter mergeSchema…))加載獸人文件,返回的結果
DataFrame
。拚花
(*路徑,* *選項)加載鋪文件,返回結果為
DataFrame
。模式
(模式)指定輸入模式。
表
(表)返回指定表的
DataFrame
。文本
(路徑,lineSep wholetext…))加載文本文件並返回
DataFrame
的模式從一個字符串列命名為“價值”,和緊隨其後的是如果有任何分區的列。