pyspark.sql.DataFrameReader

pyspark.sql。 DataFrameReader ( 火花:SparkSession )

接口用於負載DataFrame從外部存儲係統(如文件係統、鍵值存儲等)。使用SparkSession.read來訪問。

方法

csv(路徑、模式、sep、編碼、引用、…))

加載一個CSV文件,並返回結果DataFrame

格式(源)

指定輸入數據源格式。

jdbc(url、表(列,下界,…))

構造一個DataFrame表示數據庫表命名通過JDBC URLurl和連接屬性

json(路徑、模式、primitivesAsString…))

加載JSON文件並返回結果DataFrame

負載([路徑、格式模式])

從一個數據源加載數據並返回它DataFrame

選項(關鍵字,值)

添加了一個底層數據源的輸入選項。

選項(* *選項)

增加了底層數據源的輸入選項。

獸人(路徑,pathGlobFilter mergeSchema…))

加載獸人文件,返回的結果DataFrame

拚花(*路徑,* *選項)

加載鋪文件,返回結果為DataFrame

模式(模式)

指定輸入模式。

(表)

返回指定表的DataFrame

文本(路徑,lineSep wholetext…))

加載文本文件並返回DataFrame的模式從一個字符串列命名為“價值”,和緊隨其後的是如果有任何分區的列。