開始
加載和管理數據
處理數據
政府
引用和資源
2023年8月3日更新
給我們反饋
本文向您展示如何使用Apache火花Scala DataFrame加載和轉換數據API在磚。
另請參閱Apache火花Scala API參考。
DataFrame是一個二維標簽數據結構可能不同類型的列。你能想到的DataFrame像電子表格,SQL表或詞典係列對象。Apache火花DataFrames提供一組豐富的功能(選擇列、過濾、連接、聚集),允許您來有效地解決常見的數據分析問題。
Apache火花DataFrames抽象之上的彈性分布數據集(抽樣)。火花DataFrames和火花SQL使用一個統一的規劃和優化引擎,允許您獲得幾乎相同的性能在所有受支持的語言在磚(Python、SQL、Scala和R)。
Apache火花數據集的API提供類型安全的,麵向對象的編程接口。DataFrame一個無類型別名嗎數據集(行)。
DataFrame
數據集(行)
磚的文檔使用術語DataFrame對於大多數技術參考和指導,因為這對於Python語言是包容,Scala, r .看到筆記本的例子:Scala數據聚合器。
大多數Apache返回DataFrame火花查詢。這包括閱讀從表,從文件加載數據,操作轉換數據。
您還可以創建一個DataFrame從類的列表,比如下麵的例子:
情況下類員工(id:Int,的名字:字符串)瓦爾df=Seq(新員工(1,“伊利亞”),新員工(2,“Teo”),新員工(3,“方”))。toDF
磚使用三角洲湖默認所有表。您可以很容易地加載表DataFrames,比如下麵的例子:
火花。讀。表(“<模式名稱> <表名稱>”。)
你可以從許多支持加載數據文件格式。下麵的例子使用了一個可用的數據集/ databricks-datasets目錄,可以從大部分工作區。看到樣本數據集。
/ databricks-datasets
瓦爾df=火花。讀。格式(“csv”)。選項(“頭”,“真正的”)。選項(“inferSchema”,“真正的”)。負載(“/ databricks-datasets /樣本/ population-vs-price / data_geo.csv”)
大多數的結果返回DataFrame火花轉換。你可以分配這些結果返回給一個DataFrame變量,類似於如何使用ct,臨時觀點,或DataFrames其他係統。
DataFrames使用標準的SQL連接操作語義。加入返回合並後的結果兩個DataFrames基於提供的匹配條件和連接類型。下麵的例子是一個內連接,也就是默認值:
瓦爾joined_df=df1。加入(df2,joinType=“內心”,usingColumn=“id”)
您可以添加的行DataFrame到另一個使用union操作,如以下示例:
瓦爾unioned_df=df1。聯盟(df2)
您可以過濾DataFrame使用行.filter ()orgydF4y2Ba其中()。沒有區別在性能或語法,見下麵的例子:
.filter ()
其中()
瓦爾filtered_df=df。過濾器(“id > 1”)瓦爾filtered_df=df。在哪裏(“id > 1”)
使用過濾選擇一個子集的行返回DataFrame或修改。
您可以選擇通過一個或多個列列名稱.select (),比如下麵的例子:
.select ()
瓦爾select_df=df。選擇(“id”,“名稱”)
您可以組合選擇和過濾查詢來限製返回的行和列。
subset_df=df。過濾器(“id > 1”)。選擇(“名稱”)
查看這些數據以表格格式,您可以使用磚顯示()下麵的示例命令,如:
顯示()
顯示(df)
火花使用術語模式引用列的名稱和數據類型DataFrame。
請注意
磚也使用術語“模式”來描述表登記目錄的集合。
你可以打印使用的模式.printSchema ()方法,如以下示例:
.printSchema ()
df。printSchema()
磚使用三角洲湖默認所有表。您可以保存的內容DataFrame表使用下麵的語法:
df。寫。saveAsTable(“<表名稱>”)
大多數火花應用程序被設計成工作在大型數據集和工作在一個分布式的方式,並引發寫出一個目錄的文件,而不是單個文件。許多數據係統配置為讀取這些文件的目錄。磚推薦使用的表在filepaths對於大多數應用程序。
下麵的示例JSON文件的保存目錄:
df。寫。格式(“json”)。保存(“/ tmp / json_data”)
火花DataFrames提供一個選項來將SQL與Scala。
的selectExpr ()方法允許您指定每一列作為一個SQL查詢,比如下麵的例子:
selectExpr ()
顯示(df。selectExpr(“id”,“上(名稱)作為big_name”))
您可以導入expr ()函數pyspark.sql.functions使用SQL語法一列將被指定的任何地方,如以下示例:
expr ()
pyspark.sql.functions
進口org。apache。火花。sql。功能。expr顯示(df。選擇(的id,expr(“低(名稱)作為little_name”)))
您還可以使用spark.sql ()在Scala內核運行任意SQL查詢,如以下示例:
spark.sql ()
瓦爾query_df=火花。sql(“SELECT * FROM <表名稱>”)
因為Scala執行邏輯內核和所有SQL查詢是作為string傳遞的,您可以使用Scala格式化參數化SQL查詢,如以下示例:
瓦爾table_name=“my_table”瓦爾query_df=火花。sql(“SELECT *美元table_name”)
下麵的筆記本顯示了如何使用數據集的聚合器。
在新標簽頁打開筆記本