取消
顯示的結果
而不是尋找
你的意思是:

你好所有的,我試圖從datalake讀取一個csv文件並使用Copyinto數據加載到sql表。我麵臨一個問題在這裏我創建了一個表智慧……

dataEngineer3
新的貢獻者二世

你好,

我試圖從datalake讀取一個csv文件並使用Copyinto數據加載到sql表。

我麵臨一個問題

圖像

我創建了一個表有6列一樣csv文件中的數據。

但無法加載數據。

誰能helpme嗎

9回複9

Kaniz
社區經理
社區經理

你好@dataEngineer!我的名字叫Kaniz,我這裏的技術主持人。很高興認識你,謝謝你的問題!看看你的同行在社區中有一個回答你的問題。否則我將盡快給你回電。謝謝。

塞巴斯蒂安。
貢獻者

選擇之一是您可以刪除底層三角洲文件或添加mergeschema真正當你寫作三角洲表。

謝謝你快速反應我添加選項mergeschema真的仍然無法加載數據

werners1
尊敬的貢獻者三世

它看起來像mergeschema並不活躍。

你可以試著主動與spark.databricks.delta.schema.automerge.enabled會話設置參數。這是整個sparksession。

更好的解決方案是通過模式到csv文件(列名稱和類型)。

mergeSchema是很有趣的,但它並不總是工作或給你想要的結果。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map