取消
顯示的結果
而不是尋找
你的意思是:

MergeSchema不工作

DJey
新的貢獻者三世

你好,

我有一個情況我現有δ下麵的表的樣子:

圖像現在我有一個與一個額外的列即增量數據。老板:

Dataframe名字- - > scdDF圖像下麵是代碼片段合並增量Dataframe targetTable,但新列是得不到補充道:

圖像spark.conf.set (“spark.databricks.delta.schema.autoMerge.enabled”,真的)- - >這也是啟用。

但是仍然沒有運氣。下麵是我目前得到的最終結果:

數據是正確的,但唯一的問題是新列即所有者還沒有合並targetTable。圖像

請幫的人。

謝謝!

1接受解決方案

接受的解決方案

etsyal1e2r3
貢獻者

隻是這一列添加到表的ALTER table語句。你應該抓住每一個與df / dataframe列的表列表。表列,進行比較,如果缺少任何alter table。然後運行您的代碼。

在原帖子查看解決方案

4回複4

etsyal1e2r3
貢獻者

隻是這一列添加到表的ALTER table語句。你應該抓住每一個與df / dataframe列的表列表。表列,進行比較,如果缺少任何alter table。然後運行您的代碼。

Vidula_Khanna
主持人
主持人

嗨@Divyansh耆那教徒的

謝謝你發布你的問題在我們的社區!我們很高興幫助你。

幫助我們為您提供最準確的信息,請您花一些時間來回顧反應和選擇一個最好的回答了你的問題嗎?

這也將有助於其他社區成員可能也有類似的問題在未來。謝謝你的參與,讓我們知道如果你需要任何進一步的援助!

DJey
新的貢獻者三世

這是解決。謝謝,大家好!

DJey
新的貢獻者三世

@Vidula Khanna啟用以下屬性解決了我的問題:

spark.conf.set (“spark.databricks.delta.schema.autoMerge.enabled”,真的)

v感謝!

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map