取消
顯示的結果
而不是尋找
你的意思是:

DLT火花readstream失敗源表上覆蓋

gg_047320_gg_94
新的貢獻者二世

我正在讀每天更新的源表。通常與更新和添加/合並是偶爾覆蓋其他原因。

df = spark.readStream.schema(模式).format(“δ”)。選項(“ignoreChanges”,真正的)。選項(startingVersion, xx) .table (“db_name.table_name”)

我還有以下在DLT引發配置設置:

“spark.sql.files。ignoreMissingFiles”:“真正的”、“spark.databricks.delta.schema.autoMerge.enabled”:“真正的”

但它拋出這個錯誤當我試著刷新管道。它還沒當我做全部刷新。

終止與例外:檢測模式的改變:

請嚐試重新啟動查詢。如果這個問題重複查詢重啟

取得進展,你讓一個不兼容的模式變化和需要你

使用一個新的檢查點目錄查詢從頭開始。

當我試著readStream模式,

模式= spark.read (“db_name.table_name”)。模式df = spark.readStream.schema(模式).format(“δ”)。選項(“ignoreChanges”,真正的)。選項(startingVersion, xx) .table (“db_name.table_name”)

它把以下錯誤

pyspark.sql.utils。AnalysisException:用戶指定的模式不支持用“表”

1回複1

Debayan
尊敬的貢獻者三世
尊敬的貢獻者三世

嗨,你能確認DLT和DBR版本嗎?

也請與你的下一個標記@Debayan響應將通知我,謝謝!

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map