取消
顯示的結果
而不是尋找
你的意思是:

如何設置停留時間為一個增量表低於默認期嗎?它甚至有可能嗎?

納娑
貢獻者

我試圖為δ保存期通過使用下麵的命令。

delta_path deltaTable = DeltaTable.forPath(火花)

spark.conf.set (“spark.databricks.delta.retentionDurationCheck.enabled”,“假”)

deltaTable。logRetentionDuration = "間隔1天”

deltaTable.deletedFileRetentionDuration = "間隔1天”

這些命令不為我工作,我的意思是,他們不刪除任何文件給定區間。我去哪裏錯了嗎?

1接受解決方案

接受的解決方案

Hubert_Dudek1
尊敬的貢獻者三世

有兩種方法:

1)請在集群組(集群- >編輯- > - >引發火花配置):

spark.databricks.delta.retentionDurationCheck.enabled假

imagen.png

2)或DeltaTable之前。forPath集(我認為你需要改變訂單在您的代碼):

spark.conf.set (“spark.databricks.delta.retentionDurationCheck.enabled”,“假”)

在原帖子查看解決方案

5回複5

Hubert_Dudek1
尊敬的貢獻者三世

有兩種方法:

1)請在集群組(集群- >編輯- > - >引發火花配置):

spark.databricks.delta.retentionDurationCheck.enabled假

imagen.png

2)或DeltaTable之前。forPath集(我認為你需要改變訂單在您的代碼):

spark.conf.set (“spark.databricks.delta.retentionDurationCheck.enabled”,“假”)

嗨@Manasa Kalluri似乎@Hubert杜德克給了一個全麵的解決方案。你能解決你的問題嗎?

嗨@Kaniz開羅,是的我能解決這個問題!謝謝

嗨@Hubert杜德克,謝謝你回應!

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map