10-24-2022上午07:56
我隻有1000列。每一列有252行,所以隻有252000數據點。
為什麼它可以路由任務best-cached局部性的7個小時嗎?
11-30-202207:01我
嗨@Cheuk欣克利斯朵夫Poon以來你優化你的表創建?如果不是,那麼優化可能需要一些時間,這取決於底層文件的沒有。
請嚐試手動運行優化如下描述的文檔:
https://docs.www.eheci.com/sql/language-manual/delta-optimize.html
如果沒有幫助,你可以嚐試禁用DBIO緩存通過設置在你的筆記本下麵:
spark.conf.set (“spark.databricks.io.cache。啟用”、“假”)
從未顯出
加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。
點擊在這裏注冊今天,加入!
參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。