10-24-2022上午07:56
我隻有1000列。每一列有252行,所以隻有252000數據點。
為什麼它可以路由任務best-cached局部性的7個小時嗎?
10-25-202202:32我
嗨@Cheuk欣克利斯朵夫Poon請再次運行這個命令並檢查嗎?
% sql優化(表名)
10-25-202206:50我
我試著下麵的一個和它仍然花了超過10個小時,直到致命錯誤:Python的內核是反應遲鈍。
% sql——啟用自動優化設置spark.databricks.delta.properties.defaults.autoOptimize.optimizeWrite = true;設置spark.databricks.delta.properties.defaults.autoOptimize.autoCompact = true;
10-31-2022上午11:52
@Kaniz Fatma有沒有辦法縮短這個過程“確定DBIO文件碎片的位置。”運行時?
11-27-202206:17我
嗨@Cheuk欣克利斯朵夫Poon
希望一切都好!隻是想檢查如果你能解決你的問題,你會很高興分享解決方案或答案標記為最佳嗎?其他的請讓我們知道如果你需要更多的幫助。
我們很想聽到你的聲音。
謝謝!
從未顯出
加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。
點擊在這裏注冊今天,加入!
參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。