取消
顯示的結果
而不是尋找
你的意思是:

使用dbutils時失去了記憶

GC-James
貢獻者

為什麼複製一個9 gb的文件從一個容器/ dbfs失去我50 gb的內存?(不回來直到我重新啟動集群)

圖像

1接受解決方案
17日回複17

GC-James
貢獻者

圖像

Hubert_Dudek1
尊敬的貢獻者三世

我想當閱讀從一個目錄複製到RAM和比從那裏將它保存在另一個地方(還有並發讀、寫等所以可能是因為它消耗更多的空間)。隨著集群還有許多空閑內存不是自動清洗。你可以通過使用spark.catalog.clearCache試圖迫使清潔()

謝謝你的意見/建議。不幸的是做spark.cataglog.clearCache()不返回內存/清潔它。

GC-James
貢獻者

特別討厭的,因為這意味著我剩下的代碼/未來的記憶缺失這一底線。

圖像

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map