我目前工作在確定適當的為我的火花應用程序集群大小和我有一個問題關於Hadoop配置參數yarn.nodemanager.resource.memory-mb。從我所看到的,這個參數是負責設置可用內存的物理限製火花容器工作節點上的紗下運行調度程序。我注意到的是,對於任何規模的工作節點,該參數仍然是設定在8192年。這個困擾我,因為它應該暗示即使對工人的集群大小明顯更大,隻有8192 MB內存指定遺囑執行人。我試圖通過設置此屬性通過添加的屬性覆蓋
/home/ubuntu/databricks/spark/dbconf/hadoop/core-site.xml通過集群init腳本文件。然而,即使我把它在那裏,它看起來像它被覆蓋。所以從這裏我想了解:
——這裏設置的限製是否真的把限製遺囑執行人內存用於集群的數量
——如果是這樣,如何/應該覆蓋從其他地方為了妥善利用工人節點上的可用內存
謝謝!