謝謝你的回複!我理解,在總體默認選項是好的,但是在這個usecase(很多小操作每個IO綁定99.99999%)真的很不理想,這真的使databricks-with-IAC經驗有點麻煩。
我試著用以下設置“火花配置”部分:
spark.dynamicAllocation。真正的spark.dynamicAllocation.shuffleTracking啟用。真正的spark.shuffle.service啟用。真正的spark.dynamicAllocation啟用。在itialExecutors 8 spark.dynamicAllocation.minExecutors 8 spark.scheduler.mode FIFO
但在基於機器我還是隻能得到1執行人(見“火花集群UI”選項卡)4個任務的並行執行。我試著與集群“高並發性”和“標準”。你可以得到許多spark.dynamicAllocation執行人通過改變運行”。啟用”和“spark.dynamicAllocation。minExecutors”?