無法修改Apache Spark配置的值

不能在筆記本中修改Spark配置的值。必須在集群級別設置。

寫的亞當Pavlacka

最新發布日期:2022年5月20日

問題

你試圖在一個筆記本中獲取一個Spark配置的值不能修改Spark配置的值錯誤。

例如:

sql設置spark.serializer = org.apache.spark.serializer.KryoSerializer %
SQL語句中的錯誤:AnalysisException:不能修改Spark配置的值:Spark .serializer;

導致

命令不能工作SparkConf條目。這是在Spark 3.0及以上版本中設計的。

解決方案

你應該刪除命令SparkConf筆記本上的條目。

您可以輸入SparkConf在集群級別上輸入它們火花配置AWS|Azure|GCP),並重新啟動集群。