瀏覽
磚
幫助
登錄
開始使用磚
開始討論
開始資源
磚平台Beplay体育安卓版本
技術博客
磚平台的討論Beplay体育安卓版本
工程數據
機器學習
倉庫&分析
數據治理
管理和架構
學習
學習討論
培訓產品
認證
學習路徑
認證
組
地區和利益集團
美洲
亞太地區
利益集團
事件
社區灣
社區討論
社區新聞&成員認可
raymund
新的貢獻者三世
自
11-02-2021
06-26-2023
用戶數據
4
的帖子
1
解決方案
2
榮譽給
5
榮譽收到
磚
關於raymund
用戶活動
的帖子
回複
為什麼添加包org.apache.spark: spark-sql-kafka-0-10_2.12:3.0.1在運行時9.1.x-scala2.12失敗,但成功使用運行時8.2.x-scala2.12 ?
11-03-2021
使用磚火花的提交工作,設置新的cluster1]“spark_version”:“8.2.x-scala2.12”= >好的,作品fine2]“spark_version”:“9.1.x-scala2.12”= >失敗,在線程errorsException . lang的“主要”。ExceptionInInitializerError com.databricks…
再保險:為什麼添加運行時包的org.apache.spark: spark-sql-kafka-0-10_2.12:3.0.1失敗9.1.x-scala2.12但成功使用運行時8.2.x-scala2.12嗎?
11-10-2021
這是解決通過添加以下spark_conf(不是通過——conf)“spark.hadoop.fs.file。impl”:“org.apache.hadoop.fs。LocalFileSystem例子:- - - - - -“new_cluster ": {:“spark_version 9.1.x-scala2.12”……" spark_conf ": {“輕…
再保險:為什麼添加運行時包的org.apache.spark: spark-sql-kafka-0-10_2.12:3.0.1失敗9.1.x-scala2.12但成功使用運行時8.2.x-scala2.12嗎?
11-09-2021
附加信息:使用磚spark-submit api pyspark " spark_submit_task ": {“參數”:[”——包”、“org.apache.spark: spark-sql-kafka-0-10_2.12:3.0.1 ....
再保險:為什麼添加運行時包的org.apache.spark: spark-sql-kafka-0-10_2.12:3.0.1失敗9.1.x-scala2.12但成功使用運行時8.2.x-scala2.12嗎?
11-08-2021
@Piper威爾遜我刪除了評論,其工作。9.1問題仍然存在。卡夫卡流罐不存在。它拋出錯誤時卡夫卡流罐和卡夫卡pyspark代碼流不提供使用。當卡夫卡流……
榮譽從
用戶
數
jose_gonzalez
1
Kaniz
1
匿名
1
raymund
2
查看所有
榮譽給
用戶
數
raymund
2
查看所有
map