取消
顯示的結果
而不是尋找
你的意思是:

麵臨的問題中提到的身體當連接事件中心磚,跟著前麵的討論中但沒有解決方案

guru1
新的貢獻者二世

錯誤:查詢終端收到[id = 37 bada03 - 131 b - 4 - fbb - 8992 a427263fef2c runId = cf3d7c18 - 780 e - 43 - ae - aed0 - 9 - daf2939b823],與例外:. lang。IllegalArgumentException:輸入字節數組已經錯了4字節結束單元

java.util.Base64 Decoder.decode0美元(Base64.java: 704)

java.util.Base64 Decoder.decode美元(Base64.java: 526)

java.util.Base64 Decoder.decode美元(Base64.java: 549)

org.apache.spark.eventhubs.EventHubsUtils .decrypt美元(EventHubsUtils.scala: 169)

org.apache.spark.eventhubs.EventHubsConf .toConf美元(EventHubsConf.scala: 628)

在org.apache.spark.sql.eventhubs.EventHubsSource。< init > (EventHubsSource.scala: 84)

org.apache.spark.sql.eventhubs.EventHubsSourceProvider.createSource (EventHubsSourceProvider.scala: 82)

org.apache.spark.sql.execution.datasources.DataSource.createSource (DataSource.scala: 324)

在org.apache.spark.sql.execution.streaming.MicroBatchExecution anonfun 1美元。美元anonfun applyOrElse 1美元(MicroBatchExecution.scala: 138)

scala.collection.mutable.HashMap.getOrElseUpdate (HashMap.scala: 86)

org.apache.spark.sql.execution.streaming.MicroBatchExecution anonfun 1.美元美元applyorelse (MicroBatchExecution.scala: 135)

org.apache.spark.sql.execution.streaming.MicroBatchExecution anonfun 1.美元美元applyorelse (MicroBatchExecution.scala: 133)

在org.apache.spark.sql.catalyst.trees.TreeNode。anonfun transformDownWithPruning美元1美元(TreeNode.scala: 512)

org.apache.spark.sql.catalyst.trees.CurrentOrigin .withOrigin美元(TreeNode.scala: 99)

org.apache.spark.sql.catalyst.trees.TreeNode.transformDownWithPruning (TreeNode.scala: 512)

在org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.org apache火花sql催化劑美元美元計劃邏輯AnalysisHelper超級美元美元美元transformDownWithPruning (LogicalPlan.scala: 31)

org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper.transformDownWithPruning (AnalysisHelper.scala: 268)

在org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper.transformDownWithPruning (AnalysisHelper.scala: 264美元)

在org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.transformDownWithPruning (LogicalPlan.scala: 31)

在org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.transformDownWithPruning (LogicalPlan.scala: 31)

在org.apache.spark.sql.catalyst.trees.TreeNode。anonfun transformDownWithPruning美元3美元(TreeNode.scala: 517)

org.apache.spark.sql.catalyst.trees.UnaryLike.mapChildren (TreeNode.scala: 1174)

在org.apache.spark.sql.catalyst.trees.UnaryLike.mapChildren (TreeNode.scala: 1173美元)

org.apache.spark.sql.catalyst.plans.logical.OrderPreservingUnaryNode.mapChildren (LogicalPlan.scala: 254)

org.apache.spark.sql.catalyst.trees.TreeNode.transformDownWithPruning (TreeNode.scala: 517)

在org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.org apache火花sql催化劑美元美元計劃邏輯AnalysisHelper超級美元美元美元transformDownWithPruning (LogicalPlan.scala: 31)

org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper.transformDownWithPruning (AnalysisHelper.scala: 268)

在org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper.transformDownWithPruning (AnalysisHelper.scala: 264美元)

在org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.transformDownWithPruning (LogicalPlan.scala: 31)

在org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.transformDownWithPruning (LogicalPlan.scala: 31)

在org.apache.spark.sql.catalyst.trees.TreeNode。anonfun transformDownWithPruning美元3美元(TreeNode.scala: 517)

org.apache.spark.sql.catalyst.trees.UnaryLike.mapChildren (TreeNode.scala: 1174)

在org.apache.spark.sql.catalyst.trees.UnaryLike.mapChildren (TreeNode.scala: 1173美元)

org.apache.spark.sql.catalyst.plans.logical.OrderPreservingUnaryNode.mapChildren (LogicalPlan.scala: 254)

org.apache.spark.sql.catalyst.trees.TreeNode.transformDownWithPruning (TreeNode.scala: 517)

在org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.org apache火花sql催化劑美元美元計劃邏輯AnalysisHelper超級美元美元美元transformDownWithPruning (LogicalPlan.scala: 31)

1接受解決方案

接受的解決方案

Annapurna_Hiriy
新的貢獻者三世

這個問題可能是由於失配eventHub jar和依賴項添加。也,不可以添加所有必需的依賴關係。

建議:

使用azure_eventhubs_spark_2_12_.jareventHub火花jar連同以下依賴關係應該解決這個問題:

  • azure_eventhubs_3_2_0.jar
  • scala_java8_compat_2_12_0_9_1.jar
  • proton_j_0_33_6.jar

在原帖子查看解決方案

2回答2

Aviral-Bhardwaj
尊敬的貢獻者三世

你能分享司機日誌,這樣我可以檢查和幫助你嗎

Annapurna_Hiriy
新的貢獻者三世

這個問題可能是由於失配eventHub jar和依賴項添加。也,不可以添加所有必需的依賴關係。

建議:

使用azure_eventhubs_spark_2_12_.jareventHub火花jar連同以下依賴關係應該解決這個問題:

  • azure_eventhubs_3_2_0.jar
  • scala_java8_compat_2_12_0_9_1.jar
  • proton_j_0_33_6.jar

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map