取消
顯示的結果
而不是尋找
你的意思是:

SparkException:沒有憑據的範圍。

paniz_asghari
新的因素

:slightly_smiling_face:

我新磚並試圖連接到Rstudio從我的通用計算集群服務器。

集群配置如下:

政策:個人計算

訪問模式:單用戶

磚運行時版本:

13.2毫升(包括Apache火花3.4.0,Scala 2.12)
指令後在這裏,我試圖與sparlyr sparkR運行代碼。

Sparklyr

>庫(sparklyr)>sc < - spark_connect(方法=“磚”)
然而,我收到以下錯誤:
錯誤的價值[[3 l]](電導率):未能開始sparklyr端:java . util . concurrent。ExecutionException: org.apache.spark。SparkException:沒有憑據的範圍。com.google.common.util.concurrent.AbstractFuture Sync.getValue美元(AbstractFuture.java: 299)美元com.google.common.util.concurrent.AbstractFuture Sync.get (AbstractFuture.java: 286) com.google.common.util.concurrent.AbstractFuture.get (AbstractFuture.java: 116) com.google.common.util.concurrent.Uninterruptibles.getUninterruptibly (Uninterruptibles.java: 135)美元com.google.common.cache.LocalCache Segment.getAndRecordStats (LocalCache.java: 2344)美元com.google.common.cache.LocalCache Segment.loadSync (LocalCache.java: 2316)美元com.google.common.cache.LocalCache Segment.lockedGetOrLoad (LocalCache.java: 2278)美元com.google.common.cache.LocalCache Segment.get (LocalCache.java: 2193) com.google.common.cache.LocalCache.get (LocalCache.java: 3932) com.google.common.cache.LocalCache.getOrLoad com.google.common.cache.Loc (LocalCache.java: 3936)此外:警告信息:1:在file.create([好]):不能創建文件“/ usr /地方/ lib / R / site-library / sparklyr / java / / sparklyr - 2.2 - 2.11。jar”,原因“拒絕訪問”2:在file.create([好]):不能創建文件“/ usr /地方/ lib / R / site-library / sparklyr / java / / sparklyr - 2.1 - 2.11。jar”,原因“拒絕訪問”

sparkR

>庫(SparkR)>sparkR.session ()Java ref org.apache.spark.sql類型。SparkSession id 1>df < - SparkR: sql (“SELECT * FROM違約。鑽石限製2”)

錯誤回溯

錯誤handleErrors(康涅狄格州returnStatus): org.apache.spark.sql。AnalysisException:沒有憑據的範圍。;1號線pos 14 org.apache.spark.sql.catalyst.analysis.package AnalysisErrorAt.failAnalysis美元(package.scala: 69) org.apache.spark.sql.execution.datasources.ResolveSQLOnFile anonfun申請美元1.美元applyorelse (rules.scala: 172) org.apache.spark.sql.execution.datasources.ResolveSQLOnFile anonfun申請美元1.美元applyorelse (rules.scala: 94) org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper。anonfun resolveOperatorsDownWithPruning美元2美元(AnalysisHelper.scala: 219)美元org.apache.spark.sql.catalyst.trees.CurrentOrigin .withOrigin (TreeNode.scala: 106) org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper。anonfun resolveOperatorsDownWithPruning美元1美元(AnalysisHelper.scala: 219)美元org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper .allowInvokingTransformsInAnalyzer org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper.resolveOperatorsDownWithPruning (AnalysisHelper.scal (AnalysisHelper.scala: 372)

有人能幫助我嗎?

0回答0
歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map