取消
顯示的結果
而不是尋找
你的意思是:

運行“pyspark”與“databricks-connect”

agagrins
新的貢獻者三世

你好,

我試著運行“pyspark”與“databricks-connect = = 11.30。b0’,但我失敗了。

我看到的跟蹤

' ' '

文件“/ home / agagrins / databricks9 / lib / python3.9 /網站/ py4j / java_gateway。在__call__ py”, 1321行

return_value = get_return_value (

文件“/ home / agagrins / databricks9 / lib / python3.9 /網站/ pyspark / sql /跑龍套。py”, 196行,在裝飾

返回f(*, * *千瓦)

文件“/ home / agagrins / databricks9 / lib / python3.9 /網站/ py4j /協議。在get_return_value py”, 326行

提高Py4JJavaError (

py4j.protocol。Py4JJavaError:調用o33.sql時發生一個錯誤。

:org.apache.spark。SparkException:沒有憑據的範圍。

在com.databricks.unity.UCSDriver經理。美元anonfun currentScopeId 1美元(UCSDriver.scala: 94)

scala.Option.getOrElse (Option.scala: 189)

com.databricks.unity.UCSDriver Manager.currentScopeId美元(UCSDriver.scala: 94)

com.databricks.unity.UCSDriver Manager.currentScope美元(UCSDriver.scala: 97)

com.databricks.unity.UnityCredentialScope .currentScope美元(UnityCredentialScope.scala: 100)

com.databricks.unity.UnityCredentialScope .getCredentialManager美元(UnityCredentialScope.scala: 128)

com.databricks.unity.CredentialManager .getUnityApiTokenOpt美元(CredentialManager.scala: 456)

com.databricks.unity.UnityCatalogClientHelper .getToken美元(UnityCatalogClientHelper.scala: 34)

在com.databricks.managedcatalog.ManagedCatalogClientImpl。anonfun getCatalog美元1美元(ManagedCatalogClientImpl.scala: 163)

在美元com.databricks.spark.util.FrameProfiler知根知底(FrameProfiler.scala: 80)

在com.databricks.managedcatalog.ManagedCatalogClientImpl。anonfun recordAndWrapException美元1美元(ManagedCatalogClientImpl.scala: 2904)

com.databricks.managedcatalog.ErrorDetailsHandler.wrapServiceException (ErrorDetailsHandler.scala: 25)

在com.databricks.managedcatalog.ErrorDetailsHandler.wrapServiceException美元(ErrorDetailsHandler.scala: 23)

com.databricks.managedcatalog.ManagedCatalogClientImpl.wrapServiceException (ManagedCatalogClientImpl.scala: 77)

com.databricks.managedcatalog.ManagedCatalogClientImpl.recordAndWrapException (ManagedCatalogClientImpl.scala: 2903)

com.databricks.managedcatalog.ManagedCatalogClientImpl.getCatalog (ManagedCatalogClientImpl.scala: 156)

com.databricks.sql.managedcatalog.ManagedCatalogCommon.catalogExists (ManagedCatalogCommon.scala: 94)

com.databricks.sql.managedcatalog.PermissionEnforcingManagedCatalog.catalogExists (PermissionEnforcingManagedCatalog.scala: 177)

com.databricks.sql.managedcatalog.ManagedCatalogSessionCatalog.catalogExists (ManagedCatalogSessionCatalog.scala: 384)

com.databricks.sql.DatabricksCatalogManager.isCatalogRegistered (DatabricksCatalogManager.scala: 104)

org.apache.spark.sql.SparkServiceCatalogV2Handler .catalogOperationV2美元(SparkServiceCatalogV2Handler.scala: 58)

在com.databricks.service.SparkServiceImpl。美元anonfun catalogOperationV2 1美元(SparkServiceImpl.scala: 165)

' ' '

我試著穀歌“沒有憑據”範圍,但無濟於事。任何人都知道的從哪裏開始?

17日回複17

agagrins
新的貢獻者三世

我不確定如何測試“針對集群運行無關的統一目錄(在訪問模式——不把它隔離共享)”頁麵。你能提供一個集群。json使用相應的設置?

sergiu
新的貢獻者三世

變化中的data_security_mode字段NO_ISOLATION集群配置。它不太可能與你麵對的問題,更有可能與配置問題。

但它可能是值得反複檢查。

agagrins
新的貢獻者三世

為何“databricks-connect”而不是“dbx”?嗯,我想讓這兩個工作。

我發了一個相關的問題“dbx”https://community.www.eheci.com/s/feed/0D58Y00009qtFLrSAM

databricks-connect '我希望是可以有一個更快的周轉時間,相比“dbx”,因為沒有新環境必須設置。

agagrins
新的貢獻者三世

我用同樣的原因使用dbx的時,和工作,所以我懷疑令牌本身不是一個問題。我將檢查權限

agagrins
新的貢獻者三世

這些都是在集群上的權限。這是你想要的嗎?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map