取消
顯示的結果
而不是尋找
你的意思是:

運行“pyspark”與“databricks-connect”

agagrins
新的貢獻者三世

你好,

我試著運行“pyspark”與“databricks-connect = = 11.30。b0’,但我失敗了。

我看到的跟蹤

' ' '

文件“/ home / agagrins / databricks9 / lib / python3.9 /網站/ py4j / java_gateway。在__call__ py”, 1321行

return_value = get_return_value (

文件“/ home / agagrins / databricks9 / lib / python3.9 /網站/ pyspark / sql /跑龍套。py”, 196行,在裝飾

返回f(*, * *千瓦)

文件“/ home / agagrins / databricks9 / lib / python3.9 /網站/ py4j /協議。在get_return_value py”, 326行

提高Py4JJavaError (

py4j.protocol。Py4JJavaError:調用o33.sql時發生一個錯誤。

:org.apache.spark。SparkException:沒有憑據的範圍。

在com.databricks.unity.UCSDriver經理。美元anonfun currentScopeId 1美元(UCSDriver.scala: 94)

scala.Option.getOrElse (Option.scala: 189)

com.databricks.unity.UCSDriver Manager.currentScopeId美元(UCSDriver.scala: 94)

com.databricks.unity.UCSDriver Manager.currentScope美元(UCSDriver.scala: 97)

com.databricks.unity.UnityCredentialScope .currentScope美元(UnityCredentialScope.scala: 100)

com.databricks.unity.UnityCredentialScope .getCredentialManager美元(UnityCredentialScope.scala: 128)

com.databricks.unity.CredentialManager .getUnityApiTokenOpt美元(CredentialManager.scala: 456)

com.databricks.unity.UnityCatalogClientHelper .getToken美元(UnityCatalogClientHelper.scala: 34)

在com.databricks.managedcatalog.ManagedCatalogClientImpl。anonfun getCatalog美元1美元(ManagedCatalogClientImpl.scala: 163)

在美元com.databricks.spark.util.FrameProfiler知根知底(FrameProfiler.scala: 80)

在com.databricks.managedcatalog.ManagedCatalogClientImpl。anonfun recordAndWrapException美元1美元(ManagedCatalogClientImpl.scala: 2904)

com.databricks.managedcatalog.ErrorDetailsHandler.wrapServiceException (ErrorDetailsHandler.scala: 25)

在com.databricks.managedcatalog.ErrorDetailsHandler.wrapServiceException美元(ErrorDetailsHandler.scala: 23)

com.databricks.managedcatalog.ManagedCatalogClientImpl.wrapServiceException (ManagedCatalogClientImpl.scala: 77)

com.databricks.managedcatalog.ManagedCatalogClientImpl.recordAndWrapException (ManagedCatalogClientImpl.scala: 2903)

com.databricks.managedcatalog.ManagedCatalogClientImpl.getCatalog (ManagedCatalogClientImpl.scala: 156)

com.databricks.sql.managedcatalog.ManagedCatalogCommon.catalogExists (ManagedCatalogCommon.scala: 94)

com.databricks.sql.managedcatalog.PermissionEnforcingManagedCatalog.catalogExists (PermissionEnforcingManagedCatalog.scala: 177)

com.databricks.sql.managedcatalog.ManagedCatalogSessionCatalog.catalogExists (ManagedCatalogSessionCatalog.scala: 384)

com.databricks.sql.DatabricksCatalogManager.isCatalogRegistered (DatabricksCatalogManager.scala: 104)

org.apache.spark.sql.SparkServiceCatalogV2Handler .catalogOperationV2美元(SparkServiceCatalogV2Handler.scala: 58)

在com.databricks.service.SparkServiceImpl。美元anonfun catalogOperationV2 1美元(SparkServiceImpl.scala: 165)

' ' '

我試著穀歌“沒有憑據”範圍,但無濟於事。任何人都知道的從哪裏開始?

17日回複17

謝爾
重視貢獻二世

你在哪裏跑步?

agagrins
新的貢獻者三世

我在本地運行,Python 3.9.1 WSL下,但這個想法是在磚在AWS的運行工作

sergiu
新的貢獻者三世

你好@Aigars笑容。你能告訴我更多關於你想通過磚連接運行嗎?一般來說,我們建議使用dbx磚連接的地方發展。

也能提供更多的信息連接到哪些類型的計算?如運行時和是否運行在統一目錄或遺留蜂巢Metastore嗎?

agagrins
新的貢獻者三世

我的理解是,有三種主要的方式為我使用磚:‘databricks-connect’,‘databricks-sql-connector’,‘dbx’。我嚐試所有三個,為不同的目的,看看適合我們worksflows最好的地方。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map