我已經創建了一個溢價在Azure網站集群。沒有問題數據科學與工程(DSAE),而我是綁定SQL蜂巢metastore Postgre。我做了所有設置通過全球init腳本從管理控製台。
然而當我試著調整相同設置磚SQL,我得到錯誤:
Org.apache.hadoop.hive.ql.metadata。HiveException: . lang。RuntimeException:無法實例化org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
設置如下書麵(數據訪問配置)。我不能看到任何其他日誌數據磚SQL,我不能聞任何其他原因。
spark.hadoop.fs.azure.account.auth.type.DataLake.dfs.core.windows.net OAuth spark.hadoop.fs.azure.account.oauth.provider.type.DataLake.dfs.core.windows.net org.apache.hadoop.fs.azurebfs.oauth2。ClientCredsTokenProvider spark.hadoop.fs.azure.account.oauth2.client.id.DataLake.dfs.core.windows.net spark.hadoop.fs.azure.account.oauth2.client.secret.DataLake.dfs.core.windows.net{{秘密/ Veloxity / VeloxityDateLakeApplicationID}}{{秘密/ Veloxity / VeloxityDataLakeSecretID}} spark.hadoop.fs.azure.account.oauth2.client.endpoint.DataLake.dfs.core.windows.nethttps://login.microsoftonline.com/{{秘密/ Veloxity / VeloxityTenantID}} / oauth2 /令牌spark.hadoop.javax.jdo.option。ConnectionURL jdbc: postgresql: / / # # # # # # # # # .postgres.database.azure.com: 5432 / databricks_metastore ? ssl = truespark.hadoop.javax.jdo.option。ConnectionUserName # # # # # # # # @ # # # # # # # # # # .postgres.database.azure.com spark.hadoop.javax.jdo.option。ConnectionPassword # # # # # # # # # spark.hadoop.javax.jdo.option。ConnectionDriverName org.postgresql。司機spark.sql.hive.metastore。maven spark.sql.hive.metastore jar。版本3.1.0 spark.hadoop.datanucleus。fixedDatastore假spark.hadoop.hive.metastore.schema。驗證錯誤
我讀過寫的問題@prasadvaze和答案從@Prabakar Ammeappin然而我無法找到解決方案。我已經改變”. . metastore。jar maven”或試圖更新版本還沒有工作。
你能幫我嗎?
發現soluttion:
spark.hadoop.javax.jdo.option。ConnectionURL jdbc: postgresql: / / # # # # # # # # # .postgres.database.azure.com: 5432 / databricks_metastore ? ssl = true
需要
spark.hadoop.javax.jdo.option。ConnectionURL jdbc: postgresql: / / # # # # # # # # # .postgres.database.azure.com: 5432 / databricks_metastore ? sslmode =要求
你好@saltuk bozok
你是使用serverless SQL端點嗎?
//www.eheci.com/blog/2021/08/30/announcing-databricks-serverless-sql.html
一些不支持相依Serverless端點如上所述
https://docs.www.eheci.com/sql/admin/data-access-configuration.html
spark.sql.hive.metastore。* (spark.sql.hive.metastore。jar和spark.sql.hive.metastore.jars。Serverless SQL端點的路徑是不支持的。)