我想設置一個磚SQL端點連接到外部蜂巢metastore。我複製metastore火花配置SQL端點,通過添加添加以下配置:
spark.sql.hive.metastore。罐子maven
我一直錯誤
不能實例化org.apache.hadoop.hive.metastore.HiveMetaStoreClient
我們目前正在使用Azure磚,蜂巢Metastore 0.13版本,和Azure MySQL數據庫。
這是完整的SQL端點配置:
spark.hadoop.javax.jdo.option。ConnectionPassword{{秘密/ keyvault / db-secret-name}} spark.hadoop.javax.jdo.option。ConnectionURL jdbc: mysql: / / my-dbserver-name.mysql.database.azure.com: 3306 / my-db-name嗎?sslMode = PREFERRED&verifyServerCertificate = true spark.hadoop.javax.jdo.option。ConnectionDriverName com.mysql.jdbc。司機spark.sql.hive.metastore。spark.hadoop.javax.jdo.option 0.13版本。ConnectionUserName adminuser@my-db-name spark.sql.hive.metastore。maven spark.hadoop.hive.metastore.schema jar。驗證錯誤spark.hadoop.hive.metastore.schema.verification.record。假spark.sql.hive.metastore.schema.verification.record版本。真正的spark.hadoop.datanucleus版本。autoCreateSchema假spark.sql.hive.metastore.schema。驗證真實spark.hadoop.datanucleus.schema。autoCreateTables假spark.hadoop.datanucleus。fixedDatastore真實
SQL端點支持蜂巢Metastore 0.13版本嗎?或任何其他的指導,我們將不勝感激。
https://docs.www.eheci.com/data/metastores/external-hive-metastore.html
特別是:
#引發特定的配置選項
spark.sql.hive.metastore。版本< hive-version >
#如果< hive-version >是0.13.x跳過這一個。
spark.sql.hive.metastore。jar < hive-jar-source >