有可能升級的蜂巢metastore版本嗎?
運行spark.conf.get (“spark.sql.hive.metastore.version”)表明它正在運行0.13.0
然而https://docs.microsoft.com/en-us/azure/databricks/release-notes/runtime/7.x-migration apache-hive似乎表明,升級到2.3的版本
我試圖添加以下引發配置
spark.sql.hive.metastore。2.3.7版本spark.sql.hive.metastore。瓶內裝式
但是它導致錯誤的異常堆棧似乎表明其試圖連接到一個外部metastore。我建立一個外部metastore不感興趣
蜂巢metastore版本應該和什麼有什麼我需要做升級嗎?
你能試著改變每一樣嗎
蜂巢2.3.7(磚運行時的7.0及以上):設置spark.sql.hive.metastore。瓶內裝式。
對於所有其他蜂巢版本,Azure磚建議你下載metastore spark.sql.hive.metastore罐子和設置配置。罐子指使用中描述的程序下載下載的jar metastore罐子,指向他們。
嗨@Jeffrey Mak,這個鏈接可能會幫助你。https://docs.microsoft.com/en-us/azure/databricks/kb/metastore/hive-metastore-troubleshooting