問題:
印度生物技術部運行時啟用了持續列文檔我們得到以下錯誤:org.apache.hadoop.hive.ql.metadata。HiveException:至少一列必須指定表
背景:
有一個問題dbt-spark github上被關閉了。
https://github.com/dbt-labs/dbt-spark/issues/364這是討論的# db-databricks-and-spark印度生物技術部鬆弛社區的通道。
我們嚐試建議的修複,設置spark.databricks.delta.catalog.update.enabled = false,但我們仍然得到錯誤如果啟用了列文檔。我們不讓錯誤如果我們堅持列文檔是假的但我們不能在印度生物技術部使用全部文檔的功能。
問題:
1)一年前有一個評論印度生物技術部鬆弛“我們大約兩周遠離部署一個增強的異步線程雖然三角洲目錄進行更新,以解決這個問題你不需要禁用delta.catalog.update”。是修複,以上,還推薦嗎?如果不是有新的建議嗎?
2)建議修複設置spark.databricks.delta.catalog.update.enabled = false為其他海報但不工作了所以我想知道如果我們正確地實施。起程拓殖文檔中描述不精確匹配是什麼職位。我們設定這個參數在“data_access_config”,但海報描述設置“sql_config_params”,但我們不能這樣做起程拓殖。下麵的是實現正確嗎?(文檔的鏈接,我們看著是無序的,下麵)
資源”databricks_sql_global_config”“cfg”{
instance_profile_arn = aws_iam_instance_profile.hc.arn
data_access_config = {
“spark.databricks.delta.catalog.update.enabled”:“假”
}
}
資源”databricks_sql_global_config”“cfg”{
instance_profile_arn = aws_iam_instance_profile.hc.arn
sql_config_params = {
data_access_config = {
“spark.databricks.delta.catalog.update.enabled”:“假”
}
}
謝謝你的幫助!
@Kesshi喬丹:
我隻是意識到我複製兩個選項的差異我們嚐試錯誤。我已經糾正了當前一個低於。
資源”databricks_sql_global_config”“cfg”{
instance_profile_arn = aws_iam_instance_profile.hc.arn
data_access_config = {
“spark.databricks.delta.catalog.update.enabled”:“假”
}
}
我們也試著設置sql_config_params,導致一個錯誤所以我們回到在data_access_config設置它
資源”databricks_sql_global_config”“cfg”{
instance_profile_arn = aws_iam_instance_profile.hc.arn
sql_config_params = {
“spark.databricks.delta.catalog.update.enabled”:“假”
}
}