我想發布的數據從三角洲住表代存儲Azure ADLS (DLT)。檢查文檔,但不能讓它工作。任何見解如何呢?
我試圖指定存儲位置”有很多的組合沛富:/ / root@storageaccountname.dfs.core.windows.net/dev/delta_live_tables/並且abfss: / / root@storageaccountname.dfs.core.windows.net/dev/delta_live_tables/沒有成功。
隻有成功寫hive_metastore dbfs迄今為止。但是我想寫一個外部位置(ADLS Gen2)引用的表可以統一目錄。
DLT的設置你需要去計算- >高級和著名的配置(當然,每個鍵需要一個值需要在你的情況中):
fs.azure.account.auth。OAuth類型
fs.azure.account.oauth.provider。類型org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider
fs.azure.account.oauth2.client。id{{秘密/範圍/ databricks-clientid}}
fs.azure.account.oauth2.client。秘密{{秘密/範圍/ databricks-secret}}
fs.azure.account.oauth2.client.endpointhttps://login.microsoftonline.com/ < YOUR_APP_ID > / oauth2 /令牌
如果你有問題你可以用spark_conf.spark.hadoop前綴的所有鍵