取消
顯示的結果
而不是尋找
你的意思是:

如何結構化流數據加載到三角洲表在ADLS代是誰的位置

al -
重視貢獻三世

你好,

我工作在一個流媒體數據處理。我開始一步從azure eventhub使用readstream讀取數據。現在我想writestream成δ表。

我的要求是,數據應該出現在外部位置(adls gen2)和表應該在我metastore可用。

當我嚐試以下代碼

Code_Snippet:

ext_table_location = " adls路徑”

autoloader_df。writeStream \

.format \(“δ”)

.outputMode \(“追加”)

.option (“checkpointLocation”, checkpoint_directory) \

.option (“mergeSchema”,“真正的”)\

.option(“路徑”,ext_table_location) \

.table (ext_table_location)

它是失敗的。有沒有流數據的標準方法對於這樣的場景嗎?

提前謝謝!

6個回答6

匿名
不適用

有幾個方法可以連接到ADLS代。請參考下麵的文檔。例如,如果你決定去服務主體的方法,您需要添加以下存儲賬戶配置細節集群或筆記本。同樣適用於存儲SAS令牌和存儲鍵。

service_credential = dbutils.secrets.get(範圍= " < >範圍”,關鍵= < service-credential-key >)

spark.conf.set (“fs.azure.account.auth.type。< storage-account > .dfs.core.windows.net”、“OAuth”)

spark.conf.set (“fs.azure.account.oauth.provider.type。< storage-account > .dfs.core.windows.net”、“org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider”)

spark.conf.set (“fs.azure.account.oauth2.client.id。< storage-account > .dfs.core.windows.net”、“<應用程序id >”)

spark.conf.set (“fs.azure.account.oauth2.client.secret。< storage-account > .dfs.core.windows.net”, service_credential)

spark.conf.set (“fs.azure.account.oauth2.client.endpoint。< storage-account > .dfs.core.windows.net”、“https://login.microsoftonline.com/ < directory-id > / oauth2 /令牌”)

https://learn.microsoft.com/en-us/azure/databricks/getting-started/connect-to-azure-storage

https://learn.microsoft.com/en-us/azure/databricks/storage/azure-storage

al -
重視貢獻三世

連接好,我需要知道如何編寫流數據adls gen2路徑和同時有δ表注冊metastore。

werners1
尊敬的貢獻者三世

你可以嚐試使用<數據庫>。<表> .table選項而不是路徑嗎?

al -
重視貢獻三世

嗨@werners,我試著選擇。但它會創建一個管理表。但是我想要一個外部表。所以現在我創建了一個外部表前流部分。

我理解的研究是什麼,我們不能寫在writestream外部表查詢。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map