取消
顯示的結果
而不是尋找
你的意思是:

麻煩訪問“_metadata”列中使用cloudFiles三角洲生活表

tej1
新的貢獻者三世

我們正在建設一個三角洲住管道在AWS S3使用cloudFiles攝取csv文件。

和有必要訪問文件的文件修改的時間戳。

記錄在這裏,我們選擇“_metadata”列在三角洲住管道任務沒有成功。我們做錯了什麼嗎?

下麵的代碼片段:

@dlt。表(name =“青銅”,評論= f“新{模式}數據逐步吸收從S3”, table_properties ={“質量”:“青銅”})def bronze_job():返回火花\ .readStream \ .format (cloudFiles) \ .option (“cloudFiles。useNotifications”、“真實”)\ .option (“cloudFiles。格式”、“csv”) \ .option (“cloudFiles。區域”、“一來”)\ .option(“分隔符”,",")\ .option(“逃脫”,“\”)\ .option(“頭”,“假”)\ .option(“編碼”,“utf - 8”) . SCHEMA (cdc_schema) \ \ .load (“/ mnt / % s /美國疾病控製與預防中心/ % s“% (RAW_MOUNT_NAME、模式))\ .select (“*”、“_metadata”)

謝謝。

光輝

1接受解決方案

接受的解決方案

tej1
新的貢獻者三世

是的,在一個單獨的集群(對於任何集群外的DLT管道)這個功能使用博士10.5工作。

我發現這個問題。我們不能選擇運行時(DLT無法設置spark_version)管道設置。:tired_face:

在原帖子查看解決方案

6個回答6

Hubert_Dudek1
尊敬的貢獻者三世

你使用磚運行時的10.5嗎?

tej1
新的貢獻者三世

是的,在一個單獨的集群(對於任何集群外的DLT管道)這個功能使用博士10.5工作。

我發現這個問題。我們不能選擇運行時(DLT無法設置spark_version)管道設置。:tired_face:

Kaniz
社區經理
社區經理

嗨@Tejas Sherkar,謝謝你與社區共享的解決方案。我很高興你可以找到你的問題的解決方案。最終我標記你的回答最好。

柯爾特
新的貢獻者三世

我有同樣的問題。這個答案是否意味著沒有辦法文件元數據使用三角洲住表嗎?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map