取消
顯示的結果
而不是尋找
你的意思是:

誰能告訴我為什麼這個筆記本運行時將失敗作為一個工作嗎?

靈知
新的貢獻者二世

筆記本運行時的工作/工作流調度程序,數據是從來沒有進口,但是文件刪除。

運行時直接(如運行細胞)或手動運行時的工作(如點擊運行從UI)的工作,會導入的數據。

沒有任何明顯的錯誤報告的工作日誌。以前,如果導入文件包含一個無效的模式,就業會失敗,發送警報。

進口再保險dir = " / FileStore / shared_uploads /靈知/導入/”文件= dbutils.fs.ls (dir) f文件:標簽= re.split (“_ \ d +”, f.name)[0]打印(f.name +“- >”+ tab) df = spark.read.format (csv)。負載(dir + f.name inferSchema = " true ",頭= " true ")如果標簽= =“t_1”或標簽= =“t_2”: df.write.option (“mergeSchema”,真的).saveAsTable(“提取。{}”.format(選項卡),格式=“δ”模式=“追加”)其他:df.write.option (“mergeSchema”,真的).saveAsTable(“提取。{}”.format(選項卡),格式=“δ”模式=“覆蓋”)dbutils.fs。rm (dir + f.name)
{“job_id”: 1、“設置”:{“名稱”:“導入數據”、“email_notifications”: {“on_failure”:“靈知主義者”,“no_alert_for_skipped_runs”:真正的},“timeout_seconds”: 0,“安排”:{“quartz_cron_expression”:“54 5 0/2 * * ?”,“timezone_id”:“美國/底特律”、“pause_status”:“暫停”},“max_concurrent_runs”: 1、“任務”:[{“task_key”:“import_data”、“notebook_task”: {“notebook_path”:“/用戶/靈知/導入數據”},“existing_cluster_id”:“1”,“timeout_seconds”: 0,“email_notifications”:{}}],“格式”:“MULTI_TASK”},“created_time”: 1648574818835,“creator_user_name”:“靈知主義者”,“run_as_user_name”:“靈知主義者”}

1回複1

Kaniz
社區經理
社區經理

嗨@Justin Denick DBR你使用什麼?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map