取消
顯示的結果
而不是尋找
你的意思是:

在集群工作未能添加S3 init腳本

User16752239289
貢獻者三世
貢獻者三世

我使用下麵負載提交工作,包括init腳本保存在S3。實例配置文件和init腳本在集群互動。但是當我搬到集群init腳本不能配置工作。

{" new_cluster ": {“spark_version”:“8.0.x-scala2.12”、“spark_conf”: {“spark.databricks.repl。allowedLanguages”:“python, sql“}”aws_attributes ": {“instance_profile_arn”:“<我實例配置文件>”},“init_scripts”: [{“s3”:{“目的地”:“s3: / / <我桶> / init。sh "}}),”instance_pool_id”:“id > <池”、“自動定量”:{“min_workers”: 2,“max_workers”: 6}},“notebook_task”: {“notebook_path”:“<我的筆記本> "}}

1接受解決方案

接受的解決方案

User16752239289
貢獻者三世
貢獻者三世

這是由於該地區失蹤。init腳本保存在S3,該地區字段是必需的。init腳本部分應該像下圖:

“init_scripts”: [{“s3”:{“目的地”:“s3: / / <我桶> / init。sh”、“地區”:““}})

注意,區域價值可以是空的”“或你想要的特定區域配置。

在原帖子查看解決方案

1回複1

User16752239289
貢獻者三世
貢獻者三世

這是由於該地區失蹤。init腳本保存在S3,該地區字段是必需的。init腳本部分應該像下圖:

“init_scripts”: [{“s3”:{“目的地”:“s3: / / <我桶> / init。sh”、“地區”:““}})

注意,區域價值可以是空的”“或你想要的特定區域配置。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map