我試圖運行一個多文件python在磚的工作不使用筆記本。我試過設置範圍:
{"任務":{“task_key”:“test-run-8”、“spark_submit_task”:{“參數”:[”——py-files”、“/應用程序。郵政編碼”、“/ app.zip / __main__。py new_cluster“]}: {“num_workers”: 1、“spark_version”:“11.1.x-scala2.12”、“aws_attributes”: {“first_on_demand”: 1、“可用性”:“SPOT_WITH_FALLBACK”、“zone_id”:“us-west-2a”、“instance_profile_arn”:“<實例配置文件是>”,“spot_bid_price_percent”: 100年,“ebs_volume_count”: 0},“node_type_id”:“i3。超大”、“docker_image ": {" url ": " < aws-account-number >.dkr.ecr.us -西方- 2. - amazonaws.com/spark app:0.1.17“}}}}
應用程序試圖讀取JSON文件和加載新的三角洲湖表。不幸的是,這並不像預期的那樣工作。這就是我發現:
…22/08/19 02:38:28警告DefaultTableOwnerAclClient:未能創建/刪除表時更新表的所有者。. lang。IllegalStateException:司機上下文沒有找到……
一些額外的注意事項:
任何幫助理解和修複這個錯誤會非常感激。
問候,
奧馬爾
嗨@Umar汗,請啟用表ACL和讓我們知道是否有幫助。如果這個答案可以幫助您,請將它標記為最好的。
這是醫生:-https://docs.microsoft.com/en-us/azure/databricks/administration-guide/access-control/table-acl