你好,
當我創建外部位置統一目錄。即使我不提供任何用戶授予,我有寫訪問s3 bucket的工作區。
df.write.parquet (s3: / / xxxx-data /阿米特/ suppose_to_fail”)
成功完成
當我刪除外部位置,它與AWS失敗的錯誤沒有權限,所以我確信從加州大學授權的權限。
我怎麼阻止用戶能夠編寫直接當使用s3加州大學(順便說一句,在過去,我可以控製選項寫在AWS我水平。雖然並不提供完整的解決方案,我需要授予寫有選擇性地)
謝謝,
阿米特
集群模式是什麼?
你能運行以下命令並分享結果嗎
加州大學的權限得到,外部位置的< externallocationname >——概要文件< databricksprofile >
https://docs.www.eheci.com/dev-tools/cli/unity-catalog-cli.html unity-catalog-cli
{
“num_workers”: 0,
“cluster_name”:“xxxxxx”,
:“spark_version 11.2.x-scala2.12”,
" spark_conf ": {
“火花。當地主”:“(* 4)”,
“spark.databricks.cluster。配置文件”:“singleNode”,
“spark.databricks.dataLineage。啟用”:“真正的”
},
" aws_attributes ": {
“first_on_demand”: 1、
“可用性”:“SPOT_WITH_FALLBACK”,
:“zone_id us-east-2a”,
“spot_bid_price_percent”: 100年,
“ebs_volume_count”: 0
},
:“node_type_id i3.xlarge”,
:“driver_node_type_id i3.xlarge”,
“ssh_public_keys”: [],
" custom_tags ": {
:“ResourceClass SingleNode”
},
" spark_env_vars ": {
“DB_CLUSTER_NAME”:“\”* * * _xxxx \ ",
:“DD_SITE \“datadoghq.com \ ",
“DB_CLUSTER_ID”:“\”* * * _xxxx \ ",
“DD_ENV”:“暫存”,
:“PYSPARK_PYTHON /磚/ python3 / bin / python3”,
“DD_API_KEY”:“3 aa81ed18bc46a1f9cc425ee6c5ada78”
},
“autotermination_minutes”: 120年,
“enable_elastic_disk”:沒錯,
“cluster_source”:“用戶界麵”,
“init_scripts”:(
{
" dbfs ": {
“目的地”:“dbfs: / FileStore /跑龍套/ datadog-install-driver-only.sh”
}
}
),
:“single_user_name xxxx@ * * *。* * *”,
:“data_security_mode SINGLE_USER”,
“runtime_engine”:“標準”,
“cluster_id”:“0915 - 152649 ox2wxwwz”
}