在AWS控製台,在“我的安全憑據”,請生成一個新的訪問密鑰和秘密密鑰,
他們設置為env變量:
sc._jsc.hadoopConfiguration()這裏(“fs.s3n。awsAccessKeyId”, ACCESS_KEY) sc._jsc.hadoopConfiguration()這裏(“fs.s3n。awsSecretAccessKey”, SECRET_KEY)
現在你可以讀文件直接從S3 bucket
df = spark.read.csv (" https://gateway.storjshare.io/test。csv”“頭= True, inferSchema = True)
你可以掛載一桶永久使用的命令
dbutils.fs。山(f”s3a: / / {ACCESS_KEY}: {SECRET_KEY} @ {aws_bucket_name}”, f“/ mnt / {mount_name}”)
安全使用的關鍵庫來存儲您的訪問密鑰和秘密密鑰
這是行不通的。我用AZURE-Databricks我想從S3存儲桶/讀/寫對象與一個特定的端點→endpoint_url = ' https://gateway.storjshare.io '
所以這不是一個I / O操作從磚到AWS。此外,這是重要的,因為Azure-Datafactory隻支持閱讀而不是寫作。到目前為止,沒有友好的方式。