你好,我是試圖從隨機數字撥號改為寫入數據存儲帳戶:
添加存儲賬戶關鍵:
spark.conf.set (“fs.azure.account.key.y.blob.core.windows.net”、“myStorageAccountKey”)
讀和寫相同的存儲:
val路徑= " wasbs: / /(電子郵件保護)/數據/ x。csv”val df = spark.read.format (csv) .load(路徑)df.rdd.saveAsObjectFile (“wasbs: / /(電子郵件保護)/ / out.csv”)
錯誤:
shaded.databricks.org.apache.hadoop.fs.azure.AzureException: shaded.databricks.org.apache.hadoop.fs.azure.AzureException:容器x賬戶y.blob.core.windows.net未找到,我們不能創建它使用anoynomous憑證,憑證中還沒有發現它們的配置。在shaded.databricks.org.apache.hadoop.fs.azure.AzureNativeFileSystemStore.initialize shaded.databricks.org.apache.hadoop.fs.azure.AzureNativeFileSystemStore.createAzureStorageSession (AzureNativeFileSystemStore.java: 1037) (AzureNativeFileSystemStore.java: 488) shaded.databricks.org.apache.hadoop.fs.azure.NativeAzureFileSystem.initialize (NativeAzureFileSystem.java: 1325) org.apache.hadoop.fs.FileSystem.createFileSystem (FileSystem.java: 2669) org.apache.hadoop.fs.FileSystem.get (FileSystem.java: 370) org.apache.hadoop.fs.Path.getFileSystem (Path.java: 295) org.apache.spark.sql.execution.datasources.DataSource anonfun org apache引發美元美元美元sql執行數據源美元數據源checkAndGlobPathIfNecessary 1.美元美元應用(DataSource.scala: 603)
相同的代碼工作當我保存dataframe(不是抽樣:
df.write.csv (“wasbs: / /(電子郵件保護)/ / obj.csv”)
看起來像抽樣不知道如何連接到存儲賬戶wasbs: / /。
任何想法如何解決這個沒有山(dbutils.fs.mount) ?
謝謝!
你好,
你可能需要配置以下抽樣api