取消
顯示的結果
而不是尋找
你的意思是:

SparkFiles——奇怪的行為在Azure磚(運行時10)

Hubert_Dudek1
尊敬的貢獻者三世

當你使用:

從pyspark進口SparkFiles spark.sparkContext.addFile (url)

它將文件添加到非dbfs / local_disk0 /但當你想讀文件:

spark.read.json (SparkFiles.get (“file_name”))

要從/ dbfs / local_disk0 /讀取它。我也試過用文件:/ /和許多其他創造性的方式,它不工作。

當然是工作在使用% sh cp -從/ local_disk0 / / dbfs / local_disk0 /。

這似乎是一個錯誤就像addFile轉向dbfs azure磚但SparkFiles不是(在原始火花addFile和到達/從工人)。

我也找不到任何設置手動指定SparkFiles RootDirectory。

1接受解決方案

接受的解決方案

User16764241763
尊敬的貢獻者

@Hubert杜德克

必須嚐試文件:/ / / ?

我記得火花3.2開始,這榮譽本機hadoop文件係統如果沒有文件定義訪問協議。

在原帖子查看解決方案

30日回複30.

weldermartins
尊敬的貢獻者

你好。

我在同樣的情況。數據提取通過API使用sparkfiles社區磚運行沒有錯誤,然而在Azure它生成提到的錯誤。

jorgeff
新的貢獻者二世

在Azure生成提到的錯誤

Hubert_Dudek1
尊敬的貢獻者三世

@Kaniz Fatma @Piper威爾遜你能幫升級這個問題,越來越多的人都在抱怨

Marcos_Gois
新的貢獻者二世

大家好

這個問題也發生在我,在Azure。如果有人可以幫助我們

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map