當我試著拚花文件讀取從Azure datalake容器從磚,我得到引發異常。下麵是我查詢
進口pyarrow。鑲木地板,pq
從pyspark.sql。功能導入*
從datetime進口datetime
data = spark.read.parquet (f“/ mnt /數據/國家/羊毛/ countrydata.parquet”)
org.apache.spark。SparkException:工作階段失敗而終止:任務0階段14.0失敗了4次,最近的失敗:在舞台上失去了任務0.3 14.0 (TID 35)(10.135.39.71執行人0):org.apache.spark。在awaitResult SparkException:異常:
這是什麼意思?我需要做什麼?