org.apache.spark。SparkException:工作階段失敗而終止:19日在任務階段26.0失敗了4次,最近的失敗:在舞台上失去了任務19.3 26.0 (TID 4205、10.66.225.154執行人0):com.databricks.sql.io。s3 FileReadException:當閱讀文件時發生錯誤:/ / s3-datascience-prod /紅移/每日/生/ ds / product_information /日期= 2022-02-05 / - 00002部分d81f7a47 - 0421 - 42 - a7 - 9187 f421b0c734b9.c000.snappy.parquet。事務日誌中引用一個文件無法找到。這發生在手動數據從文件係統中刪除表,而不是使用“刪除”聲明。有關更多信息,請參見https://docs.www.eheci.com/delta/delta-intro.html常見問題
我們試圖複製一個文件(δ格式)與已知的好屬性在幾天的壞的屬性。這是我們最初通過S3 CLI但遇到問題上麵的錯誤。我們嚐試然後通過dbutils複製和磚筆記本在同一文件路徑和有同樣的錯誤了。我們如何重置這個狀態,我們不遇到上述錯誤與我們已知的好三角洲文件複製每個日期的日期範圍?