取消
顯示的結果
而不是尋找
你的意思是:

工作階段失敗而終止:1863年任務階段10.0失敗了4次,最近的失敗:在舞台上失去了任務1863.3 10.0 (TID 2021)(10.0.4.7執行人2):org.apache.spark。SparkException: Python工人意外退出(崩潰):致命的Python埃羅

Ancil
因素二世

我得到以下錯誤一些時間運行磚從ADF的筆記本,

如果執行器節點是一個然後它工作正常,如果它增加2個或更多一些相同的數據乘以它的失敗。

集群細節:Standard_F4s_v2·工人:Standard_F4s_v2··11.2 1 - 8工人(包括Apache火花3.3.0,Scala 2.12)

文件“/磚/ python / lib / python3.9 /網站/ Levenshtein / __init__。py”在操作碼,343行

文件“/磚/ python / lib / python3.9 /網站/ fuzzywuzzy /StringMatcher.py”,在get_opcodes線45

文件“/磚/ python / lib / python3.9 /網站/ fuzzywuzzy /StringMatcher.py”,在get_matching_blocks第58行

文件“/磚/ python / lib / python3.9 /網站/ fuzzywuzzy /fuzz.py”,在partial_ratio線47

文件“/磚/ python / lib / python3.9 /網站/ fuzzywuzzy /utils.py”,在裝飾線47

文件“/磚/ python / lib / python3.9 /網站/ fuzzywuzzy /utils.py”,在裝飾線29

文件“/磚/ python / lib / python3.9 /網站/ fuzzywuzzy /utils.py”,38線裝飾

文件“/磚/ python / lib / python3.9 /網站/ my_package / my_function。py”,在scrap_url 30行

文件“/磚/ python / lib / python3.9 /網站/ my_package / my_function。py my_function”, 124行

文件“命令- 1514877556254536 > <”,在my_function第20行

文件“命令- 1514877556254534 > <”,在my_function_01第7行

文件“/磚/ / python / pyspark /火花util.py在包裝器”,84行

文件“/磚/ / python / pyspark /火花worker.py”,130行<λ>

文件“/磚/ / python / pyspark /火花worker.py”,591行映射器

文件“/磚/火花/ python / pyspark / sql /熊貓/serializers.py”,在init_stream_yield_batches 384行

文件“/磚/火花/ python / pyspark / sql /熊貓/serializers.py”,在dump_stream 91行

文件“/磚/火花/ python / pyspark / sql /熊貓/serializers.py”,在dump_stream 391行

文件“/磚/ / python / pyspark /火花worker.py”,885行過程

文件“/磚/ / python / pyspark /火花worker.py”,在主要的第893行

文件“/磚/ / python / pyspark /火花daemon.py在工人”,79行

文件“/磚/ / python / pyspark /火花daemon.py”,204行經理

文件“/磚/ / python / pyspark /火花daemon.py”,229行<模塊>

文件“/ usr / lib / python3.9 /runpy.py”,在_run_code 87行

文件“/ usr / lib / python3.9 /runpy.py”,在_run_module_as_main 197行

請幫我在這。和一個任務是,時間滯後問題嗎?

有時工作,有時不。

如果沒有添加包“Levenshtein”3任務2 h來完成。

8回答說8

Ancil
因素二世

@Kaniz Fatma請幫我

FelixLe
新的貢獻者二世

我的解決方案是更新Python。我更新了python 3.10.9解決我的問題,當我嚐試使用SparkTrial () hpyeropt fmin ()

錯誤:org.apache.spark。SparkException: Python工人意外退出(崩潰)

Vidula_Khanna
主持人
主持人

嗨@Ancil便士

希望一切都好!隻是想檢查如果你能解決你的問題,你會很高興分享解決方案或答案標記為最佳?其他的請讓我們知道如果你需要更多的幫助。

我們很想聽到你的聲音。

謝謝!

沒有解決問題,我將處理數據長度為1,cr那麼它的工作

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map