05-07-202107:24我
05-07-202107:31我
自從SparkContext已經啟動並運行,它需要重新啟動。從技術上講,它可能殺死JVM進程並重啟,但我們不推薦這種方法。在這種情況下,我們建議重新啟動集群,這樣SparkContext拿起新的罐子在啟動時。
從未顯出
加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。
點擊在這裏注冊今天,加入!
參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。