取消
顯示的結果
而不是尋找
你的意思是:

我在這裏得到這個錯誤當我執行加入兩個數據幀:PythonException:“pyspark.serializers。SerializationError:由回溯(最近的電話最後):將文章完整回溯:

693872年
新的貢獻者二世

我隻是做了加入兩個數據幀和數據幀內容我可以打印。

這是代碼的樣子:-

df_silver =火花。sql(“選擇ds.PropertyID \

ds。*

從dfsilver ds加入dfaddmaster dm \

在ds。單位= dm.unit和ds。街道= dm.street和ds。house_number = dm.house_number”)

org.apache.spark。SparkException:工作階段失敗而終止:Task 4階段7.0失敗了4次,最近的失敗:在舞台上失去了任務4.3 7.0 (TID 1039)(10.2.43.201執行人1):org.apache.spark.api.python。PythonException:“pyspark.serializers。SerializationError:由回溯(最近的電話):

文件“/磚/火花/ python / pyspark /序列化器。在_read_with_length py”, 165行

返回self.loads (obj)

文件“/磚/火花/ python / pyspark /序列化器。py”, 466行,在負載

返回泡菜。負載(obj,編碼=編碼)

文件“/磚/ python / lib / python3.8 /網站/ address_matching / __init__。py”,第5行,在<模塊>

從address_matching。核心進口*

文件“/磚/ python / lib / python3.8 /網站/ address_matching /核心。py”, 49歲,在<模塊>

SparkSession.builder.appName (“AddressMatching”)

文件“/磚/火花/ python / pyspark / sql /會話。在getOrCreate py”, 229行

sc = SparkContext.getOrCreate (sparkConf)

文件“/磚/火花/ python / pyspark /上下文。在getOrCreate py”, 400行

配置或SparkConf SparkContext(參看= ())

文件“/磚/火花/ python / pyspark /上下文。__init__ py”, 147行

自我。_do_init(主瀏覽器名稱、sparkHome pyFiles,環境,batchSize,序列化器,

文件“/磚/火花/ python / pyspark /上下文。在_do_init py”, 210行

自我。_jsc = jsc或self._initialize_context (self._conf._jconf)

文件“/磚/火花/ python / pyspark /上下文。在_initialize_context py”, 337行

返回self._jvm.JavaSparkContext (jconf)

文件“/磚/火花/ python / lib / py4j-0.10.9.1-src.zip / py4j / java_gateway。在__call__ py”, 1568行

return_value = get_return_value (

文件“/磚/火花/ python / lib / py4j-0.10.9.1-src.zip / py4j /協議。在get_return_value py”, 334行

提高Py4JError (

py4j.protocol。Py4JError:稱None.org.apache.spark.api.java.JavaSparkContext時發生一個錯誤。完整回溯如下:

回溯(最近的電話):

文件“/磚/火花/ python / pyspark /序列化器。在_read_with_length py”, 165行

返回self.loads (obj)

文件“/磚/火花/ python / pyspark /序列化器。py”, 466行,在負載

返回泡菜。負載(obj,編碼=編碼)

文件“/磚/ python / lib / python3.8 /網站/ address_matching / __init__。py”,第5行,在<模塊>

從address_matching。核心進口*

文件“/磚/ python / lib / python3.8 /網站/ address_matching /核心。py”, 49歲,在<模塊>

SparkSession.builder.appName (“AddressMatching”)

文件“/磚/火花/ python / pyspark / sql /會話。在getOrCreate py”, 229行

sc = SparkContext.getOrCreate (sparkConf)

文件“/磚/火花/ python / pyspark /上下文。在getOrCreate py”, 400行

配置或SparkConf SparkContext(參看= ())

文件“/磚/火花/ python / pyspark /上下文。__init__ py”, 147行

自我。_do_init(主瀏覽器名稱、sparkHome pyFiles,環境,batchSize,序列化器,

文件“/磚/火花/ python / pyspark /上下文。在_do_init py”, 210行

自我。_jsc = jsc或self._initialize_context (self._conf._jconf)

文件“/磚/火花/ python / pyspark /上下文。在_initialize_context py”, 337行

返回self._jvm.JavaSparkContext (jconf)

文件“/磚/火花/ python / lib / py4j-0.10.9.1-src.zip / py4j / java_gateway。在__call__ py”, 1568行

return_value = get_return_value (

文件“/磚/火花/ python / lib / py4j-0.10.9.1-src.zip / py4j /協議。在get_return_value py”, 334行

提高Py4JError (

py4j.protocol。Py4JError:調用None.org.apache.spark.api.java.JavaSparkContext時發生一個錯誤

5回複5

杜利
價值貢獻

這回答了你的問題嗎?它工作了嗎?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map