AnalysisException:列有訂單# 17748是模棱兩可的。它可能是因為你加入幾個數據集在一起,和一些這些數據集是相同的。這一列指向一個數據集,但火花無法找出哪一個。請別名與不同的名稱通過數據集的數據集。“加入他們之前,指定列使用限定名稱,例如:. join (df.as df.as (“a”) (“b”)、“一美元。美元id”>“b.id”)”。你也可以設置spark.sql.analyzer。failAmbiguousSelfJoin假禁用這張支票。
下麵是代碼
reguhjoin = reguhjoin。加入(bseg_4j_c2 reguhjoin。conc2 = = bseg_4j_c2(“連接2”),如何= '左')。選擇(reguhjoin (“*”), bseg_4j_c2[“有PO”))
上麵的代碼工作正常在較低的環境中,我們試圖遷移到珠三角和上麵的錯誤,請建議。
你好,
這個問題的解決方案是非常奇怪的。
這引起了由於磚的版本運行時。
我們使用運行時版本7.0和Apache火花3.0.0版本。
在珠江三角洲,我們使用運行時版本11.3 lts與Apache火花3.3.0版本。
當我們下調了珠江三角洲與Apache火花3.0 7.3版本,問題得到解決。
為什麼加入的基本功能已經改變了從一個版本到另一個地方嗎?
是的這是相同的問題,我有兩次錯誤。
“有PO”存在於bseg_4j_c2 dataframe,我們試圖包括bseg_4j_c2 dataframe成reguhjoin dataframe。