取消
顯示的結果
而不是尋找
你的意思是:

DLT模式歧義

馬爾卡
重視貢獻二世

我有模式:

| |——costCentres:結構(可空= true) | | |——dimension1:結構(可空= true) | | | | -名稱:字符串(nullable = true) | | | |——價值:字符串(nullable = true) | | |——dimension10:結構(可空= true) | | | | -名稱:字符串(nullable = true) | | | |——價值:字符串(nullable = true)

當我使用dataframe選擇並保存:

df = df_positions。selectExpr (“positions.costCentres.dimension1。值作為u_kb01”、“positions.costCentres.dimension10。值作為u_kb10”、“positions.costCentres.dimension2。值作為u_kb02”、“positions.costCentres.dimension3。值作為u_kb03”、“positions.costCentres.dimension4。值作為u_kb04”、“positions.costCentres.dimension5。值作為u_kb05”、“positions.costCentres.dimension6。值作為u_kb06”、“positions.costCentres.dimension7。值作為u_kb07”、“positions.costCentres.dimension8。值作為u_kb08”、“positions.costCentres.dimension9。值作為u_kb09”) .distinct ()df.write.saveAsTable("test_costcenters") df.write.save("/temp/test_costcenters")

我得到所需結果,我很高興。

當我在三角洲做同樣的生活表:

def gold_costcenter():返回df_positions。selectExpr (“positions.costCentres.dimension1。值作為u_kb01”、“positions.costCentres.dimension10。值作為u_kb10”、“positions.costCentres.dimension2。值作為u_kb02”、“positions.costCentres.dimension3。值作為u_kb03”、“positions.costCentres.dimension4。值作為u_kb04”、“positions.costCentres.dimension5。值作為u_kb05”、“positions.costCentres.dimension6。值作為u_kb06”、“positions.costCentres.dimension7。值作為u_kb07”、“positions.costCentres.dimension8。值作為u_kb08”、“positions.costCentres.dimension9。值作為u_kb09”) .distinct ()

我得到一個錯誤:

org.apache.spark.sql。AnalysisException:模棱兩可的引用字段StructField(價值,StringType,真的),StructField(價值,StringType,真的),StructField(價值,StringType,真的),StructField(價值,StringType,真的),StructField(價值,StringType,真的),StructField(價值,StringType,真的),StructField(價值,StringType,真的),StructField(價值,StringType,真的),StructField(價值,StringType,真的),StructField(價值,StringType,真的)org.apache.spark.sql.errors.QueryCompilationErrors .ambiguousReferenceToFieldsError美元(QueryCompilationErrors.scala: 1587)

為什麼? ? ?以及如何解決這個問題?

2回答2

PeteC
新的貢獻者三世

我有同樣的問題,但是使用一個SQL Select語句(爆炸)。

PeteC
新的貢獻者三世

一個同事也有同樣的問題。他認為他可能接近於一個解決方案。我將更新如果他找到一個。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map