取消
顯示的結果
而不是尋找
你的意思是:

concat_ws()拋出AnalysisException時提供太多的列

gzenz
新的貢獻者二世

你好,

我使用scala中的concat_ws dataframe計算校驗和,即:

df。withColumn(用戶“校驗和”,sha2(功能。concat_ws (" ", dataframe.columns.map (col): _ *), 512年)

我這裏有一個例子隻有24列已經拋出以下異常:org.apache.spark.sql。AnalysisException:不能解決concat_ws(”, <列表的列)

任何想法發生了什麼?我假設列表太長了(char明智的),但是我不知道如何做這個工作。

謝謝!

1接受解決方案

接受的解決方案

Hubert_Dudek1
尊敬的貢獻者三世
  • 至少一個列名可以有一些奇怪的字符,空格之類的,
  • 或至少一列類型不兼容(例如StructType)
  • 你可以單獨的代碼兩個或兩個以上的步驟。首先生成列表的列一些變量,比新建連接列比列與沙列。它也更容易調試和更高效的火花,因為它使用懶惰的進化和邏輯/物理和自適應查詢執行計劃。

在原帖子查看解決方案

1回複1

Hubert_Dudek1
尊敬的貢獻者三世
  • 至少一個列名可以有一些奇怪的字符,空格之類的,
  • 或至少一列類型不兼容(例如StructType)
  • 你可以單獨的代碼兩個或兩個以上的步驟。首先生成列表的列一些變量,比新建連接列比列與沙列。它也更容易調試和更高效的火花,因為它使用懶惰的進化和邏輯/物理和自適應查詢執行計劃。
歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map