取消
顯示的結果
而不是尋找
你的意思是:

如何使δ表列值區分大小寫?

prasadvaze
價值貢獻

我們有很多三角洲表與字符串列唯一鍵(PK在傳統的關係數據庫)和我們不想插入新行,因為鍵值隻有在情況有所不同。

很多代碼更改使用上/下函數列值比較(upsert邏輯)尋找替代

δ表列上我看到一個檢查約束可以執行一致的價值但是它太遲了,我已經有大小寫混合數據表。

有什麼類似於sql server排序特性?

spark.conf.set (“spark.sql。caseSensitive’, False)並不像預期的那樣工作(即大小寫混合價值之間的字符串比較顯示我有2個不同的字符串)

還抬起頭spark.conf.set (spark.databricks.analyzer。batchResolveRelations”,假)靜脈

我有試過7.3 lts和9.1 lts磚在azure上

1接受解決方案

接受的解決方案

@Kaniz Fatma謝謝Kaniz接觸。許多研究後,我得出的結論是,此功能不可用火花或三角洲湖這是一個新功能要求火花社區。JSON和拚花是區分大小寫的這可能是根本原因。

在原帖子查看解決方案

8回答說8

Kaniz
社區經理
社區經理

你好@prasadvaze!我的名字叫Kaniz,我這裏的技術主持人。很高興認識你,謝謝你的問題!看看你的同行在社區中有一個回答你的問題。否則我將盡快給你回電。謝謝。

@Kaniz Fatma謝謝Kaniz接觸。許多研究後,我得出的結論是,此功能不可用火花或三角洲湖這是一個新功能要求火花社區。JSON和拚花是區分大小寫的這可能是根本原因。

謝謝你的更新。你能你的反應標記為最佳答案嗎?它可能幫助未來的引用。

werners1
尊敬的貢獻者三世

我不記得有排序在火花/三角洲湖。

還數據損壞/損失絕對是一個主要的焦點´磚,所以我不認為有一個簡單的方法解決這個問題。

我要做的是以下幾點:

覆蓋混合情況下的表大寫或小寫,你的選擇。

修複你的當前數據。

你想要插入的數據,您可以創建一個包裝器函數spark.read左右。拚花(或csv或json或任何你攝入)翻譯字符串列大寫。

我們必須做一個類似的問題(修剪所有字符串列)。

或者你可以總是叫上/下函數。

也許你甚至可以把一切上/下而將它複製到存儲。

但這兩種情況下需要工作。

我並´t看到一個快速的解決方案。

離岸金融中心可以將此數據,和下遊總是考慮到數據是大小寫混合。所以當閱讀在這個混合數據,總是在過濾等應用上。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map