我們有很多三角洲表與字符串列唯一鍵(PK在傳統的關係數據庫)和我們不想插入新行,因為鍵值隻有在情況有所不同。
很多代碼更改使用上/下函數列值比較(upsert邏輯)尋找替代
δ表列上我看到一個檢查約束可以執行一致的價值但是它太遲了,我已經有大小寫混合數據表。
有什麼類似於sql server排序特性?
spark.conf.set (“spark.sql。caseSensitive’, False)並不像預期的那樣工作(即大小寫混合價值之間的字符串比較顯示我有2個不同的字符串)
還抬起頭spark.conf.set (spark.databricks.analyzer。batchResolveRelations”,假)靜脈
我有試過7.3 lts和9.1 lts磚在azure上
@Jose岡薩雷斯我解列內的值區分大小寫的和不區分大小寫的列的名稱。spark.sql。caseSensitive =真正使列名稱區分大小寫,不列中的值