我到dataframe讀取數據
df = spark.read.json (s3: / / somepath /)
我試著第一次使用DeltaTable API創建一個增量表:
DeltaTable.createIfNotExists(火花)\ .location (target_path) \ .addColumns (df.schema) \ . execute ()
這是我給我一個AnalysisException說無效字符。我應該設置表屬性的delta.columnMapping。模式的“名字”。我試過了:
spark.conf.set (“spark.databricks.delta.defaults.columnMapping.mode”、“名稱”)
這並沒有奏效。我試著使用DataFrame API而不是:
df.write.format .option (“delta.columnMapping(“δ”)。模式”、“名稱”).save (“s3: / / anotherpath”)
但同樣的錯誤消息。錯誤的列名稱深層嵌套的結構體。
對我有一些其他的方法來完成這個三角洲表寫(沒有壓扁和修複坳名稱)?
編輯:我最後遍曆模式和改變問題的列名。