你好,
這是一個小代碼片段:
從pyspark。sql進口SparkSession火花= SparkSession.builder.appName (example_app) .getOrCreate()火花。sql(顯示分區database.table),告訴()
Databricks-Notebook內部的輸出:
+ - - - - - - - - - - - - - + - - - - - - - - - - - - - - - - - - - - - - - - - - - - - + | projectNumber | plantId | | +名字- - - - - - - - - - - - - + - - - - - - - - - - - - - - - - - - - - - - - - - - - - - + | xxxx | P0 | * * * .yyyy ............| | yyyy | P2 | * * * .yyyy ............|……
當我運行相同的代碼如上所述在Visual Studio代碼,連接到同一個集群通過Databricks-Connect,我收到這個輸出:
+ - - - - - - - - - - - - | + |分區+ - - - - - - - - - - - - + | xxxx | | yyyy |…
這個輸出錯誤的列名稱和隻顯示第一個分區。
這是奇怪的。一切都是相同的輸出應該是一樣的。
我收到正確的分區通過sql-describe databricks-connect和磚:
火花。sql(描述表database.table),告訴()+ - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - + + | col_name | data_type |評論| + - - - - - - - - - - - - - - - - - - - - - - - - - - - - - + - - - - - - - + #分區| | | | | 0 |一部分projectNumber | | | |第1部分plantId | | | |第2部分名稱| | + - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - + +
表是一個差值表,位於一個azure blob存儲。
我試著刷新表但這沒有區別。
我發現了一個不同Spark-UI SQL選項卡。
有3查詢db-connect運行和4的磚。
物理執行計劃是相同的,但第二個查詢”執行ShowPartitionsDeltaCommand”缺少db-connect來看。
db-connect查詢:
查詢數據磚:
´我不知道為什麼但2分區迷路db-connect查詢。
什麼好主意嗎?