取消
顯示的結果
而不是尋找
你的意思是:

消費數據從磚(蜂巢metastore)的sql使用pyspark端點

Swostiman
新的貢獻者二世

我想讀一些三角洲磚(蜂巢metastore)的sql數據端點使用pyspark,雖然這樣做後,我遇到的所有表的值取相同列名。

甚至當我試圖展示它給了我錯誤的數據如果列類型不是字符串。

錯誤:

org.apache.spark。SparkException:工作階段失敗而終止:任務0階段13.0失敗了4次,最近的失敗:在舞台上失去了任務0.3 13.0 (TID 34)(10.139.64.4執行人司機):java.sql。(JDBC) SQLDataException(磚):將值轉換為BigDecimal(10140)錯誤。

jdbc_url = " jdbc:磚:/ / XXXX: 443 /違約;運輸方式= http; ssl = 1; httpPath = XXXX;密碼= <拍牌> " table_name =“XXXX”df = spark.read.format (jdbc) \ .option (“url”, jdbc_url) \ .option(“數據表”,table_name) \ .option(“司機”,“com.databricks.client.jdbc.Driver”) \ .load () df.printSchema輸出()> > > > > > > > > > > >根|——描述:字符串(nullable = true) |——卷:雙(nullable = true) df.show () > > > > > > > > > > > > org.apache.spark輸出。SparkException:工作階段失敗而終止:任務0階段0.0失敗了4次,最近的失敗:在舞台上失去了任務0.3 0.0 (TID 3)(10.139.64.4執行人司機):java.sql。(JDBC) SQLDataException(磚):將值轉換為雙(10140)錯誤。df.select(“描述”)。虛假的表演(10日)輸出> > > > > > > > > > > > + - - - - - - - - - - - - + | | +描述- - - - - - - - - - - - | + |描述描述| | | |描述描述| | |描述| | |描述描述| | | |描述描述| | | | +描述- - - - - - - - - - - - +隻顯示前十行

注意:東西保存工作文件,如果我使用“sql。使用“連接”和消費數據指針”。

但在火花JDBC康涅狄格州,我麵臨這個問題。有人能幫我嗎?

5回複5

sucan
新的因素

遇到同樣的問題,降低2.6.22幫助我解決這個問題。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map