取消
顯示的結果
而不是尋找
你的意思是:

Databricks-connect無效的碎片地址

korilium
新的貢獻者三世

我想用磚內部vscode,因此我需要Databricks-connect

我配置設置使用

databricks-connect配置

如下:

磚主機(https://adb-1409757184094616.16.azuredatabricks.net]

磚牌(<我的令牌>)

集群ID (1220 - 124223 ku6xm034)

Org ID(<我的組織>)

端口[5001]

後@Kaniz Fatma和@Arjun Kaimaparambil Rajan評論下麵是一些其他的相關信息:

  • 磚(集群):運行時版本9.1 LTS毫升
  • python版本在conda(基地)環境:3.8.10
  • 檢查證書的問題

這些是我的火花集群的配置設置我想在vscode運行

spark.databricks.cluster。概要serverless spark.databricks.service。端口8787 spark.sql.legacy。allowNonEmptyLocationInCTAS = true spark.databricks.service.server。真正的spark.databricks.repl啟用。allowedLanguages sql, python, r

當我運行

databricks-connect測試

在我的提示以下錯誤:

錯誤SparkClientManager:未能得到SparkClient java . util . concurrent。ExecutionException: com.databricks.service。SparkServiceConnectionException:無效的碎片地址:“https://adb-1409757184094616.16.azuredatabricks.net/”

加附屬於這個問題。

我試圖改變我的碎片地址

我和數據工程師討論了這個公司,他告訴我,它可能是一個問題私人的端點去年,他們安裝。這可能會阻塞連接遠程電腦與我。誰有什麼想法嗎?

14日回複14

匿名
不適用

@ignace decocq——我注意到你編輯你的原創文章。我不是一個技術的人,所以我不能告訴。你的改變讓最初的回答沒有意義了嗎?如果那樣,我可以添加信息。我保證不會破壞當前的編輯。隻是讓我知道。:slightly_smiling_face:

korilium
新的貢獻者三世

嘿@Piper威爾遜是的,我的確我的帖子進行編輯。我那樣做是為了使問題更健康:如果你的問題是回答一個問題,那麼你的最初的問題是不夠明確。這就是為什麼我編輯這個職位。

我不知道您想要添加,但如果能讓談話更清楚,繼續。

korilium
新的貢獻者三世

嘿,大家,

我重新安裝一切就像在網站上的數據需求。

當我重新安裝它,我得到了一個消息,防火牆阻止某些特性的java 8。

因為這是公司的電腦我不能改變防火牆的設置。但是我去了IT部門和他們殘疾的公司政策保護我的個人電腦。這基本上是一個軟件叫做Cloudfare。一旦這是禁用一切工作正常。

我現在應該解決這個問題在公司內部。

謝謝你的幫助!

Justin09
新的貢獻者二世

以防它幫助任何人,我遇到了這個問題,不得不刪除/從主機名。使用與落後於正常工作/所以一定已經改變了。

laportina
新的貢獻者二世

它幫助,謝謝@Justin奧爾雷德!我們的問題開始的同時你上麵的。否則就不會輕易猜出解決方案。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map