這些文章可以幫助您完成Databricks工作。
27篇文章在這個類別
如果您仍有疑問或希望直接從代理處獲得幫助,請提交申請。我們會盡快回複您的。
請輸入您的請求的詳細信息。我們的支持人員會盡快做出回應。
在並發任務過多的集群上,經常會看到一些任務卡在Spark UI中沒有任何進展。這使得識別哪些是活動作業/階段,哪些是死亡作業/階段變得複雜。當集群上有太多的並發任務時,Spark內部的eventListenerBus…
最後更新:2022年5月10日通過亞當Pavlacka
問題A Databricks筆記本返回如下錯誤:Driver is temporarily unavailable此問題可能是間歇性的,也可能不是。相關的錯誤消息是:與集群失去連接。筆記本可能被拆開了。造成此錯誤的一個常見原因是驅動程序正在經曆內存瓶頸。當這種情況發生時,司機會尖叫…
運行以下命令刪除Databricks工作空間中的所有作業。確定要刪除的作業,並將其列在文本文件中:%sh curl -X GET -u "Bearer: " https:///api/2.0/jobs/list | grep -o -P 'job_id. xml " . xml " grep -o -P 'job_id. xml "{0,6}' | awk -F':' '{print $2}' >> job_id.txt循環執行curl命令刪除identif…
工作區對可以在UI中顯示的作業數量有限製。當前的作業限製是1000個。如果超出了作業限製,則會收到QUOTA_EXCEEDED錯誤消息。'error_code':'QUOTA_EXCEEDED','message':'已達到作業數量的配額。當前配額為1000。此配額僅適用於通過……
問題您正在作業集群上運行一個筆記本,您得到一條錯誤消息,指示輸出太大。筆記本的輸出量太大了。原因:rpc response (of 20975548 bytes) exceeds limit of 20971520 bytes原因:rpc response (of 20975548 bytes) exceeds limit of 20971520 bytes
最後更新:2022年5月10日通過何塞·岡薩雷斯
問題您的Databricks作業報告失敗狀態,但所有Spark作業和任務都已成功完成。你在代碼中顯式地調用了spark.stop()或System.exit(0)。如果調用其中任何一個,Spark上下文將被停止,但與Databricks作業服務的優雅關閉和握手不會發生。解決方案做…
最後更新:2022年5月10日通過harikrishnan.kunhumveettil
問題:Databricks notebook或Jobs API請求返回以下錯誤:error: {"error_code":"INVALID_STATE","message":"There were already created in past 3600 seconds, exceeded rate limit:每3600秒創建1000個job。"產生原因每小時的任務數超過了Da…
問題當你嚐試重新運行Apache火花寫操作被取消當前運行工作,以下錯誤:錯誤:org.apache.spark.sql.AnalysisException:無法創建管理表(“testdb”。testtable”)。關聯的位置('dbfs:/user/hive/warehouse/testdb.db/metastore_cache_ testtable)已經存在;因為……
有時Apache Spark作業會由於Spark用戶定義函數(UDF)的不確定性行為而無限期掛起。下麵是這樣一個函數的例子:%scala val convertorUDF = (commentCol: String) => {#UDF definition} val translateColumn = UDF (convertorUDF)如果你使用withColumn() a…
Spark-submit作業失敗,報錯Failed to parse byte string: -1。java.util.concurrent.ExecutionException: java.lang.NumberFormatException: Size必須指定為bytes(b)、kibibytes (k)、mebibytes (m)、gibibytes (g)、tebibytes (t)或pebibytes(p)。例如50b、100k或250m。解析字節字符串失敗:-1 at java.util. concurrent…
最後更新:2022年5月10日通過noopur.nigam
通過Spark界麵查看集群上的Apache Spark活動作業數量,發現數量過高,不準確。如果重新啟動集群,Spark UI中顯示的作業數量一開始是正確的,但隨著時間的推移,它會異常地增加。產生原因對於大型或長時間運行的集群,Spark UI並不總是準確的。
最後更新:2022年5月11日通過阿施施
Spark任務失敗,錯誤信息為java.lang.IllegalStateException: Connection pool shut down當試圖寫入S3上的Delta表時。產生原因寫入S3的Spark任務被限製為最大同時連接數。java.lang.IllegalStateException:連接池關閉發生在此連接池…
最後更新:2022年5月11日通過noopur.nigam
由於觀察到非典型錯誤錯誤消息,作業運行失敗。Cluster was unreachable during run原因:xxx-xxxxxx-xxxxxxx is throttle due to observing asymmetric errors原因集群上的作業返回給Apache Spark driver節點的大結果太多。結果,司機服務已經用完了。
最後更新:2022年5月11日通過亞當Pavlacka
Spark job failed with maxResultSize exception: org.apache.spark.SparkException: job aborted due to stage failure: Total size of serialized results of XXXX tasks (X.0 GB) is bigger than Spark .driver.maxResultSize (X.0 GB)產生原因超過配置的大小限製。大小限製適用於全部序列化…
問題A Databricks作業失敗,因為作業需要一個尚未安裝的庫,導致導入錯誤。產生原因在安裝所需的庫之前作業已經開始運行。如果您在以下任何一種情況下在集群上運行作業,則集群在安裝庫時可能會遇到延遲:當您啟動…
當您運行涉及在Azure數據湖存儲(ADLS)中創建文件的作業時,無論是Gen1還是Gen2,都會出現以下異常:原因:java.io.IOException: CREATE failed with error 0x83090c25(文件和文件夾正在創建的速率太高)。[745c5836-264e-470c-9c90-c605f1c100f5] failed with error 0x83090c25 (Files and fo…
長時間運行的作業,例如流作業,在使用dbutils.secrets.get() (AWS | Azure | GCP)時,在48小時後失敗。例如:%python streamingInputDF1 = (spark .readStream .format("delta") .table("default.delta_sorce")) def writeIntodelta(batchDF, batchId): table_name = dbutil…
最後更新:2022年5月11日通過manjunath.swamy
當您通過Databricks jobs REST API提交作業時,不能保證具有等冪性。如果客戶端請求超時,客戶端重新提交相同的請求,您可能會運行重複的作業。當你通過jobs API提交作業時,為了確保作業的冪等性,你可以使用一個冪等令牌來為一個特定的…
作業運行指示板是一個筆記本,它顯示有關當前在工作區中運行的所有作業的信息。要配置儀表板,必須具有將筆記本附加到要監視的工作區中的通用集群的權限。如果不存在通用集群,則需要具備創建通用集群的權限。一旦d…
你有一個流作業,它的性能隨著時間的推移而下降。您使用相同的配置和相同的源啟動一個新的流作業,它比現有作業執行得更好。舊檢查點的問題可能導致長時間運行的流作業性能下降。如果工作是斷斷續續的,就會發生這種情況。
你的任務運行速度比預期的慢。您在集群上的Spark UI中查看了階段細節,發現任務反序列化時間很長。產生原因集群安裝的庫(AWS | Azure | GCP)隻在集群啟動時安裝在驅動上。這些庫隻在第一個任務執行時安裝在執行器上。
沒有直接的方法將參數作為字典或列表傳遞給筆記本。您可以通過將列表序列化為JSON文件,然後將其作為一個參數傳遞,來解決這個限製。將JSON文件傳遞給筆記本後,可以使用JSON .loads()解析它。定義參數列表並將其轉換為JSON文件。首先……
最後更新:2022年10月29日通過pallavi.gowdar
當正在進行寫操作時,出現網絡問題(或類似問題)。您正在重新運行作業,但是在失敗的運行期間部分未提交的文件將導致不必要的數據複製。原因分析Databricks提交協議工作原理:DBIO提交協議(AWS | Azure | GCP)是事務性的。文件隻有在轉換後才被提交…
最後更新:2022年11月8日通過gopinath.chandrasekaran
在多任務工作流中使用鍵值參數是一個常見的用例。有多個任務並行運行是正常的,每個任務對於同一個鍵可以有不同的參數值。這些鍵-值參數在代碼中讀取,並由每個任務使用。例如,假設您有四個任務:task1、task2、task3和task…
最後更新:2022年12月5日通過Rajeev kannan Thangaiah
如果您的應用程序包含任何聚合或連接階段,執行將需要一個Spark Shuffle階段。根據所使用的特定配置,如果你在交互式集群上運行多個流查詢,你可能會得到一個shuffle FetchFailedException錯誤。ShuffleMapStage失敗的最大允許次數…
最後更新:2022年12月5日通過shanmugavel.chandrakasu
您正在使用存儲在遠程Git存儲庫(AWS | Azure | GCP)中的筆記本運行作業。具有Can View權限的Databricks用戶(不是工作空間管理員或作業的所有者)不能訪問或查看通過dbutls .notebook.run()從父筆記本提交的臨時作業的結果。當作業可見性控製…
最後更新:2022年12月21日通過ravirahul.padmanabhan
您計劃一個作業(AWS | Azure | GCP)每天運行一次,使用Quartz Cron語法,但該作業試圖在同一天運行多次。產生原因配置作業時,手動輸入cron語法進行調度,並且不小心為seconds值設置了一個特殊字符*。這告訴cron調度程序運行…
最後更新:2023年1月20日通過monica.cao