取消
顯示的結果
而不是尋找
你的意思是:

PySpark標準輸出和標準錯誤日誌保存到雲存儲對象

sage5616
價值貢獻

我跑步PySpark集群數據管道代碼標準磚。我需要保存所有Python / PySpark標準輸出和標準錯誤消息到一個文件在一個Azure BLOB帳戶。

當我運行Python代碼在本地我可以看到所有的信息包括終端中的錯誤並保存到日誌文件中。如何實現類似的磚和Azure BLOB PySpark數據管道代碼?這個可以做嗎?

4回複4

Hubert_Dudek1
尊敬的貢獻者三世

您可以編寫一個腳本的出口工作輸出是通過REST API並將其保存為BLOB/ JobsRunsExport https://docs.www.eheci.com/dev-tools/api/latest/jobs.html操作

您還可以保存集群日誌dbfs在集群環境中,但是在REST API,你可以得到你需要的東西(如您需要標準輸出)。

Kaniz
社區經理
社區經理

嗨@Michael Okulik,我們一直沒有收到你最後的回應@Hubert杜德克,我檢查,看看他的建議幫助你。否則,如果你有任何解決方案,請與社區分享,因為它可以幫助別人。

同時,請別忘了點擊“選擇最佳”按鈕時提供的信息幫助解決你的問題。

sage5616
價值貢獻

這是我目前采取的方法。這裏記錄:https://stackoverflow.com/questions/62774448/how-to-capture-cells-output-in-databricks-notebook

從IPython.utils。進口CapturedIO捕獲= CapturedIO (sys。stdout, sys.stderr)……#的期望輸出值:cmem = capture.stdout

我寫的內容cmem BLOB變量到一個文件。BLOB DBFS安裝。

要看到一個工作示例支持@Hubert杜德克的REST API方法,他上麵提到的。

dasroya
新的貢獻者二世

這並不適用於磚11.0運行時。

代碼:

IPython.utils.capture進口CapturedIO

進口sys

捕捉= CapturedIO (sys。stdout, sys.stderr)

print (“asdfghjkjhgf”)

cmem = capture.stdout

打印(cmem)

輸出:

asdfghjkjhgf

AttributeError:“OutStream”對象沒有屬性的getvalue

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map