取消
顯示的結果
而不是尋找
你的意思是:

閱讀使用pathos.multiprocessing多個csv文件

Prototype998
新的貢獻者三世

我用PySpark和痛苦讀大量的CSV文件和創建許多DF,但我繼續這個問題。

dbx_error相同的代碼:-

從感傷。多處理進口ProcessingPool

def readCsv(路徑):

返回spark.read.csv(路徑,頭= True)

csv_file_list =[文件[0][5:]dbutils.fs.ls的文件(“/ databricks-datasets / COVID / coronavirusdataset /”)如果文件[1].endswith (. csv)]

池= ProcessingPool (2)

結果=池。地圖(readCsv csv_file_list)

5回複5

Prototype998
新的貢獻者三世

由於@Rishabh Pandey

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map