取消
顯示的結果
而不是尋找
你的意思是:

Pytorch DDP對磚

Marco98
新的貢獻者二世

你好!

我現在嚐試使用Pytorch閃電內部磚,我目前使用的與2 gpu集群。每當我努力訓練我的變壓器模型1 gpu在DP策略,一切工作正常,但是當我試圖同時使用2 gpu DDP策略得到以下錯誤:

MisconfigurationException:“教練(策略= ddp_spawn)”或“教練(加速器= ' ddp_spawn ') '不兼容一個交互式的環境。運行您的代碼腳本,或者選擇一個兼容的策略:教練(策略=沒有| dp | tpu_spawn)。如果你是產卵過程,確保包括職工內部的教練創造功能。

1回複1

Chakra03
新的貢獻者二世

嗨@Marco Capusso,我麵對你能找到一些解決類似的問題。這將是偉大的如果你分享一些細節。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map