3周之前
我嚐試新的元LLama2模式。
磚後提供筆記本的例子:https://github.com/databricks/databricks-ml-examples/blob/master/llm-models/llamav2/llamav2-13b/01_l..。
我越來越CUDA的內存。我的GPU集群運行時
錯誤信息:
CUDA的記憶。試圖分配314.00 MiB (GPU 0;14.76鑲條總容量;13.50直布羅陀海峽已經分配;313.75 MiB自由;總共13.51鑲條保留PyTorch)如果> >保留內存分配的內存設置max_split_size_mb避免碎片。為內存管理和PYTORCH_CUDA_ALLOC_CONF見文檔
什麼將會是一個好辦法解決這個問題嗎?
兩個星期前
嗨@gary7135,
如果你現在在GitHub一樣。你可能不知如何指出配置工作fp16 = True你的文件,
嗨@Kumaran
希望你是好。隻是想看看你是否能夠找到一個回答你的問題,你想要一個答案標記為最好?它對其他成員也將很有幫助。
幹杯!
從未顯出
加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。
點擊在這裏注冊今天,加入!
參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。