-
一個開源完整的基于 PyTorch 的 ChatGPT 等效實現(xiàn)流程,涵蓋所有 3 個階段,可以幫助你構建基于預訓練模型的 ChatGPT 式服務。
-
提供了一個迷你演示訓練過程供用戶試玩,它只需要 1.62GB 的 GPU 顯存,并且可能在單個消費級 GPU 上實現(xiàn),單GPU模型容量最多提升10.3 倍。
-
與原始 PyTorch 相比,單機訓練過程最高可提升7.73 倍,單 GPU 推理速度提升 1.42 倍,僅需一行代碼即可調(diào)用。
-
在微調(diào)任務上,同樣僅需一行代碼,就可以在保持足夠高的運行速度的情況下,最多提升單GPU的微調(diào)模型容量3.7 倍。
-
提供多個版本的單 GPU 規(guī)模、單節(jié)點多 GPU 規(guī)模和原始 1750 億參數(shù)規(guī)模。還支持從 Hugging Face 導入 OPT、GPT-3、BLOOM 和許多其他預訓練的大型模型到你的訓練過程中。



from chatgpt.nn import GPTActor, GPTCritic, RewardModel
from chatgpt.trainer import PPOTrainer
from chatgpt.trainer.strategies import ColossalAIStrategy
strategy = ColossalAIStrategy(stage=3, placement_policy='cuda')
with strategy.model_init_context():
actor = GPTActor().cuda()
critic = GPTCritic().cuda()
initial_model = deepcopy(actor).cuda()
reward_model = RewardModel(deepcopy(critic.model)).cuda()
trainer = PPOTrainer(strategy, actor, critic, reward_model, initial_model,...)
trainer.fit(prompts)
審核編輯 :李倩-
gpu
+關注
關注
28文章
4926瀏覽量
130948 -
服務器
+關注
關注
13文章
9757瀏覽量
87587 -
ChatGPT
+關注
關注
29文章
1589瀏覽量
8967
原文標題:開源方案低成本復現(xiàn)ChatGPT流程,僅需1.6GB顯存即可體驗
文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
香蕉派開源社區(qū)與矽昌通信共推BPI-Wifi5 低成本路由器開源方案
低成本藍牙串口模塊解決方案
追求性能提升 使用8GB HBM2顯存
科技大廠競逐AIGC,中國的ChatGPT在哪?
低成本遙控器線路ICHQ1628產(chǎn)品規(guī)格書
堅果Pro 3開啟了促銷活動最高直降500元8GB+128GB版僅需2399元
榮耀V30 PRO在5G網(wǎng)絡環(huán)境下下載一部1.6GB大小的1080P電影僅需2分鐘
華為Mate 20降價促銷 6+128GB版僅需2199元
開源低成本電力監(jiān)控系統(tǒng)

源2.0-M32大模型發(fā)布量化版 運行顯存僅需23GB 性能可媲美LLaMA3

評論