席卷全球的新風口
OpenAI去年發(fā)布了聊天機器人模型ChatGPT,它能夠理解和生成人類語言,并在許多自然語言處理任務(wù)中表現(xiàn)非常出色。據(jù)統(tǒng)計,上線僅兩個月,ChatGPT活躍用戶已經(jīng)超億,打破了由TikTok創(chuàng)造的9個月實現(xiàn)億級用戶注冊的紀錄,引起了各行各業(yè)人們的強烈關(guān)注。就連埃隆·馬斯克也忍不住發(fā)推表示,ChatGPT厲害得嚇人,我們距離危險而強大的AI不遠了。當然,在一頓痛批ChatGPT之后,馬斯克也準備親自下場,成立研究實驗室,開發(fā)ChatGPT的競品。
類ChatGPT模型的開發(fā)與應(yīng)用,在國內(nèi)也迅速成為資本市場關(guān)注、創(chuàng)業(yè)者紛紛入場的賽道。阿里、百度等互聯(lián)網(wǎng)大廠,科大訊飛等語音類AI企業(yè),以及眾多創(chuàng)業(yè)者都希望乘著最新的風口迅速“起飛”。創(chuàng)業(yè)者大軍中不乏像前美團聯(lián)合創(chuàng)始人王慧文、出門問問CEO李志飛、搜狗前CEO王小川、前京東技術(shù)掌門人周伯文等行業(yè)大佬。開發(fā)出“中國的ChatGPT”儼然成了國內(nèi)科技圈“All in”的方向。
然而,我們真的能迅速見到一個“中國的ChatGPT”嗎?誰又能拔下頭籌,成為這個細分賽道的領(lǐng)頭羊呢?
這個眾多大佬都擠進來“淘金”的賽道,一定不是簡簡單單就能搞定的。
OpenAI的GPT“家族”
在深入了解開發(fā)出比肩ChatGPT的模型需要面臨哪些挑戰(zhàn)之前,讓我們先看下ChatGPT所屬的GPT模型家族都有哪些成員。
GPT-1發(fā)布于2018年6月,包含117M個參數(shù)。這是第一個采用基于Transformer的模型架構(gòu)進行預訓練的模型。它在語言模型和單詞類比任務(wù)上表現(xiàn)出色。
GPT-2發(fā)布于2019年2月,包含1.5B個參數(shù)。這個模型在自然語言生成任務(wù)上表現(xiàn)出色,可以生成高質(zhì)量的文章、新聞報道和詩歌等文本。
GPT-3發(fā)布于2020年6月,包含175B個參數(shù)。具有出色的通用性和創(chuàng)造性,可以在各種 NLP任務(wù)上表現(xiàn)出色,包括文本生成、問答、機器翻譯等任務(wù)。
到這就結(jié)束了?完全不是。
在GPT-3系列模型(注意,是一系列模型哦)發(fā)布之后,OpenAI繼續(xù)基于原始的GPT-3進行了不斷地完善。我們熟知的InstructGPT和ChatGPT實際的內(nèi)部代號是text-davinci-003 175B和text-chat-davinci-002-20221122,是基于GPT-3.5的改良版。
圖:GPT-3模型家族,圖片來源:https://lifearchitect.ai/chatgpt/
在InstructGPT的訓練中,OpenAI的研究員引入了RLHF(Reinforcement Learning from Human Feedback,人類反饋強化學習)機制。這一訓練范式增強了人類對模型輸出結(jié)果的調(diào)節(jié),并且對結(jié)果進行了更具理解性的排序。在此基礎(chǔ)上,ChatGPT還引入了“無害化”機制,防止模型生成不符合規(guī)范或倫理的答案。
圖:GPT-3、InstructGPT、ChatGPT的“進化路線”
圖片來源:https://lifearchitect.ai/chatgpt/
不難看出,ChatGPT的出圈,與OpenAI多年的技術(shù)積累是分不開的。國內(nèi)廠商想要開發(fā)出像ChatGPT一樣優(yōu)秀的模型,也絕不是簡單依靠拉一波投資,雇一批算法研究員就能馬上實現(xiàn)的。
“中國的ChatGPT”面臨的挑戰(zhàn)
首先,在資金投入方面,在當前的技術(shù)水平下,訓練一個與ChatGPT這樣的大型語言模型相當?shù)哪P托枰獢?shù)百萬美元的投入。在發(fā)布ChatGPT之前,OpenAI可查的融資額已超過20億美元,也是如此龐大的投資才使OpenAI擁有了多年技術(shù)積累。反觀絕大多數(shù)近期入局的國內(nèi)企業(yè),即便擁有足夠的資金與人員,也大都很難在短期追上OpenAI的步伐。
我們不禁想問,如果要在國內(nèi)開發(fā)出一個類ChatGPT模型,到底會面臨哪些技術(shù)挑戰(zhàn)呢?
為了能了解到最最準確的答案,我們請教了ChatGPT“本人”
1、數(shù)據(jù)量:需要大量的數(shù)據(jù)集來進行訓練。這些數(shù)據(jù)集需要是大規(guī)模的、多樣化的、真實的,并且要涵蓋各種不同的語言和語境。這需要花費大量的時間和資源來收集、整理和標注。
2、計算能力:需要非常強大的計算資源。這些模型需要在大規(guī)模的數(shù)據(jù)集上進行訓練,并且需要進行大量的參數(shù)優(yōu)化和調(diào)整。這些計算需要高性能的計算機和高效的分布式計算框架。
3、 算法優(yōu)化:需要對算法進行不斷的優(yōu)化和改進。這包括優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)、調(diào)整超參數(shù)、使用更好的優(yōu)化算法等。這需要對深度學習算法有深入的了解和經(jīng)驗。
可以發(fā)現(xiàn),這是一個涉及到多個領(lǐng)域和技術(shù)的復雜系統(tǒng)工程。只有同時在底層的基礎(chǔ)設(shè)施、針對性優(yōu)化和大模型技術(shù)積淀都達到一定水平的情況下,才能夠研發(fā)出高質(zhì)量的模型,并應(yīng)用于各種場景中。
讓我們詳細看看這三類技術(shù)挑戰(zhàn)具體都意味著什么。
數(shù)據(jù)量
我們經(jīng)常聽到“有多少數(shù)據(jù),就有多少智能”,數(shù)據(jù)對于模型訓練的重要性不言而喻。類ChatGPT模型的訓練,更需要超大規(guī)模的,經(jīng)過清洗的數(shù)據(jù)。以GPT-3的訓練為例,需要300B tokens的數(shù)據(jù)。大家如果對這個數(shù)字不敏感的話,可以參考整個英文的維基百科的數(shù)據(jù)量,只有“相對可憐”的3B tokens,是訓練GPT-3所需的百分之一。并且,要訓練出類ChatGPT模型,勢必需要數(shù)倍于當年訓練GPT-3的數(shù)據(jù)量的中文語料數(shù)據(jù),這對于大部分企業(yè)或科研機構(gòu)來說都是難以翻越的大山。有效的中文數(shù)據(jù)量,一定程度上決定了模型性能的上限。
計算能力
類ChatGPT模型的訓練,除了需要非常多的訓練數(shù)據(jù)外,也離不開龐大的算力支撐。根據(jù)北京智源人工智能研究院公布的數(shù)據(jù),使用300B tokens的數(shù)據(jù)訓練175B參數(shù)規(guī)模(與GPT-3規(guī)模相同)的模型,如果使用96臺通過200Gb IB網(wǎng)卡互聯(lián)的DGX-A100節(jié)點,需要約50天。要是使用更大規(guī)模的訓練數(shù)據(jù)集,訓練時長還會進一步增加。
對于計算集群來說,不僅需要能夠提供海量的算力資源,還需要具備高速網(wǎng)絡(luò)和高容量存儲,以便支持大規(guī)模的數(shù)據(jù)訪問和模型傳輸。整套基礎(chǔ)設(shè)施,連同軟件平臺,還需要結(jié)合集群的拓撲結(jié)構(gòu)針對分布式訓練進行優(yōu)化,通過調(diào)整并行策略等方式,提升硬件利用率與通訊效率,縮短整體訓練時間。
算法優(yōu)化
算法優(yōu)化和模型的訓練效率和效果息息相關(guān)。每一個算法研究員,都希望模型在訓練過程中快速收斂,這恰恰也是算法研究人員經(jīng)驗與企業(yè)長年技術(shù)積累的體現(xiàn)。通常情況下,在訓練的過程中需要不斷調(diào)整學習率、批量大小、層數(shù)等超參數(shù),或使用自動調(diào)參的技巧和經(jīng)驗,才能快速、穩(wěn)定的實現(xiàn)模型收斂。就像中餐大廚們用“少許、適量”的調(diào)料制作美味佳肴一樣,里面包含著的是大廚們幾十年的手藝,不是一朝一夕就能被批量復制的。
前途是光明的,道路是曲折的
想必,這是最適合送給現(xiàn)在想要開發(fā)出“中國的ChatGPT”的各路大佬們的一句話了。為規(guī)避未來的技術(shù)風險,不少廠商、科研機構(gòu)也開始探索在自研算力服務(wù)平臺上訓練的可行性。北京智源人工智能研究院作為國內(nèi)頂尖的人工智能領(lǐng)域研究機構(gòu),早早就探索了使用自研算力服務(wù)平臺的可能性。同樣是使用300B tokens的數(shù)據(jù)訓練175B參數(shù)規(guī)模的模型,通過曙光提供的算力服務(wù),訓練周期只需29.10天,在節(jié)點規(guī)模接近的情況下,訓練效率是其他算力平臺的300%。
基于自研算力服務(wù)平臺進行訓練,不可避免的會帶來更多的移植與調(diào)優(yōu)工作。曙光智算強大的硬件與算法優(yōu)化團隊,在集群、并行策略、算子、工具包等方面的優(yōu)化上與智源開展了深入的合作。首先,為保證程序能夠正常運行,需要完成包括DeepSpeed/Megatron/Colossal-AI/apex等必要組件的適配工作。其次,程序系統(tǒng)順利調(diào)度通常也需要調(diào)整調(diào)整操作系統(tǒng)配置及tcp協(xié)議參數(shù)等。訓練的優(yōu)化工作則主要包含以下三個方面:
算子層面:使用算子融合/算子優(yōu)化等技術(shù),深度挖掘硬件性能,提升硬件使用率;
策略層面:采用模型并行、數(shù)據(jù)并行、流水線并行、Zero等多級并行策略,實現(xiàn)超大規(guī)模訓練;
集群層面:針對硬件的拓撲結(jié)構(gòu),對分布式訓練通信、并行分組配比等進行定制優(yōu)化,提升訓練擴展比。
通過一系列的優(yōu)化方法,最終也證明了我們可以在自研算力服務(wù)平臺上,以能夠?qū)藝H水平的效率實現(xiàn)大模型的開發(fā)工作,這無疑為“中國的ChatGPT”的開發(fā)工作喂了一顆定心丸。希望在不久的將來,我們可以看到真正在自研算力平臺上訓練的,能與ChatGPT比肩的中文模型。
前途一定是光明的。
審核編輯 :李倩
-
模型
+關(guān)注
關(guān)注
1文章
3616瀏覽量
51514 -
ChatGPT
+關(guān)注
關(guān)注
30文章
1595瀏覽量
9906
原文標題:“中國的ChatGPT”真的要來了嗎?
文章出處:【微信號:sugoncn,微信公眾號:中科曙光】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
養(yǎng)老機器人要來了?兩部門宣布開展試點

ChatGPT深度融入蘋果Mac軟件生態(tài)
ChatGPT新增實時搜索與高級語音功能
大聯(lián)大推出基于MediaTek Genio 130與ChatGPT的AI語音助理方案
OpenAI推出Windows桌面版ChatGPT應(yīng)用

萬物皆AI 基于聯(lián)發(fā)科科技 MTK Genio 130 結(jié)合 ChatGPT 功能的解決方案
蘋果iOS 18.2公測版發(fā)布,Siri與ChatGPT深度融合
OpenAI推出ChatGPT搜索功能
ChatGPT:怎樣打造智能客服體驗的重要工具?

評論