chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

浪潮、英偉達微軟相繼發(fā)布2500億、5300億參數(shù)的巨量模型,超過GPT-3

Carol Li ? 來源:電子發(fā)燒友網(wǎng)整理 ? 作者:李彎彎 ? 2021-10-18 14:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由于模型越來越大,訓練過程中硬件的優(yōu)化變得尤為重要。從2019年下半年開始,各家分別開發(fā)出大規(guī)模并行訓練、模型擴展技術(shù),以期開發(fā)出更大的NLP模型。英偉達Megatron-LM、谷歌T5、微軟Turing-NLG相繼出現(xiàn)。

2020年6月OpenAI在發(fā)布了GPT-3,這是當時訓練的最大模型,具有1750億個參數(shù)。近段時間,浪潮、英偉達與微軟相繼發(fā)布2500億參數(shù)、5300億參數(shù)的巨量模型,超過GPT-3。

中國工程院院士王恩東認為,人工智能的大模型時代已經(jīng)到來,利用先進算法,整合大規(guī)模數(shù)據(jù),匯聚大量算力,訓練出巨量人工智能模型是未來的發(fā)展方向……


英偉達與微軟聯(lián)合發(fā)布了5300億參數(shù)的“威震天-圖靈”

上周,英偉達與微軟聯(lián)合發(fā)布了5300億參數(shù)的“威震天-圖靈”自然語言生成模型(Megatron-TuringNLG)。據(jù)介紹,這樣的量級不僅讓它成為全球規(guī)模最大,同時也是性能最強的NLP模型。


訓練過程一共使用了4480塊英偉達A100 GPU,最終使該模型在一系列自然語言任務(wù)中——包括文本預(yù)測、閱讀理解、常識推理、自然語言推理、詞義消歧——都獲得了前所未有的準確率。

此模型簡稱MT-NLG,是微軟Turing NLG和英偉達Megatron-LM兩者的“繼任者”。Turing NLG由微軟于2020年2月推出,參數(shù)為170億;Megatron-LM來自英偉達,2019年8月推出,參數(shù)83億。它倆在當時分別是第一、二大規(guī)模的Transfomer架構(gòu)模型。

我們都知道大參數(shù)規(guī)模的語言模型效果會更好,但訓練起來也很有挑戰(zhàn)性,比如:即使是最大容量的GPU,也存不下如此規(guī)模的參數(shù);如果不特別注意優(yōu)化算法、軟件和硬件堆棧,那么所需的大量計算操作可能會導致訓練時間過長。

那這個參數(shù)已是GPT-3三倍的MT-NLG又是如何解決的呢?答案就是汲取“兩家”所長,融合英偉達最先進的GPU加速訓練設(shè)備,以及微軟最先進的分布式學習系統(tǒng),來提高訓練速度。并用上千億個token構(gòu)建語料庫,共同開發(fā)訓練方法來優(yōu)化效率和穩(wěn)定性。

具體來說,通過借鑒英偉達Megatron-LM模型的GPU并行處理,以及微軟開源的分布式訓練框架DeepSpeed,創(chuàng)建3D并行系統(tǒng)。對于本文中這個5300億個參數(shù)的模型,每個模型副本跨越280個NVIDIA A100 GPU,節(jié)點內(nèi)采用Megatron-LM的8路張量切片(tensor-slicing),節(jié)點間采用35路管道并行(pipeline parallelism)。

然后再使用DeepSpeed的數(shù)據(jù)并行性進一步擴展到數(shù)千個GPU。最終在基于NVIDIA DGX SuperPOD的Selene超級計算機上完成混合精度訓練。(該超級計算機由560個DGX A100服務(wù)器提供支持,每個DGX A100有8個 NVIDIA A100 80GB Tensor Core GPU,通過NVLink 和 NVSwitch相互完全連接)。

該模型使用了Transformer解碼器的架構(gòu),層數(shù)、hidden dimension和attention head分別為 105、20480和128。訓練所用數(shù)據(jù)集包括近20萬本書的純文本數(shù)據(jù)集Books3、問答網(wǎng)站Stack Exchange、維基百科、學術(shù)資源網(wǎng)站PubMed Abstracts、ArXiv、維基百科、GitHub等等,這些都是從他們先前搭建的Pile數(shù)據(jù)集中挑出的質(zhì)量較高的子集。最終一共提取了2700億個token。

浪潮發(fā)布2500億參數(shù)的中文AI巨量模型“源1.0”

9月28日,浪潮人工智能研究院發(fā)布浪潮發(fā)布了2500億參數(shù)的中文AI巨量模型“源1.0”。

“源1.0”不僅有高達5TB的全球最大中文高質(zhì)量數(shù)據(jù)集,在總計算量和訓練效率優(yōu)化上都是空前的。源1.0幾乎把近5年整個中文互聯(lián)網(wǎng)的浩瀚內(nèi)容全部讀完,在收集并清洗數(shù)據(jù)后,最終獲得5TB高質(zhì)量數(shù)據(jù),成為迄今業(yè)界最大的高質(zhì)量中文數(shù)據(jù)集。

在語言智能方面,源1.0獲得中文語言理解評測基準CLUE榜單零樣本學習和小樣本學習兩類總榜冠軍,獲得小樣本學習的文獻分類、商品分類、文獻摘要識別、名詞代詞關(guān)系等4項任務(wù)冠軍。

“在數(shù)據(jù)量、參數(shù)規(guī)模與模型精度方面,源1.0均居全球之最?!崩顺比斯ぶ悄苎芯吭菏紫芯繂T吳韶華說。對標OpenAI的GPT-3,源1.0參數(shù)規(guī)模為2457億,訓練采用的中文數(shù)據(jù)集達5TB。相比GPT-3模型1750億參數(shù)量和570GB訓練數(shù)據(jù)集,源1.0參數(shù)規(guī)模領(lǐng)先40%,訓練數(shù)據(jù)集規(guī)模領(lǐng)先近10倍。

“得益于我們設(shè)計模型時,對精度和計算性能的協(xié)同。”吳韶華說,“在算法上,我們解決了巨量模型訓練不穩(wěn)定的業(yè)界難題,提出穩(wěn)定訓練巨量模型的算法,打造了巨量模型推理方法創(chuàng)新;在數(shù)據(jù)方面,我們生成了迄今業(yè)界最大的高質(zhì)量中文數(shù)據(jù)集;在算力上,我們通過算法與算力協(xié)同優(yōu)化,極大提升了計算效率,在實現(xiàn)業(yè)界訓練性能第一的同時,還達到了業(yè)界領(lǐng)先的精度?!?br />
巨量模型是未來的發(fā)展方向

“認知智能是人工智能研究者追求的方向之一?!敝袊こ淘涸菏客醵鳀|告訴《中國科學報》,“除了加速深度學習技術(shù),開發(fā)全新的算法范式研究方向外,大規(guī)模數(shù)據(jù)訓練超大參數(shù)量的巨量模型也是未來發(fā)展方向,即利用先進的算法,整合大規(guī)模的數(shù)據(jù),匯聚大量算力,訓練出巨量人工智能模型?!?br />
2020年6月,OpenAI發(fā)布了參數(shù)量高達1750億的大模型GPT-3,該模型一推出就引起人工智能學界和業(yè)界的轟動?!罢Z言模型是全球AI界的‘必爭之地’?!币晃蝗斯ぶ悄苎芯款I(lǐng)域的專家說,“參數(shù)規(guī)模大到遠超我們想象的時候,會發(fā)生一些難以解釋的現(xiàn)象。”

浪潮信息副總裁劉軍同樣認為,生命從簡單進化到復雜,這種智能水平本身就是一種模型。如果把模型比作元宇宙中的生命,大模型的這種綜合系統(tǒng)能力,可能會決定未來數(shù)字世界和智能世界里的智能水平?!叭说纳窠?jīng)元突觸超過100萬億,而現(xiàn)有大模型的參數(shù)量還遠遠不夠,所以我們還有很遠路要走”。

伴隨著人工智能應(yīng)用廣度與深度的不斷提升,眾多行業(yè)、諸多業(yè)務(wù)場景的智能化創(chuàng)新需求日益增多。然而當前大多數(shù)AI模型只能用于某一特定領(lǐng)域,通用性不強,這對AI技術(shù)提出了挑戰(zhàn),也限制了AI的產(chǎn)業(yè)化進程。

大模型在今天初露崢嶸絕非偶然。技術(shù)、算力、資源、需求等多因素的“風云際會”,讓被AI業(yè)界視為“核力量”的大模型嶄露頭角。

電子發(fā)燒友綜合報道,參考自量子位、浪潮服務(wù)器

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6705

    瀏覽量

    106959
  • 浪潮
    +關(guān)注

    關(guān)注

    1

    文章

    475

    瀏覽量

    25201
  • 英偉達
    +關(guān)注

    關(guān)注

    23

    文章

    4014

    瀏覽量

    96775
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    今日看點:蘋果認證中國快充品牌遭美調(diào)查;英偉擬向OpenAI投資最高1000美元

    英偉擬向OpenAI投資最高1000美元 近日,英偉和OpenAI宣布達成合作,包括建設(shè)龐大數(shù)據(jù)中心計劃,以及
    發(fā)表于 09-23 10:09 ?181次閱讀

    英偉2026財年Q1營收公布 一季度營收441美元 英偉Q1凈利潤187.8美元

    英偉的業(yè)績暴漲神話依然在繼續(xù),在5月29日英偉公司發(fā)布了2026財年第一季度財報。財報數(shù)據(jù)顯示,該季度
    的頭像 發(fā)表于 05-29 17:58 ?575次閱讀

    華為助力中國石油發(fā)布3000參數(shù)昆侖大模型

    5月28日,中國石油發(fā)布3000參數(shù)昆侖大模型,標志著中國石油在人工智能領(lǐng)域又邁出關(guān)鍵一步,全力推動“人工智能+”行動走深走實。 ? 中國石油發(fā)布
    的頭像 發(fā)表于 05-29 09:19 ?753次閱讀
    華為助力中國石油<b class='flag-5'>發(fā)布</b>3000<b class='flag-5'>億</b><b class='flag-5'>參數(shù)</b>昆侖大<b class='flag-5'>模型</b>

    特朗普要叫停英偉對華特供版 英偉H20出口限制 或損失55美元

    據(jù)外媒報道,英偉公司發(fā)布了一項通知稱,美國政府于9日告知英偉公司;特供版的H20芯片出口到中國需要許可證,緊接著在14日又告知
    的頭像 發(fā)表于 04-16 16:59 ?1711次閱讀

    英偉市值一夜蒸發(fā)近2萬億 英偉股價下跌超8%

    在美東時間周一,美股三大指數(shù)集體收跌,截至收盤,英偉股價下跌超8%,英偉市值一夜蒸發(fā)2650美元(換算下來約合人民幣19345
    的頭像 發(fā)表于 03-04 10:19 ?860次閱讀

    英偉財報發(fā)布!Q4凈利潤220.91美元

    %。 英偉首席財務(wù)官克萊特·克雷斯披露,2025財年第四季度公司交付了110美元的Blackwell芯片。2025財年英偉營收達到13
    的頭像 發(fā)表于 02-27 15:30 ?704次閱讀

    英偉四季度營收393美元 英偉第四財季凈利潤增80%

    根據(jù)全球AI龍頭英偉公司發(fā)布的截至1月26日的2025財年第四財季營業(yè)數(shù)據(jù)報告顯示;第四財季營收達到393.31美元,較去年同期增長78%,高于分析師事前預(yù)期的380.5
    的頭像 發(fā)表于 02-27 15:18 ?959次閱讀

    英偉一半員工凈資產(chǎn)破

    2500萬美元(換算下來約合1.84元人民幣)的驚人水平。 在AI浪潮席卷全球的大背景下,自2019年以來,英偉公司的股價如同坐上了火
    的頭像 發(fā)表于 01-14 18:15 ?759次閱讀

    微軟大手筆采購英偉AI芯片

    據(jù)全球知名市場調(diào)研機構(gòu)Omdia的最新估計,微軟在2024年的英偉Hopper架構(gòu)芯片采購計劃上展現(xiàn)出了驚人的手筆。這一舉動旨在幫助微軟在構(gòu)建下一代人工智能(AI)系統(tǒng)的激烈競爭中搶
    的頭像 發(fā)表于 12-20 15:50 ?864次閱讀

    中國移動與中國石油發(fā)布700參數(shù)昆侖大模型

    近日,中國移動與中國石油在北京聯(lián)合舉辦了700參數(shù)昆侖大模型建設(shè)成果發(fā)布會,正式推出了這一行業(yè)重量級的大模型。 據(jù)悉,700
    的頭像 發(fā)表于 12-04 11:17 ?1065次閱讀

    Tenstorrent獲7美元融資,貝索斯參投挑戰(zhàn)英偉

    AI芯片初創(chuàng)公司Tenstorrent近日宣布獲得高達7美元的融資,公司估值也隨之攀升至26美元。此次融資旨在挑戰(zhàn)英偉在AI芯片市場的領(lǐng)導地位,推動更加親民和高效的AI解決方案的
    的頭像 發(fā)表于 12-03 11:07 ?1035次閱讀

    NVIDIA Spectrum X如何推動英偉網(wǎng)絡(luò)業(yè)務(wù)實現(xiàn)31美元收入

    ? 英偉數(shù)據(jù)中心收入繼續(xù)擴大 北京時間11月21日凌晨,英偉發(fā)布本季度財報,公司實現(xiàn)營收350.8
    的頭像 發(fā)表于 11-25 11:41 ?1816次閱讀
    NVIDIA Spectrum X如何推動<b class='flag-5'>英偉</b><b class='flag-5'>達</b>網(wǎng)絡(luò)業(yè)務(wù)實現(xiàn)31<b class='flag-5'>億</b>美元收入

    英偉第三季度營收幾乎翻倍 但英偉美股盤后一度跌近5%

    英偉一直備受關(guān)注,在人工智能大浪潮下,英偉股價在2024年已上漲近200%。 英偉
    的頭像 發(fā)表于 11-21 16:33 ?1247次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>第三季度營收幾乎翻倍 但<b class='flag-5'>英偉</b><b class='flag-5'>達</b>美股盤后一度跌近5%

    英偉2024年預(yù)計出貨10個RISC-V內(nèi)核

    近日,據(jù)消息爆料稱,英偉(NVIDIA)在RISC-V峰會上透露了一項令人矚目的計劃:預(yù)計到2024年,英偉將出貨約10個RISC-V
    的頭像 發(fā)表于 10-28 17:15 ?817次閱讀