chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

芯片、模型生態(tài)分散,無問芯穹、沐曦、壁仞談國產(chǎn)算力瓶頸破局之道

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-07-07 11:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/李彎彎)近日,2024世界人工智能大會正在舉行,無問芯穹聯(lián)合創(chuàng)始人兼CEO夏立雪在大會論壇上談到一個現(xiàn)象,從GPT-3到GPT-4,無論是算力還是大模型能力都遵循指數(shù)級增長,而GPT-4之后的一段時間里,無論是OpenAI發(fā)布的新模型,還是其他大模型,整體算法能力進入了放緩甚至是停滯的階段。

夏立雪認為,這其中,表面上看是大模型的發(fā)展放緩或者停止了,其實背后的邏輯卻是支撐算法的算力遇到了瓶頸。在他看來,算力是AI發(fā)展的前哨和基石,支撐模型能力邁向下一代的算力系統(tǒng),還需要去研發(fā)和構(gòu)建。

國內(nèi)模型層和芯片層生態(tài)相對分散

為了應(yīng)對大模型對算力的需求,國內(nèi)外巨頭都在加大對算力資源的投入,如國外的微軟、谷歌、Meta、OpenAI,以及國內(nèi)的大廠百度,移動、聯(lián)通、電信三大運營商等都在構(gòu)建萬卡集群,萬卡集群儼然成為了大模型性能提升的兵家必爭之地。

然而相比之下,國外模型層與芯片層生態(tài)相對集中,算法廠商不超過10家,芯片廠商差不多是兩家,英偉達AMD。國內(nèi)生態(tài)則是一個非常分散的狀態(tài),大家都知道,中國百模大戰(zhàn),包括非常多通用的基座大模型,還有很多行業(yè)大模型。芯片層面,除了英偉達和AMD之外,國內(nèi)還有非常多算力芯片廠商去爭相擴展市場。

這些分散的生態(tài),就會面臨很多生態(tài)打通的關(guān)鍵問題。因此,在國內(nèi),雖然大家知道構(gòu)建萬卡集群非常重要。而且據(jù)統(tǒng)計,現(xiàn)在國內(nèi)已經(jīng)有一百多個建設(shè)方宣布正在建設(shè)或者已經(jīng)建設(shè)了千卡集群,這里面大部分采用的是異構(gòu)算力,原因之一是國內(nèi)的生態(tài)非常分散,另外是在供應(yīng)方面,需要非常多不同的卡來滿足集群性能需求。

夏立雪談到,這些異構(gòu)的芯片之間,存在一種“生態(tài)豎井”,即硬件生態(tài)系統(tǒng)封閉且互不兼容。用了A卡的開發(fā)者,無法輕易遷移至B卡上展開工作,也難以同時使用A卡和B卡完成大模型訓練或推理。

這導致,如果一個算力集群中存在兩種或以上的芯片,算力使用方會面臨一系列技術(shù)挑戰(zhàn),比如不同硬件平臺適配不同的軟件棧和工具鏈,而某些任務(wù)更容易在特定類型的芯片上運行,開發(fā)者若要在異構(gòu)芯片上從事生產(chǎn),就需要為每種芯片定制和優(yōu)化代碼,這大大增加了開發(fā)和維護的復雜性。這也使得多種算力芯片被投入各地集群從事AI生產(chǎn),而“生態(tài)豎井”的存在,讓“多芯片”并不等于“大算力”。

無問芯穹提出了異構(gòu)千卡混訓解決方案。異構(gòu)芯片間的混訓主要面臨兩大挑戰(zhàn),一是異構(gòu)卡通信庫差異,導致異構(gòu)卡之間通信難;二是異構(gòu)卡之間性能差異,導致模型分布式訓練低效。

為此,無問芯穹建立了一個通用集合通信庫,實現(xiàn)不同芯片的高效通信;然后提出了一種基于流水線并行的非均勻拆分方案,以解決不同種芯片負載均衡的問題;最后提出了一個自研的混訓性能預測工具,用于判斷最優(yōu)的非均勻拆分策略,指導千卡異構(gòu)集群訓練。從實際千卡混合訓練效果可見,無問芯穹千卡異構(gòu)混合訓練集群算力利用率最高達到了97.6%。

沐曦、壁仞談“算力瓶頸破局之術(shù)”

在某個論壇“算力瓶頸破局之術(shù)”的圓桌討論環(huán)節(jié),沐曦聯(lián)合創(chuàng)始人兼軟件CTO楊建分別從算法層面和芯片層面談到解決之道。首先是算法層面,硅基的算力三年只能提升三倍,而大模型對算力的需求則要求吞吐量三年提升750倍。在楊建看來,這用硬件的方法無論如何也達不到,單從芯片層面無法解決這個問題。

他認為,今天大家追捧的Transfomer算法可能是錯的,即使大家也在Transfomer軟件上進行一些創(chuàng)新,其實作用并不大。我們還是需要從基本的算法層面出發(fā),思考怎么從算法上進行改變,才能讓算法在三年內(nèi)推理效率提高750倍。大模型已經(jīng)進入一個新的時代,Transfomer的時代已經(jīng)結(jié)束了,大家需要思考的是怎么突破Transfomer的限制。

接著看從芯片層面的破局,楊建認為,這很難。他認為,我們與美國算力差距會在2029年達到最大。首先,我們與英偉達存在工藝上的差距。其次,我們無法進口最先進的芯片,在2029年的時候,中國芯片仍然還是會落后英偉達。據(jù)他推算,到2029年,中國的算力綜合,可能不到美國的四分之一。

其實,在2022年之前,我們與美國的算力基本上是一比一,2023年開始急劇下降,可以看到,美國很多企業(yè)部署集群都是一萬張卡以上,國內(nèi)到五千張卡已經(jīng)非常了不起了。因此,我們與美國算力的差距,從2023年開始逐步擴大,到2029年會到達一個高峰值,原因是,美國對算力需求的總量到那時候再往上添加意義不大了。

但國內(nèi)單芯片的算力到那時候還是沒有辦法去趕上美國,因此在楊建看來,當沒有辦法從這個層面去破局的時候,我們需要跳出原來的圈子。

怎么做呢?他談到,英偉達B200其實給出了一個很好的例子,一直以來AMD在chiplet上都非常領(lǐng)先,它無論是CPU還是GPU都要做chiplet。然而英偉達在B200上又做了一個新的chiplet,它把中間的傳輸性一下子提升到了10TB per second,這是一個全新的架構(gòu),AMD完全沒有往這個方向走。

中國在chiplet方向其實已經(jīng)走得很遠,不僅有chiplet封裝,還有Die to Die封裝,還有wafer to wafer的封裝,中國的芯片公司如果想要在硬件上提升,其實可以利用先進封裝這個優(yōu)勢,去思考如何提高提高單芯片的性能。

此外,除了提升單芯片性能之外,還可以去思考怎么從系統(tǒng)級做優(yōu)化,以前基本上是一個CPU帶8張卡,現(xiàn)在可以思考是不是能夠一個CPU帶16張卡、32張卡。單芯片算力不夠,是不是能通過系統(tǒng)級互聯(lián)結(jié)構(gòu),在互聯(lián)上進行一些加速,從而達到更好的性能。數(shù)據(jù)傳輸在算力上是一個非常重要的方面,可以探索好的壓縮算法技術(shù),通過壓縮數(shù)據(jù)本身,而不改變推理和訓練的精度,來提升效率。

壁仞科技副總裁兼AI軟件首席架構(gòu)師丁云帆從三個維度談到算力瓶頸的破局之法。大模型的訓練是一個系統(tǒng)工程,它需要軟件和硬件結(jié)合起來,同時也需要算法和工程協(xié)同,在這樣一個復雜的系統(tǒng)里,它面臨非常多的挑戰(zhàn)。

丁云帆提到三個點,一是硬件算力,二是軟硬結(jié)合之后的有效算力,三是異構(gòu)混訓的聚合算力。硬件算力,即單卡的算力乘以卡的個數(shù),單卡的算力可能因為制程等原因,它能做到的上限有限,不過單卡本身微架構(gòu)層面仍談有創(chuàng)新的空間。比如,壁仞在第一代產(chǎn)品里用了chiplet架構(gòu),這就是用chiplet的當時提升從單卡層面提升算力。

單卡之外,還有單機,傳統(tǒng)基本上是單機8卡,現(xiàn)在可以通過一些方式做到單機16卡,把單機性能提升上去。單機之外,現(xiàn)在還可以看到有很多千卡集群、萬卡集群,通過更大規(guī)模的集群去提升算力,這個時候網(wǎng)絡(luò)對基礎(chǔ)設(shè)施的要求會非常高。

有了超大集群之后,最終軟件是不是能夠把集群的算力發(fā)揮出來,這就談到了軟硬件結(jié)合的有效算力,丁云帆將這個效率總結(jié)了三個點:首先是,集群的調(diào)度效率怎么樣,比如說,有一萬張卡,調(diào)度效率不好,相當于可能在用的只有九千張;其次是能不能夠用好它,也就能不能夠通過算法功能的協(xié)同,訓練把算法的性能優(yōu)化上去,尤其是大規(guī)模參數(shù)的大模型,在超大集群里,如何去做模型拆分、做各種并行策略,真正把集群的算力發(fā)揮出來;

其三大規(guī)模集群還有一個穩(wěn)定問題,無論是采用英偉達還是國產(chǎn)的算力芯片,都會存在這個問題,大規(guī)模集群的故障率非常高,可能分配有10個小時,卻只能用到8個小時。這需要對故障的檢測能夠自動定位出來,出了故障之后,能夠更快速的恢復它。

聚合算力,現(xiàn)在可以看到建了很多千卡集群、萬卡集群,可能有些集群用的同一種英偉達的卡,它也可能是很多小的池子,現(xiàn)在隨著更多國產(chǎn)GPU的落地,這又會出現(xiàn)新的池子。對于用戶來說,這么多小池子,是不是能夠聚合起來去訓一個大的模型。那么這個在互聯(lián)互通層面,首先要通,其次通行的效率怎么樣,肯定會有通行快慢的問題,這種異構(gòu)的并行的拆分策略就非常關(guān)鍵。

總結(jié)來說,就是硬件算力、軟硬件結(jié)合的有效算力、聚合算力,我們從這三個維度都把相關(guān)的工作做好,即使是國產(chǎn)單個芯片看上去不夠強,我們通過這樣的方式也能夠把國產(chǎn)算力提升到滿足大模型訓練的需求。

寫在最后

隨著大模型的發(fā)展,其性能提升放緩甚至停滯,而這背后則是支撐算法的算力遇到瓶頸。國內(nèi)外都在加大千卡、萬卡集群的建設(shè)來提升算力,然而這其中仍然存在問題,在國內(nèi)芯片生態(tài)分散,集群使用多種芯片,異構(gòu)芯片之間的混訓存在挑戰(zhàn)。同時相對于國外,國產(chǎn)單芯片存在落差,如何通過本身優(yōu)勢,如chiplet,來提升單機、集群的算力,如何通過軟硬件結(jié)合提升算法訓練效率等,都是可以思考突破算力瓶頸的方向。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38106

    瀏覽量

    296642
  • 算力芯片
    +關(guān)注

    關(guān)注

    0

    文章

    56

    瀏覽量

    5059
  • AI算力
    +關(guān)注

    關(guān)注

    0

    文章

    122

    瀏覽量

    9740
  • 壁仞科技
    +關(guān)注

    關(guān)注

    1

    文章

    72

    瀏覽量

    3561
  • 沐曦
    +關(guān)注

    關(guān)注

    0

    文章

    54

    瀏覽量

    1654
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    首款全國產(chǎn)通用GPU芯片發(fā)布 集成推出云C600

    ,并支持MetaXLink超節(jié)點擴展技術(shù),在硬件性能和軟件兼容上完全滿足下一代生成式AI的訓練和推理需求。 而且,股份與中國科學院合作的國產(chǎn)千卡集群,已完成多個大模型全參數(shù)訓練,證
    的頭像 發(fā)表于 10-19 20:04 ?4.5w次閱讀

    商湯大裝置Mall重磅發(fā)布

    近日,商湯科技聯(lián)合華為、庫帕思、海光、寒武紀、望Sunrise、科技、麒麟軟件、摩爾線程等十余家國產(chǎn)生態(tài)伙伴,共同發(fā)布“商湯大裝置
    的頭像 發(fā)表于 08-05 10:05 ?806次閱讀

    科技聯(lián)合三方打造國產(chǎn)集群落地

    近日,由浙江聯(lián)通、科技、中興通訊、優(yōu)云科技四方聯(lián)合打造的國產(chǎn)集群,在浙江烏鎮(zhèn)智中心正式
    的頭像 發(fā)表于 08-01 15:26 ?1153次閱讀

    全鏈路方案亮相WAIC 2025

    解決方案及首發(fā)新品參展,通過硬件生態(tài)全景展示、軟硬協(xié)同技術(shù)解析及多行業(yè)標桿案例,系統(tǒng)呈現(xiàn)中國產(chǎn)業(yè)從底層技術(shù)到場景落地的全鏈條突破。
    的頭像 發(fā)表于 08-01 11:58 ?7843次閱讀

    亮相2025世界人工智能大會

    近日,2025世界人工智能大會(WAIC)核心分論壇在上海世博中心盛大啟幕。集成電路(上海)股份有限公司(以下簡稱“”)以“
    的頭像 發(fā)表于 07-28 18:08 ?4468次閱讀

    硅基流動攜手首發(fā)基于云的Kimi K2推理服務(wù)

    天網(wǎng)絡(luò)”)運營的云C550 三千卡通用 GPU 國產(chǎn)集群。此次合作標志著硅基流動正式將該國產(chǎn)集群納入
    的頭像 發(fā)表于 07-23 17:33 ?1561次閱讀

    專家對話:新思科技× AI與EDA的雙向賦能,重構(gòu)芯片設(shè)計,瓶頸

    2025年5月23日,新思科技直播間邀請到清華大學電子工程系博士、博士后曾書霖(001號員工)、
    的頭像 發(fā)表于 06-03 14:35 ?1144次閱讀

    科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,科技宣布完成旗艦版Qwen3-235B-A22B模型的訓練適配和優(yōu)化。由此,
    的頭像 發(fā)表于 05-16 16:23 ?780次閱讀

    PaddleScience完成與AI芯片適配

    當前,PaddleScience已與展開深度合作,涵蓋智能仿真、高性能計算、科學建模等多個方向。這一趨勢正加速形成面向"Al for Science"的國產(chǎn)
    的頭像 發(fā)表于 05-06 14:49 ?1342次閱讀

    科技推出阿里QWQ-32B大模型一體機

    能力等關(guān)鍵測試中展現(xiàn)出卓越性能。 作為國產(chǎn)AI重要推動力量,科技不斷測試與更新適配最先進大模型
    的頭像 發(fā)表于 03-10 09:05 ?1631次閱讀
    <b class='flag-5'>壁</b><b class='flag-5'>仞</b>科技推出阿里QWQ-32B大<b class='flag-5'>模型</b>一體機

    實現(xiàn)七家國產(chǎn)芯片DeepSeek適配

    近日,宣布了一個重大進展:其DeepSeek-R1、V3系列模型已成功適配并優(yōu)化至
    的頭像 發(fā)表于 02-13 16:04 ?1215次閱讀

    Gitee AI 聯(lián)合首發(fā)全套 DeepSeek R1 千蒸餾模型,全免費體驗!

    模型相比,較小尺寸的 DeepSeek 蒸餾版本模型 更適合企業(yè)內(nèi)部實施部署,可以極大的降低落地成本 。 同時,這次 Deepseek R1 模型 +
    的頭像 發(fā)表于 02-10 09:56 ?1099次閱讀
    Gitee AI 聯(lián)合<b class='flag-5'>沐</b><b class='flag-5'>曦</b>首發(fā)全套 DeepSeek R1 千<b class='flag-5'>問</b>蒸餾<b class='flag-5'>模型</b>,全免費體驗!

    科技順利部署DeepSeek R1千蒸餾模型

    DeepSeek 的國內(nèi)支持隊伍進一步壯大:來自上海的科技順利部署DeepSeek-R1-Distill千蒸餾
    的頭像 發(fā)表于 02-08 16:56 ?2248次閱讀

    天數(shù)智合作突破千卡集群訓練優(yōu)化

    近日,天數(shù)智宣布達成深度合作,并在千卡集群訓練優(yōu)化領(lǐng)域取得了重大技術(shù)突破。這一合作基于天數(shù)智
    的頭像 發(fā)表于 01-21 14:31 ?1356次閱讀

    國產(chǎn)集群黑馬!源一號SADA集群綜合評測表現(xiàn)優(yōu)異

    近日,加佳科技源一號SADA集群項目一期順利通過工信部中國軟件評測中心權(quán)威評測認證。本次測試涵蓋了項目一期已上線的1024張高性能
    的頭像 發(fā)表于 12-25 11:16 ?1186次閱讀
    <b class='flag-5'>國產(chǎn)</b>智<b class='flag-5'>算</b>集群黑馬!<b class='flag-5'>曦</b>源一號SADA<b class='flag-5'>算</b><b class='flag-5'>力</b>集群綜合評測表現(xiàn)優(yōu)異