chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

海光DCU率先展開文心系列模型的深度技術(shù)合作 FLOPs利用率(MFU)達(dá)47%

A面面觀 ? 2025-07-01 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

海光DCU實現(xiàn)文心4.5模型高效適配; FLOPs利用率突破47%。

2025年6月30日,在百度文心4.5系列大模型正式開源當(dāng)日,海光信息技術(shù)股份有限公司宣布其深度計算單元(DCU)率先完成對該系列模型的深度技術(shù)適配,預(yù)訓(xùn)練模型FLOPs利用率(MFU)達(dá)到47%,在多個文本與多模態(tài)基準(zhǔn)測試中取得SOTA水平。此次合作標(biāo)志著國產(chǎn)算力基礎(chǔ)設(shè)施與大模型技術(shù)的協(xié)同創(chuàng)新進(jìn)入新階段。

技術(shù)突破:異構(gòu)計算架構(gòu)賦能MoE模型高效訓(xùn)練

海光DCU基于GPGPU通用架構(gòu),通過飛槳深度學(xué)習(xí)框架對文心4.5系列模型實現(xiàn)全流程優(yōu)化,涵蓋47B/3B混合專家(MoE)模型及0.3B稠密參數(shù)模型的高效訓(xùn)練、推理與部署。其創(chuàng)新性體現(xiàn)在:

  • 多模態(tài)異構(gòu)計算:針對MoE架構(gòu)設(shè)計動態(tài)負(fù)載均衡策略,顯存帶寬利用率提升30%

  • 混合精度優(yōu)化:采用FP8技術(shù)降低顯存占用,使424B總參數(shù)量模型的訓(xùn)練效率接近國際一線水平

  • 生態(tài)兼容性:依托DTK軟件棧實現(xiàn)與文心模型的無縫對接,適配周期縮短50%

行業(yè)價值:自主可控技術(shù)體系加速AI落地

此次合作驗證了國產(chǎn)DCU在高性能計算領(lǐng)域的三大優(yōu)勢:

  1. 效能領(lǐng)先:47%的MFU利用率較行業(yè)平均水平提升15%以上

  2. 多模態(tài)支持:文心4.5的跨模態(tài)理解能力在DCU平臺上實現(xiàn)無損遷移

  3. 產(chǎn)業(yè)鏈安全:從芯片、框架到模型的完整技術(shù)自主權(quán),為金融、制造等行業(yè)提供可靠算力選擇

海光DCU與文心模型的深度適配,證明了國產(chǎn)算力支撐前沿AI創(chuàng)新的能力。未來將持續(xù)優(yōu)化千億級參數(shù)模型的訓(xùn)練效率,推動中國智能算力生態(tài)建設(shè)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DCU
    DCU
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    3144
  • 海光信息
    +關(guān)注

    關(guān)注

    0

    文章

    28

    瀏覽量

    2672
  • 文心一言
    +關(guān)注

    關(guān)注

    0

    文章

    134

    瀏覽量

    2176
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5189
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    華大九天與信息達(dá)成戰(zhàn)略合作

    12月18日,在HAIC 2025大會期間,華大九天與信息簽署合作協(xié)議,雙方將圍繞EDA技術(shù)與國產(chǎn)算力平臺的協(xié)同應(yīng)用展開探索。
    的頭像 發(fā)表于 12-24 17:10 ?2592次閱讀

    華為發(fā)布AI容器技術(shù)Flex:ai,算力平均利用率提升30%

    決方案。 ? 當(dāng)前,AI產(chǎn)業(yè)正處于高速發(fā)展的黃金時期,海量算力需求如潮水般涌來。然而,算力資源利用率偏低的問題卻成為了產(chǎn)業(yè)發(fā)展的關(guān)鍵桎梏。具體表現(xiàn)為,小模型任務(wù)常常獨(dú)占整卡,導(dǎo)致大量資源閑置;大模型任務(wù)又因單機(jī)算力不足而難以支撐
    的頭像 發(fā)表于 11-26 08:31 ?7606次閱讀

    云天勵飛與前大數(shù)據(jù)公司、勤達(dá)睿達(dá)成戰(zhàn)略合作

    近日,深圳市前大數(shù)據(jù)資源管理中心有限公司、深圳云天勵飛技術(shù)股份有限公司、勤達(dá)睿香港有限公司(Kyndryl)正式簽署戰(zhàn)略合作協(xié)議,圍繞智算基礎(chǔ)設(shè)施與“人工智能+”服務(wù)
    的頭像 發(fā)表于 10-11 14:02 ?566次閱讀

    TDK公司與ASICS亞瑟士展開深度技術(shù)合作

    9月13日,第20屆世界田徑錦標(biāo)賽即將在東京盛大開幕!屆時,來自全球約210個國家和地區(qū)的頂級田徑運(yùn)動員將圍繞49個項目展開激烈角逐。這是自1991年以來,時隔34年再度在東京舉辦的田徑盛會。
    的頭像 發(fā)表于 09-10 14:56 ?874次閱讀

    光電800G模塊助力全球AI基建升級

    利用率,節(jié)省部署成本25%。 值得一提的是,睿光電通過廣泛兼容的設(shè)計能力,僅2024年即推動超過50家客戶完成400G向800G的平滑升級,客戶留存率達(dá)98%。 五、睿光電與您共創(chuàng)
    發(fā)表于 08-13 19:05

    光電領(lǐng)航AI模塊:超快交付與全場景兼容賦能智算時代——以創(chuàng)新實力助力全球客戶構(gòu)建高效算力底座

    。 1.1 技術(shù)突破:全棧自研構(gòu)筑核心壁壘 睿光電依托深圳研發(fā)中心的尖端團(tuán)隊,攻克了芯片、電芯片協(xié)同設(shè)計的難題,率先實現(xiàn)800G DR4/FR4模塊的量產(chǎn)化。以800G FR4
    發(fā)表于 08-13 19:03

    光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G模塊升級

    合作案例,成為AI數(shù)據(jù)中心升級的關(guān)鍵推動者。 一、技術(shù)實力:AI模塊的研發(fā)與量產(chǎn)先鋒 睿光電作為全球AI模塊的領(lǐng)先品牌,專注于為數(shù)據(jù)中
    發(fā)表于 08-13 19:01

    寧暢與與百度心大模型展開深度技術(shù)合作

    與部署。 憑借覆蓋訓(xùn)練、推理、微調(diào)全流程的AI?服務(wù)器產(chǎn)品矩陣,寧暢幫助企業(yè)在大模型時代一鍵打通算力與應(yīng)用“任督二脈”,顯著縮短模型落地周期。 在已啟動的深度技術(shù)合作中,雙方將基于
    的頭像 發(fā)表于 07-07 16:26 ?875次閱讀

    黑芝麻智能與心大模型技術(shù)合作升級

    近日,心大模型正式開源,黑芝麻智能即日起快速啟動與心大模型技術(shù)合作
    的頭像 發(fā)表于 07-04 17:24 ?1332次閱讀
    黑芝麻智能與<b class='flag-5'>文</b>心大<b class='flag-5'>模型</b><b class='flag-5'>技術(shù)合作</b>升級

    龍芯中科與心系列模型開展深度技術(shù)合作

    ”解決方案。 強(qiáng)強(qiáng)聯(lián)合!自主架構(gòu)賦能大模型訓(xùn)練 心大模型 心4.5系列模型均使用飛槳
    的頭像 發(fā)表于 07-02 16:53 ?1353次閱讀

    兆芯率先展開心系列模型深度技術(shù)合作

    6月30日,百度正式開源心大模型4.5系列等10款模型,并實現(xiàn)預(yù)訓(xùn)練權(quán)重和推理代碼的完全開源,兆芯率先
    的頭像 發(fā)表于 07-01 10:49 ?976次閱讀

    索尼成為美國國家冰球聯(lián)盟官方技術(shù)合作伙伴

    近日—— 索尼公司(下稱:索尼)與美國國家冰球聯(lián)盟(NHL)宣布達(dá)成一項新的多年全球技術(shù)合作,索尼正式成為 NHL 的官方技術(shù)合作伙伴。
    的頭像 發(fā)表于 06-19 10:29 ?1231次閱讀

    拼版怎么拼好,板廠經(jīng)常說利用率太低,多收費(fèi)用?

    做板的時候,板廠經(jīng)常說我拼版利用率太低,要多收取費(fèi)用,哪位大神知道怎么算利用率
    發(fā)表于 05-14 13:42

    mes工廠管理系統(tǒng):如何讓設(shè)備利用率提升50%?

    在制造業(yè)競爭日益激烈的今天,設(shè)備利用率直接決定了企業(yè)的盈利能力。許多工廠管理者都在思考同一個問題:如何在不增加設(shè)備投資的情況下,讓現(xiàn)有產(chǎn)能發(fā)揮出最大價值?MES工廠管理系統(tǒng)正是解決這一難題的金鑰匙
    的頭像 發(fā)表于 05-09 15:55 ?815次閱讀
    mes工廠管理系統(tǒng):如何讓設(shè)備<b class='flag-5'>利用率</b>提升50%?

    DeepSeek MoE架構(gòu)下的網(wǎng)絡(luò)負(fù)載如何優(yōu)化?解鎖90%網(wǎng)絡(luò)利用率的關(guān)鍵策略

    、All-to-All等),網(wǎng)絡(luò)面臨高并發(fā)、低延遲、無損傳輸?shù)膰?yán)苛需求。然而,傳統(tǒng)以太網(wǎng)的網(wǎng)絡(luò)利用率長期徘徊在35%~40%,成為制約AI算力釋放的關(guān)鍵瓶頸。
    的頭像 發(fā)表于 04-28 12:04 ?891次閱讀
    DeepSeek MoE架構(gòu)下的網(wǎng)絡(luò)負(fù)載如何優(yōu)化?解鎖90%網(wǎng)絡(luò)<b class='flag-5'>利用率</b>的關(guān)鍵策略