chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

摩爾線程GPU原生FP8計算助力AI訓練

摩爾線程 ? 來源:摩爾線程 ? 2025-03-17 17:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,摩爾線程正式開源MT-MegatronLM與MT-TransformerEngine兩大AI框架。通過深度融合FP8混合訓練策略和高性能算子庫,這兩大框架在國產全功能GPU上實現(xiàn)了高效的混合并行訓練和推理,顯著提升了訓練效率與穩(wěn)定性。摩爾線程是國內率先原生支持FP8計算精度的國產GPU企業(yè),此次開源不僅為AI訓練和推理提供了全新的國產化解決方案,更對推動國產GPU在AI大模型領域的應用具有重要意義。

▼MT-MegatronLM開源地址:

https://github.com/MooreThreads/MT-MegatronLM

▼MT-TransformerEngine開源地址:

https://github.com/MooreThreads/MT-TransformerEngine

框架介紹

MT-MegatronLM是面向全功能GPU的開源混合并行訓練框架,支持dense模型、多模態(tài)模型及MoE(混合專家)模型的高效訓練。該框架利用全功能GPU支持FP8混合精度策略、高性能算子庫muDNN與集合通信庫MCCL,可以顯著提升國產全功能GPU集群的算力利用率。

MT-TransformerEngine主要用于Transformer模型的高效訓練與推理優(yōu)化,通過算子融合、并行加速策略等技術,充分釋放摩爾線程全功能GPU高密度計算的潛力和memory bound算子的效率。

技術突破與優(yōu)勢

兩大框架的技術突破集中體現(xiàn)在硬件適配與算法創(chuàng)新的深度協(xié)同:

▽混合并行訓練:支持Dense、多模態(tài)及MoE模型的混合并行訓練,可靈活應對不同模型架構的復雜運算場景;

▽FP8混合訓練策略:結合摩爾線程GPU原生支持的FP8混合精度訓練策略,能夠有效提升訓練效率;

▽高性能算子庫:通過高性能算子庫muDNN與通信庫MCCL的深度集成,系統(tǒng)性優(yōu)化了計算密集型任務與多卡協(xié)同的通信開銷;同時結合摩爾線程開源Simumax庫,可自動進行并行策略搜索,并針對不同模型和加速環(huán)境spec最大化并行訓練性能;

▽異常訓練處理:框架內置的rewind異常恢復機制,可自動回滾至最近穩(wěn)定節(jié)點繼續(xù)訓練,大幅提升大規(guī)模訓練的穩(wěn)定性;

▽完整的兼容性:兩個框架兼容GPU主流生態(tài),既保障了現(xiàn)有生態(tài)的平滑遷移,也為開發(fā)者構建自有的AI技術棧提供了底層支撐。

▼摩爾線程Simumax開源地址:

https://github.com/MooreThreads/SimuMax

實際應用效果

在實際應用中,這兩個框架的充分結合已經(jīng)取得了顯著的成果。這些成果不僅驗證了框架的技術成熟度,也為國產GPU生態(tài)的規(guī)?;瘧玫於藞詫嵒A。

▽高效訓練:在全功能GPU集群上,Llama3 8B模型的訓練任務,可以利用FP8在loss幾乎無損的情況下MFU達到90%以上;(如下圖所示)

4a65906c-fff3-11ef-9310-92fbcf53809c.png

圖注:利用摩爾線程FP8混合精度加速技術在loss無損的情況下得到28%的加速

▽復現(xiàn)DeepSeek 滿血版訓練:摩爾線程已深度集成并開源對DeepSeek并行算法DualPipe的高效支持,MT-DualPipe可以完整接入MT-Megatron框架和MT-TransformerEngine框架,成功實現(xiàn)DeepSeek V3訓練流程的完整復現(xiàn),支持MLA、MTP及多種專家平衡策略;

▽性能大幅優(yōu)化:通過多種Transformer算子融合技術,顯著提升了內存帶寬利用率,有效緩解memory bound瓶頸,進一步釋放國產GPU的硬件潛力。

持續(xù)優(yōu)化與生態(tài)共建

為加速國產GPU生態(tài)發(fā)展與建設,摩爾線程將持續(xù)優(yōu)化MT-MegatronLM與MT-TransformerEngine框架,并引入一系列創(chuàng)新功能:

▽Dual Pipe/ZeroBubble并行策略:進一步降低氣泡率,提升并行訓練效率;

▽多種FP8優(yōu)化策略:獨創(chuàng)的FP8優(yōu)化策略,提高訓練的性能和穩(wěn)定性;

▽異步checkpoint策略:提高訓練過程中的容錯能力和效率;

▽優(yōu)化后的重計算策略:減少計算和顯存開銷,提高訓練速度;

▽容錯訓練策略:獨創(chuàng)的容錯訓練算法,增強訓練過程中的容錯能力;

▽集成摩爾線程FlashMLA和DeepGemm庫:進一步釋放摩爾線程GPU的算力和FP8計算能力,提升計算性能和效率。

摩爾線程始終致力于推動開源生態(tài)的發(fā)展,通過技術開放與生態(tài)共建,加速國產全功能GPU在AI計算領域的規(guī)?;瘧茫瑸楦嘤脩籼峁└悄?、高效的解決方案。

▼ 關于摩爾線程

摩爾線程成立于2020年10月,以全功能GPU為核心,致力于向全球提供加速計算的基礎設施和一站式解決方案,為各行各業(yè)的數(shù)智化轉型提供強大的AI計算支持。

我們的目標是成為具備國際競爭力的GPU領軍企業(yè),為融合人工智能和數(shù)字孿生的數(shù)智世界打造先進的加速計算平臺。我們的愿景是為美好世界加速。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5149

    瀏覽量

    134732
  • AI
    AI
    +關注

    關注

    91

    文章

    39031

    瀏覽量

    299583
  • 開源
    +關注

    關注

    3

    文章

    4121

    瀏覽量

    45764
  • 摩爾線程
    +關注

    關注

    2

    文章

    270

    瀏覽量

    6297

原文標題:開源MT-MegatronLM和MT-TransformerEngine|摩爾線程GPU原生FP8計算助力AI訓練

文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    算力即國力!摩爾線程架構/芯片/超節(jié)點/萬卡集群四連發(fā),助力打造AI國之重器

    2025)上,摩爾線程創(chuàng)始人、董事長兼CEO張建中表示:“算力即國力,我們希望能夠從芯片到集群,以‘加速計算’的能力,利用全功能GPU打造國之重器。” ?
    的頭像 發(fā)表于 12-23 09:29 ?5197次閱讀
    算力即國力!<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>架構/芯片/超節(jié)點/萬卡集群四連發(fā),<b class='flag-5'>助力</b>打造<b class='flag-5'>AI</b>國之重器

    摩爾線程公布全功能GPU架構路線圖:以“花港”新架構與萬卡訓練集群,開啟自主算力新時代

    2025年12月20日,北京——摩爾線程首屆MUSA開發(fā)者大會(簡稱:MDC 2025)在北京中關村國際創(chuàng)新中心正式開幕。作為國內首個聚焦全功能GPU的開發(fā)者技術盛會,大會系統(tǒng)展示了摩爾
    發(fā)表于 12-20 12:51 ?1050次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>公布全功能<b class='flag-5'>GPU</b>架構路線圖:以“花港”新架構與萬卡<b class='flag-5'>訓練</b>集群,開啟自主算力新時代

    摩爾線程新一代GPU架構即將揭曉

    12月19日至20日,摩爾線程首屆MUSA開發(fā)者大會(MUSA Developer Conference,簡稱MDC 2025)將在北京中關村國際創(chuàng)新中心拉開帷幕。作為國內首個聚焦全功能GPU
    的頭像 發(fā)表于 12-13 15:14 ?1966次閱讀

    摩爾線程亮相GOTC 2025全球開源技術峰會

    。摩爾線程高級副總裁楊上山在主論壇發(fā)表《摩爾線程全功能GPU原生支持開源生態(tài)》的主題演講,系統(tǒng)闡
    的頭像 發(fā)表于 11-04 10:43 ?2077次閱讀

    摩爾線程吳慶詳解 MUSA 軟件棧:以技術創(chuàng)新釋放 KUAE 集群潛能,引領 GPU 計算新高度?

    的分享。GPU 計算軟件開發(fā)總監(jiān)吳慶登上講臺,發(fā)表了題為《摩爾線程 MUSA 軟件棧助力 KUAE 集群釋放無限潛能》的演講。他從專業(yè)視角出
    的頭像 發(fā)表于 07-28 13:47 ?5855次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>吳慶詳解 MUSA 軟件棧:以技術創(chuàng)新釋放 KUAE 集群潛能,引領 <b class='flag-5'>GPU</b> <b class='flag-5'>計算</b>新高度?

    摩爾線程亮相WAIC 2025:以“AI工廠”理念驅動算力進化,全棧AI應用賦能千行百業(yè)

    模型的“超級工廠”。此次參會不僅彰顯了摩爾線程AI基礎設施領域的系統(tǒng)性創(chuàng)新,更通過多行業(yè)案例展現(xiàn)了國產GPU技術的廣泛應用前景。 ? ? 首提“A
    的頭像 發(fā)表于 07-28 11:34 ?1875次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>亮相WAIC 2025:以“<b class='flag-5'>AI</b>工廠”理念驅動算力進化,全棧<b class='flag-5'>AI</b>應用賦能千行百業(yè)

    摩爾線程AI工廠”:五大核心技術支撐,打造大模型訓練超級工廠

    演講中表示,為應對生成式AI爆發(fā)式增長下的大模型訓練效率瓶頸,摩爾線程將通過系統(tǒng)級工程創(chuàng)新,構建新一代AI
    的頭像 發(fā)表于 07-28 11:28 ?4352次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>“<b class='flag-5'>AI</b>工廠”:五大核心技術支撐,打造大模型<b class='flag-5'>訓練</b>超級工廠

    摩爾線程AI工廠”:以系統(tǒng)級創(chuàng)新定義新一代AI基礎設施

    演講中表示,為應對生成式AI爆發(fā)式增長下的大模型訓練效率瓶頸,摩爾線程將通過系統(tǒng)級工程創(chuàng)新,構建新一代AI
    發(fā)表于 07-28 10:34 ?2674次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>“<b class='flag-5'>AI</b>工廠”:以系統(tǒng)級創(chuàng)新定義新一代<b class='flag-5'>AI</b>基礎設施

    摩爾線程AI算力平臺AutoDL達成深度合作

    近日,摩爾線程與國內領先的AI算力平臺AutoDL宣布達成深度合作,雙方聯(lián)合推出面向個人開發(fā)者的“摩爾線程專區(qū)”,首次將國產
    的頭像 發(fā)表于 05-23 16:10 ?1574次閱讀

    摩爾線程發(fā)布Torch-MUSA v2.0.0版本 支持原生FP8和PyTorch 2.5.0

    , 支持原生FP8數(shù)據(jù)類型,支持PyTorch 2.5.0 ,并通過多項針對MUSA計算平臺的性能優(yōu)化,進一步提升了對AI模型和大規(guī)模數(shù)據(jù)處理的支持能力。
    的頭像 發(fā)表于 05-11 16:41 ?1474次閱讀

    摩爾線程GPU成功適配Deepseek-V3-0324大模型

    架構和全功能GPU的強大技術實力,摩爾線程迅速響應并完成了對DeepSeek-V3的無縫升級,實現(xiàn)了零報錯、零兼容性問題的光速部署,充分展現(xiàn)了摩爾
    的頭像 發(fā)表于 03-31 11:34 ?1212次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b><b class='flag-5'>GPU</b>成功適配Deepseek-V3-0324大模型

    摩爾線程發(fā)布云電腦驅動MT vGPU 2.7.0

    3月18日,摩爾線程正式發(fā)布云電腦驅動MT vGPU 2.7.0。新版本在國內首次實現(xiàn)了國產GPU云電腦對DirectX 12的支持,同時顯著提升圖形渲染性能與兼容性。通過全功能GPU
    的頭像 發(fā)表于 03-19 15:56 ?887次閱讀

    摩爾線程全面支持DeepSeek開源周成果

    DeepSeek開源周正式收官,作為國內率先原生支持FP8計算精度的國產GPU企業(yè),摩爾線程迅速
    的頭像 發(fā)表于 03-04 10:06 ?940次閱讀

    摩爾線程完成DeepSeek開源庫FlashMLA和DeepGEMM適配

    自DeepSeek啟動“開源周”以來,已陸續(xù)開源三個代碼庫。摩爾線程基于全新MUSA Compute Capability 3.1計算架構,可提供原生
    的頭像 發(fā)表于 02-27 14:40 ?1335次閱讀

    FP8在大模型訓練中的應用

    越來越多的技術團隊開始使用 FP8 進行大模型訓練,這主要因為 FP8 有很多技術優(yōu)勢。比如在新一代的 GPU 上,FP8 相對于 BF16
    的頭像 發(fā)表于 01-23 09:39 ?2098次閱讀
    <b class='flag-5'>FP8</b>在大模型<b class='flag-5'>訓練</b>中的應用