chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

摩爾線程MTT S5000率先完成對GLM-5的適配

摩爾線程 ? 來源:摩爾線程 ? 2026-02-12 10:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2月11日,智譜正式發(fā)布新一代大模型GLM-5。摩爾線程基于SGLang推理框架,在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,Day-0完成了全流程適配與驗(yàn)證。

憑借MUSA架構(gòu)廣泛的算子覆蓋與強(qiáng)大的生態(tài)兼容能力,摩爾線程成功打通了模型推理全鏈路,并深度釋放MTT S5000的原生FP8加速能力,在確保模型精度的同時顯著降低了顯存占用,實(shí)現(xiàn)了GLM-5的高性能推理。此次快速適配,不僅印證了MUSA軟件棧的成熟度,更充分展現(xiàn)了國產(chǎn)全功能GPU對最新大模型即時、高效的支持能力。

GLM-5與MTT S5000的國產(chǎn)雙強(qiáng)聯(lián)合,將為開發(fā)者帶來可對標(biāo)國際頂尖模型的極致編程體驗(yàn)。無論是在函數(shù)補(bǔ)全、漏洞檢測還是Debug場景中,該組合均表現(xiàn)卓越,以顯著增強(qiáng)的邏輯規(guī)劃能力,從容應(yīng)對各類復(fù)雜的長程任務(wù)挑戰(zhàn)。

GLM-5核心特性:

定義Agentic Engineering新高度

作為GLM系列的最新里程碑版本,GLM-5定位為當(dāng)下頂尖的Coding模型,整體性能較上一代提升20%。其核心突破在于Agentic Engineering(代理工程)能力——不僅具備深厚的代碼功底,更擁有處理復(fù)雜系統(tǒng)工程與長程Agent任務(wù)的實(shí)力,能夠?qū)崿F(xiàn)從需求到應(yīng)用的端到端開發(fā)。

41c44388-07ac-11f1-90a1-92fbcf53809c.png

在全球權(quán)威的Artificial Analysis榜單中,GLM-5位居全球第四、開源第一。

4232556c-07ac-11f1-90a1-92fbcf53809c.png

GLM-5在編程能力上實(shí)現(xiàn)了對齊Claude Opus 4.5,在業(yè)內(nèi)公認(rèn)的主流基準(zhǔn)測試中取得開源模型SOTA。在SWE-bench-Verified和Terminal Bench 2.0中分別獲得77.8和56.2的開源模型最高分?jǐn)?shù),性能超過 Gemini 3 Pro。

429e9e3e-07ac-11f1-90a1-92fbcf53809c.png

在內(nèi)部Claude Code評估集合中,GLM-5在前端、后端、長程任務(wù)等編程開發(fā)任務(wù)上顯著超越上一代的GLM-4.7(平均增幅超過20%),能夠以極少的人工干預(yù),自主完成Agentic長程規(guī)劃與執(zhí)行、后端重構(gòu)和深度調(diào)試等系統(tǒng)工程任務(wù),使用體感逼近Opus 4.5。

摩爾線程核心優(yōu)勢:

軟硬協(xié)同的全棧算力底座

MTT S5000是專為大模型訓(xùn)練、推理及高性能計(jì)算而設(shè)計(jì)的全功能GPU智算卡,基于第四代MUSA架構(gòu)“平湖”打造。其單卡AI算力最高可達(dá)1000 TFLOPS,配備80GB顯存,顯存帶寬達(dá)到1.6TB/s,卡間互聯(lián)帶寬為784GB/s,完整支持從FP8到FP64的全精度計(jì)算。

依托MUSA全棧平臺,MTT S5000原生適配PyTorch、Megatron-LM、vLLM及SGLang等主流框架,助力用戶實(shí)現(xiàn)“零成本”代碼遷移。無論是構(gòu)建萬卡級大規(guī)模訓(xùn)練集群,還是部署高并發(fā)、低延遲的在線推理服務(wù),MTT S5000均展現(xiàn)出對標(biāo)國際主流旗艦產(chǎn)品的卓越性能與穩(wěn)定性,旨在為行業(yè)筑牢堅(jiān)實(shí)、易用的國產(chǎn)算力底座。

此次實(shí)現(xiàn)對GLM-5模型的快速支持,正是摩爾線程基于MTT S5000構(gòu)建的軟硬協(xié)同技術(shù)能力的集中體現(xiàn):

▼底層架構(gòu)與生態(tài)兼容:天生適配,極速遷移

針對GLM-5的長序列推理場景,MTT S5000憑借充沛的算力儲備與高計(jì)算密度,結(jié)合對稀疏Attention的架構(gòu)級支持,在大規(guī)模上下文處理中依然保持高吞吐與低延遲。同時,MUSA軟件棧的敏捷性是實(shí)現(xiàn)Day-0適配的關(guān)鍵。基于MUSA架構(gòu)的TileLang原生算子單元測試覆蓋率已超過80%,使得絕大多數(shù)通用算子可直接復(fù)用,顯著降低移植成本,并能快速跟進(jìn)前沿模型結(jié)構(gòu)與新特性演進(jìn)。

▼原生FP8加速:SGLang 框架深度優(yōu)化

基于高性能的SGLang-MUSA推理引擎及MTT S5000的硬件原生FP8計(jì)算單元,摩爾線程實(shí)現(xiàn)了推理效率的躍升。與傳統(tǒng)BF16相比,原生FP8在保持GLM-5卓越的代碼生成與邏輯推理能力(精度無損)的同時,大幅降低了顯存占用,并顯著提升了推理吞吐量,為大規(guī)模部署提供了更高性價比的方案。

▼獨(dú)創(chuàng)ACE引擎:通信計(jì)算并行,釋放極致吞吐

針對大模型分布式推理中的通信痛點(diǎn),MTT S5000利用獨(dú)創(chuàng)的異步通信引擎(ACE),將復(fù)雜的通信任務(wù)從計(jì)算核心中卸載,實(shí)現(xiàn)了物理級的“通信計(jì)算重疊”。這一機(jī)制有效釋放15%的通信被占算力,配合首創(chuàng)的細(xì)粒度重計(jì)算技術(shù)(將開銷降至原有的1/4),全方位提升計(jì)算效率與系統(tǒng)吞吐量。

▼超長上下文支持:專為AI Coding打造

通過高效算子融合及框架極致優(yōu)化,MTT S5000在確保代碼生成質(zhì)量的同時顯著降低了響應(yīng)延遲。無論是處理復(fù)雜的代碼庫分析,還是運(yùn)行長周期的智能體(Agent)任務(wù),均能保持首字延遲(TTFT)低、生成速度快的流暢體驗(yàn)。MTT S5000與GLM-5的軟硬雙強(qiáng)組合,在函數(shù)補(bǔ)全、漏洞檢測等核心場景的表現(xiàn)超越同級,充分釋放模型的規(guī)劃能力和Debug能力,是執(zhí)行長程開發(fā)任務(wù)的理想選擇。

從GLM-4.6、GLM-4.7到GLM-5,摩爾線程已將“發(fā)布即適配”化為常態(tài),這種對主流軟件棧的無縫兼容與敏捷響應(yīng),充分證明了國產(chǎn)全功能GPU及MUSA軟件棧的成熟度與穩(wěn)定性,確保開發(fā)者能第一時間觸達(dá)最新模型能力,從而攜手共建蓬勃發(fā)展的國產(chǎn)AI生態(tài)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3749

    瀏覽量

    52087
  • MUSA
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    2173
  • 摩爾線程
    +關(guān)注

    關(guān)注

    2

    文章

    279

    瀏覽量

    6445

原文標(biāo)題:Day-0支持|摩爾線程MTT S5000率先完成對GLM-5的適配

文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    摩爾線程業(yè)績快報:2025年?duì)I收同比增長243.37%,S5000全棧適配SOTA大模型加速釋放商業(yè)潛能

    S5000實(shí)現(xiàn)規(guī)?;慨a(chǎn),單卡AI稠密算力達(dá)1000 TFLOPS,居行業(yè)前列。 ·生態(tài)加速:率先完成GLM-5、MiniMax M2.5、Kimi K2.5、Qwen3.5等SOT
    發(fā)表于 02-27 19:47 ?96次閱讀

    摩爾線程MTT S5000全面適配Qwen3.5三款新模型

    第一時間做出極速響應(yīng),宣布已在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,完成對這三款全新模型的全方位適配。 ? 此次高效支持充分展示了
    的頭像 發(fā)表于 02-26 16:23 ?287次閱讀

    華為昇騰深度適配智譜AI全新開源模型GLM-5

    ,在真實(shí)編程場景的使用體驗(yàn)逼近Claude Opus 4.5,更擅長復(fù)雜系統(tǒng)工程與長程Agent任務(wù)。昇騰一直同步支持智譜GLM系列模型,此次GLM-5模型一經(jīng)開源發(fā)布,昇騰AI基礎(chǔ)軟硬件即實(shí)現(xiàn)0day適配,為該模型的推理部署和
    的頭像 發(fā)表于 02-25 14:41 ?613次閱讀
    華為昇騰深度<b class='flag-5'>適配</b>智譜AI全新開源模型<b class='flag-5'>GLM-5</b>

    摩爾線程 × 五一視界|共建全棧國產(chǎn)化的物理AI仿真體系

    線程以旗艦級AI訓(xùn)推一體全功能GPU MTT S5000的強(qiáng)勁算力,深度賦能五一視界下一代智駕仿真平臺 SimOne 4.0,雙方已高效完成系統(tǒng)性
    的頭像 發(fā)表于 02-24 10:18 ?495次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b> × 五一視界|共建全棧國產(chǎn)化的物理AI仿真體系

    摩爾線程快速完成對Qwen3.5模型全面適配

    2月17日,摩爾線程宣布已在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000完成對阿里最新大模型Qwen3.5的全方位
    發(fā)表于 02-18 08:32 ?163次閱讀

    Day-0支持|摩爾線程完成MiniMax M2.5模型極速適配

    2月14日,摩爾線程在其旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,成功實(shí)現(xiàn)了對MiniMax新一代大模型MiniMax M2.5的Day-0極速
    發(fā)表于 02-15 08:01 ?618次閱讀

    寒武紀(jì)實(shí)現(xiàn)對GLM-5的Day 0適配

    2026年2月11日,寒武紀(jì)已基于 vLLM 推理框架同步實(shí)現(xiàn)對智譜最新開源旗艦?zāi)P??GLM-5適配。寒武紀(jì)一直高度重視大模型軟件生態(tài)建設(shè),借助于成熟的自研 Neuware 軟件生態(tài)和長期
    的頭像 發(fā)表于 02-12 15:07 ?606次閱讀

    智譜AI正式上線并開源全新一代大模型GLM-5

    逼近Claude Opus 4.5。當(dāng)前,昆侖芯完成Day 0深度推理適配。通過底層算子優(yōu)化與硬件加速能力,GLM-5已在昆侖芯產(chǎn)品上實(shí)現(xiàn)高吞吐、低延遲的穩(wěn)定運(yùn)行。 Day 0適配落地
    的頭像 發(fā)表于 02-12 14:40 ?666次閱讀

    曦云C系列GPU Day 0 適配智譜全新一代大模型GLM-5

    智譜AI正式上線并開源全新一代大模型 GLM-5,沐曦股份實(shí)現(xiàn)?Day 0 深度適配。 GLM-5目前可于曦云 C 系列(C500/C550/C588)上穩(wěn)定高效運(yùn)行。 近期,智譜AI相繼發(fā)布
    的頭像 發(fā)表于 02-12 10:53 ?780次閱讀
    曦云C系列GPU Day 0 <b class='flag-5'>適配</b>智譜全新一代大模型<b class='flag-5'>GLM-5</b>

    Day-0支持|摩爾線程MTT S5000率先完成對GLM-5適配

    2月11日,智譜正式發(fā)布新一代大模型GLM-5。摩爾線程基于SGLang推理框架,在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,D
    發(fā)表于 02-12 09:15 ?478次閱讀
    Day-0支持|<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b><b class='flag-5'>MTT</b> <b class='flag-5'>S5000</b><b class='flag-5'>率先</b><b class='flag-5'>完成對</b><b class='flag-5'>GLM-5</b>的<b class='flag-5'>適配</b>

    全棧國產(chǎn)AI Coding上線:摩爾線程+硅基流動+智譜,強(qiáng)強(qiáng)聯(lián)合!

    摩爾線程今日正式推出AI Coding Plan 智能編程服務(wù)。作為首個基于國產(chǎn)全功能 GPU 算力底座構(gòu)建的智能開發(fā)解決方案,該服務(wù)以 MTT S5000 強(qiáng)勁的全精度計(jì)算能力為核心
    的頭像 發(fā)表于 02-03 17:07 ?1419次閱讀
    全棧國產(chǎn)AI Coding上線:<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>+硅基流動+智譜,強(qiáng)強(qiáng)聯(lián)合!

    摩爾線程正式推出AI Coding Plan智能編程服務(wù)

    摩爾線程今日正式推出 AI Coding Plan 智能編程服務(wù)。作為首個基于國產(chǎn)全功能 GPU 算力底座構(gòu)建的智能開發(fā)解決方案,該服務(wù)以 MTT S5000 強(qiáng)勁的全精度計(jì)算能力為核
    的頭像 發(fā)表于 02-03 16:46 ?1376次閱讀

    華為CANN與智譜GLM端側(cè)模型完成適配

    已于7月28日正式開源其新一代基座模型GLM-4.5,其GLM端側(cè)模型已完成與CANN的適配。這標(biāo)志著國產(chǎn)大模型與計(jì)算架構(gòu)在端云協(xié)同方向?qū)崿F(xiàn)關(guān)鍵突破,國產(chǎn)AI生態(tài)正加速邁入深度融合階段
    的頭像 發(fā)表于 08-11 11:00 ?2557次閱讀

    疑似摩爾線程S90曝光,對標(biāo)RTX4060

    電子發(fā)燒友網(wǎng)綜合報道 近日,摩爾線程新一代圖形顯卡MTT S90疑似被知名自媒體曝光,實(shí)測性能媲美英偉達(dá)RTX4060。據(jù)傳,MTT
    的頭像 發(fā)表于 07-25 10:53 ?3336次閱讀
    疑似<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b><b class='flag-5'>S</b>90曝光,對標(biāo)RTX4060

    摩爾線程MTT X300顯卡全新性能升級

    摩爾線程近日發(fā)布的Linux驅(qū)動程序v3.0.0,為MTT X300專業(yè)顯卡帶來全面的性能提升。此次升級通過軟硬件深度協(xié)同優(yōu)化,顯著提升了GPU渲染性能,使MTT X300在數(shù)字孿生、
    的頭像 發(fā)表于 05-27 18:03 ?2009次閱讀