chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SC11 FP300 MLA算子融合與優(yōu)化

算能開發(fā)者社區(qū) ? 2025-06-27 14:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

DeepSeekV3的attention模塊采用了MLA(Multi-head Latent Attention,多頭潛注意力)結(jié)構(gòu),通過對(duì)attention過程中的Key和Value進(jìn)行低秩聯(lián)合壓縮,降低推理過程中需要的KV cache,提升推理效率。MLA對(duì)attention過程中的Query也進(jìn)行了低秩壓縮,可以減少訓(xùn)練過程中激活的內(nèi)存。

大模型的推理分為兩階段,處理所有輸入prompt并產(chǎn)生首個(gè)token的過程稱為prefill,此后至產(chǎn)生所有token結(jié)束推理的過程稱為decode,本文的MLA算子融合及優(yōu)化特指decode過程。

MLA的計(jì)算過程比較復(fù)雜,包括下投影、上投影、attention和輸出投影,為了減少數(shù)據(jù)搬運(yùn)和任務(wù)調(diào)度帶來的時(shí)間開銷,提升芯片效率,我們?cè)赟C11上,將上投影和attention過程融合成MLA大算子,如圖1所示。DeepSeekV3提供了兩種計(jì)算模式:na?ve和absorb,我們采用計(jì)算量更少的absorb方式實(shí)現(xiàn)MLA decode過程,步驟如下:

78750016-5320-11f0-986f-92fbcf53809c.png

788afe16-5320-11f0-986f-92fbcf53809c.png圖1-SC11 MLA decode融合算子示意圖

常用的attention并行部署方案有兩種,TP(Tensor Parallel,張量并行)和DP(Data parallel,數(shù)據(jù)并行)。TP將權(quán)重切分到多顆芯片,每顆芯片會(huì)重復(fù)加載KV cache。DP將數(shù)據(jù)按batch分配到多顆芯片,每顆芯片處理不同batch的數(shù)據(jù),但會(huì)重復(fù)加載權(quán)重。實(shí)際應(yīng)用過程中,可以根據(jù)權(quán)重和緩存的大小選擇并行部署方案,權(quán)重和緩存大小如表1所示。

表1 權(quán)重與緩存數(shù)據(jù)大小

789c0530-5320-11f0-986f-92fbcf53809c.png

#seqlen指所有batch數(shù)據(jù)序列長度總和。

在SC11部署DeepSeekV3模型時(shí),由于應(yīng)用場景中的權(quán)重?cái)?shù)據(jù)多于KV cache數(shù)據(jù),所以MLA階段采用TP方案進(jìn)行部署,即將Query、Key和Value的上投影權(quán)重矩陣按head切分,部署到四張SC11。DeepSeekV3的參數(shù)中,上投影權(quán)重有128頭,因此每張板卡處理32頭。每顆芯片有多個(gè)核,上投影權(quán)重會(huì)繼續(xù)按head切分到多核。由于低秩的KV cache不包含head維度,無法對(duì)KV cache進(jìn)行TP,為了充分利用多核優(yōu)勢(shì),我們對(duì)MLA的實(shí)現(xiàn)方式進(jìn)行了探索,優(yōu)化了不同batch數(shù)目和序列長度下的實(shí)現(xiàn)方案,如表2所示。

表2 MLA decode多核實(shí)現(xiàn)方案

78ad1bb8-5320-11f0-986f-92fbcf53809c.png

除了算子融合與動(dòng)態(tài)調(diào)用優(yōu)化后的實(shí)現(xiàn)方案,MLA的實(shí)現(xiàn)過程也采用了業(yè)界常用的Flash Attention和Page Attention等優(yōu)化方法,進(jìn)一步減少數(shù)據(jù)搬運(yùn)和內(nèi)存占用。在Page Attention過程中,我們采用兩塊buffer優(yōu)化KV cache搬運(yùn),使得數(shù)據(jù)搬運(yùn)和MLA計(jì)算同步進(jìn)行,優(yōu)化過程如圖2所示。圖中SDMA代表負(fù)責(zé)DDR和L2 SRAM之間或內(nèi)部的數(shù)據(jù)搬運(yùn)模塊,GDMA代表負(fù)責(zé)任意內(nèi)存之間數(shù)據(jù)搬運(yùn)的模塊,BDC代表負(fù)責(zé)數(shù)據(jù)計(jì)算的單元。

在時(shí)刻T0同時(shí)進(jìn)行兩個(gè)操作:

SDMA將batch 0以page方式存儲(chǔ)的KV cache從DDR搬到L2 SRAM中的Buffer0,形成連續(xù)存儲(chǔ)的緩存數(shù)據(jù);

GDMA將上投影權(quán)重從DDR搬到芯片的片上內(nèi)存(local memory)。

在時(shí)刻T1同時(shí)進(jìn)行三個(gè)操作:

SDMA將batch 1以page方式存儲(chǔ)的KV cache從DDR搬到L2 SRAM中的Buffer1,形成連續(xù)存儲(chǔ)的緩存數(shù)據(jù);

GDMA將Buffer0中連續(xù)存儲(chǔ)的batch 0的KV cache數(shù)據(jù)從L2 SRAM搬到localmemory;

BDC對(duì)batch 0進(jìn)行MLA計(jì)算。

時(shí)刻T2和T3的操作可依此類推。測(cè)試數(shù)據(jù)表明,在128 batch 512序列的decode過程,使用雙buffer優(yōu)化page attention實(shí)現(xiàn)過程后,可以節(jié)省30%的推理時(shí)間。

78b6566a-5320-11f0-986f-92fbcf53809c.png圖2-雙buffer優(yōu)化Page Attention實(shí)現(xiàn)過程

經(jīng)過融合與優(yōu)化后的MLA,助力了DeepSeekV3全流程的性能,當(dāng)模型處理128 batch數(shù)據(jù),每batch輸入序列長度為128,輸出序列長度為1024時(shí),DeepSeekV3全流程在4卡SC11上能達(dá)到532 token/s。

作者:周文婧,陳學(xué)儒,溫舉發(fā)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38148

    瀏覽量

    296752
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49745

    瀏覽量

    261590
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3446

    瀏覽量

    4970
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)可(11大系列課程,共5000+分鐘)

    。課程重點(diǎn)覆蓋8.6M超輕量PaddleOCR模型(第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化
    發(fā)表于 12-03 13:50

    遠(yuǎn)翔的FP6291的G11和G12,到底有什么區(qū)別?

    分檔≠分級(jí)、分檔 =精篩選 “要理解分檔,核心在于一個(gè)參數(shù)——“輸入限流值”。 遠(yuǎn)翔的FP6291具有輸入限流功能,可通過對(duì)芯片的OC腳對(duì)地加電阻實(shí)現(xiàn)輸入限流可調(diào)功能。 分檔不是分級(jí),G11與G12
    發(fā)表于 12-02 15:14

    同是電流檢測(cè)芯片FP137 與 INA139,實(shí)際性能差距有多大?

    高,并且供貨穩(wěn)定。通過與客戶的充分溝通,我們了解到客戶項(xiàng)目的供電電壓、驅(qū)動(dòng)電流等情況,綜合評(píng)估后給客戶推薦臺(tái)灣遠(yuǎn)翔的高邊電流檢測(cè)芯片FP137。 “為什么說電流檢測(cè)IC是無人機(jī)電調(diào)(電子調(diào)速器)電機(jī)模塊中
    發(fā)表于 11-17 10:45

    FP137的三電阻配置技巧:如何根據(jù)不同應(yīng)用場景優(yōu)化增益參數(shù)?

    FP137是一款基于高側(cè)檢測(cè)原理的電流測(cè)量IC,其架構(gòu)針對(duì)廣泛的電源應(yīng)用場景進(jìn)行了優(yōu)化。它包括一個(gè)差分輸入放大器和一個(gè)帶有源輸出的MOSFET。有三個(gè)外部電阻,軌道電流信號(hào)可以很容易地轉(zhuǎn)換為IC輸出引腳的放大電壓信號(hào)。此外,還可以通過改變這一個(gè)外部電阻器的值來調(diào)整增益。
    的頭像 發(fā)表于 10-29 14:17 ?1403次閱讀
    <b class='flag-5'>FP</b>137的三電阻配置技巧:如何根據(jù)不同應(yīng)用場景<b class='flag-5'>優(yōu)化</b>增益參數(shù)?

    小白必讀:到底什么是FP32、FP16、INT8?

    網(wǎng)上關(guān)于算力的文章,如果提到某個(gè)芯片或某個(gè)智算中心的算力,都會(huì)寫:在FP32精度下,英偉達(dá)H100的算力大約為0.9PFlops。在FP16精度下,某智算中心的算力是6.7EFlops。在INT8
    的頭像 發(fā)表于 10-20 14:34 ?633次閱讀
    小白必讀:到底什么是<b class='flag-5'>FP</b>32、<b class='flag-5'>FP</b>16、INT8?

    sc-1和sc-2能洗掉什么雜質(zhì)

    半導(dǎo)體晶圓清洗工藝中,SC-1與SC-2作為RCA標(biāo)準(zhǔn)的核心步驟,分別承擔(dān)著去除有機(jī)物/顆粒和金屬離子的關(guān)鍵任務(wù)。二者通過酸堿協(xié)同機(jī)制實(shí)現(xiàn)污染物的分層剝離,其配方設(shè)計(jì)、反應(yīng)原理及工藝參數(shù)直接影響芯片
    的頭像 發(fā)表于 10-13 11:03 ?801次閱讀
    <b class='flag-5'>sc</b>-1和<b class='flag-5'>sc</b>-2能洗掉什么雜質(zhì)

    UWB自動(dòng)跟隨技術(shù)原理、算法融合優(yōu)化和踩坑實(shí)錄

    UWB為什么是最靠譜的自動(dòng)跟隨技術(shù)?原理是什么?需要做什么算法融合、優(yōu)化?我們?cè)陂_發(fā)過程中踩過的坑。
    的頭像 發(fā)表于 08-14 17:45 ?1135次閱讀
    UWB自動(dòng)跟隨技術(shù)原理、算法<b class='flag-5'>融合</b><b class='flag-5'>優(yōu)化</b>和踩坑實(shí)錄

    進(jìn)迭時(shí)空同構(gòu)融合RISC-V AI CPU的Triton算子編譯器實(shí)踐

    Pytorch已能做到100%替換CUDA,國內(nèi)也有智源研究院主導(dǎo)的FlagGems通用算子庫試圖構(gòu)建起不依賴CUDA的AI計(jì)算生態(tài),截至今日,F(xiàn)lagGems已進(jìn)入Pyto
    的頭像 發(fā)表于 07-15 09:04 ?1344次閱讀
    進(jìn)迭時(shí)空同構(gòu)<b class='flag-5'>融合</b>RISC-V AI CPU的Triton<b class='flag-5'>算子</b>編譯器實(shí)踐

    鴻蒙應(yīng)用px,vp,fp概念詳解

    傳統(tǒng)移動(dòng)端開發(fā)方向,轉(zhuǎn)到鴻蒙應(yīng)用開發(fā)方向。 前端開發(fā)同學(xué)對(duì)于開發(fā)范式很熟悉,但是對(duì)于工作流程和開發(fā)方式是會(huì)有不適感,其實(shí)移動(dòng)應(yīng)用開發(fā)與前端開發(fā),最大的區(qū)別就在于UI適配和性能優(yōu)化上了。 今天我們就來分析下鴻蒙中UI適配的規(guī)范與小竅門。 二、 鴻蒙中vp、px、fp 是什么
    的頭像 發(fā)表于 07-07 11:48 ?1019次閱讀
    鴻蒙應(yīng)用px,vp,<b class='flag-5'>fp</b>概念詳解

    摩爾線程GPU原生FP8計(jì)算助力AI訓(xùn)練

    近日,摩爾線程正式開源MT-MegatronLM與MT-TransformerEngine兩大AI框架。通過深度融合FP8混合訓(xùn)練策略和高性能算子庫,這兩大框架在國產(chǎn)全功能GPU上實(shí)現(xiàn)了高效的混合
    的頭像 發(fā)表于 03-17 17:05 ?1217次閱讀
    摩爾線程GPU原生<b class='flag-5'>FP</b>8計(jì)算助力AI訓(xùn)練

    SC2121、SC2161和SC2167解鎖高性能RDC國產(chǎn)替代方案

    SC2121、SC2161和SC2167解鎖高性能RDC國產(chǎn)替代方案
    的頭像 發(fā)表于 03-11 09:55 ?1167次閱讀
    <b class='flag-5'>SC</b>2121、<b class='flag-5'>SC</b>2161和<b class='flag-5'>SC</b>2167解鎖高性能RDC國產(chǎn)替代方案

    sc跳線是什么口

    連接器最早由日本NTT公司設(shè)計(jì),后由日本NEC公司在上世紀(jì)80年代末期開發(fā)并推廣。以下是對(duì)SC跳線接口的詳細(xì)介紹: 一、外觀與尺寸 SC連接器外觀呈矩形,尺寸為22mm×11mm,體積適中且便攜,易于在擁擠的機(jī)柜或面板中進(jìn)行操作
    的頭像 發(fā)表于 02-11 10:26 ?1327次閱讀

    FP8在大模型訓(xùn)練中的應(yīng)用

    越來越多的技術(shù)團(tuán)隊(duì)開始使用 FP8 進(jìn)行大模型訓(xùn)練,這主要因?yàn)?FP8 有很多技術(shù)優(yōu)勢(shì)。比如在新一代的 GPU 上,FP8 相對(duì)于 BF16 對(duì)矩陣乘算子這樣的計(jì)算密集型
    的頭像 發(fā)表于 01-23 09:39 ?1907次閱讀
    <b class='flag-5'>FP</b>8在大模型訓(xùn)練中的應(yīng)用

    EE-401:ADSP-SC5xx/215xx SHARC處理器系統(tǒng)優(yōu)化技術(shù)

    電子發(fā)燒友網(wǎng)站提供《EE-401:ADSP-SC5xx/215xx SHARC處理器系統(tǒng)優(yōu)化技術(shù).pdf》資料免費(fèi)下載
    發(fā)表于 01-06 15:23 ?0次下載
    EE-401:ADSP-<b class='flag-5'>SC</b>5xx/215xx SHARC處理器系統(tǒng)<b class='flag-5'>優(yōu)化</b>技術(shù)