chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

中國電提出大模型推理加速新范式Falcon

智能感知與物聯(lián)網(wǎng)技術研究所 ? 來源:智能感知與物聯(lián)網(wǎng)技術研 ? 2025-01-15 13:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,中國電信翼支付針對大模型推理加速的最新研究成果《Falcon: Faster and Parallel Inference of Large Language Models through Enhanced Semi-Autoregressive Drafting and Custom-Designed Decoding Tree》已被 AAAI 2025 接收。

論文中提出的 Falcon 方法是一種增強半自回歸投機解碼框架,旨在增強 draft model 的并行性和輸出質(zhì)量,以有效提升大模型的推理速度。Falcon 可以實現(xiàn)約 2.91-3.51 倍的加速比,在多種數(shù)據(jù)集上獲得了很好的結(jié)果,并已應用到翼支付多個實際業(yè)務中。

aad237ae-d0b2-11ef-9310-92fbcf53809c.png

論文標題: https://longbench2.github.io

論文鏈接:

https://arxiv.org/pdf/2412.12639

研究背景

大型語言模型 (LLMs) 在各種基準測試中展現(xiàn)了卓越的表現(xiàn),然而由于自回歸 (AR) 解碼方式,LLMs 在推理過程中也面臨著顯著的計算開銷和延遲瓶頸。

為此,研究學者提出 Speculative Decoding (投機采樣) 方法。Speculative Decoding 會選擇一個比原始模型 (Target Model) 輕量的 LLM 作為 Draft Model,在 Draft 階段使用 Draft Model 連續(xù)生成若干個候選 Token。

在 Verify 階段,將得到的候選 Token 序列放入到原始 LLM 做驗證 & Next Token 生成,實現(xiàn)并行解碼。通過將計算資源導向于驗證預先生成的 token,Speculative Decoding 大大減少了訪問 LLM 參數(shù)所需的內(nèi)存操作,從而提升了整體推理效率。

現(xiàn)有的投機采樣主要采用兩種 Draft 策略:自回歸 (AR) 和半自回歸 (SAR) draft。AR draft 順序生成 token,每個 token 依賴于前面的 token。這種順序依賴性限制了 draft 模型的并行性,導致顯著的時間開銷。

相比之下,SAR draft 同時生成多個 token,增強了 draft 過程的并行化。然而,SAR draft 的一個重要局限是它無法完全捕捉相同 block 內(nèi) draft tokens 之間的相互依賴關系,可能導致生成的 token 接受率較低。

因此,在投機采樣中,平衡低 draft 延遲與高推測準確性以加速 LLMs 的推理速度,是一個重大挑戰(zhàn)。

為此,翼支付提出了 Falcon,一個增強的半自回歸(SAR)投機解碼框架,旨在增強 draft model 的并行性和輸出質(zhì)量,從而提升 LLMs 的推理效率。Falcon 集成了 Coupled Sequential Glancing Distillation(CSGD)方法,提高了 SAR draft model 的 token 接受率。

此外,F(xiàn)alcon還設計了一種專門的 decoding tree 來支持 SAR 采樣,使得 draft model 可以在一次前向傳播中生成多個 token,并且也能夠支持多次前向傳播。這種設計有效提升 LLMs 對 token 的接受率,進一步加快了推理速度。

研究方法

Falcon的架構(gòu)如圖 1 所示,可以看到,該半自回歸解碼框架主要由三個組件構(gòu)成:Embedding Layer、LM-Head和半自回歸解碼 Head。

ab0bbb3c-d0b2-11ef-9310-92fbcf53809c.png

▲圖1.Falcon框架圖

具體來講,F(xiàn)alcon 將一個時間步長之前的連續(xù)特征序列和當前 token 序列連接起來,以同時預測接下來的 k 個標記。例如,當 k = 2 時,F(xiàn)alcon 使用初始特征序列 (f1, f2) 和提前一個時間步長的標記序列 (t2, t3) 來預測特征序列 (f3, f4)。

隨后,將預測得到的特征 (f3, f4) 與下一個標記序列 (t4, t5) 連接,形成新的輸入序列。這個新輸入序列用于預測后續(xù)的特征序列 (f5, f6) 和標記序列 (t6, t7),從而促進 draft 過程的繼續(xù)。Draft model 多次 forward 之后生成的 token 被組織成樹結(jié)構(gòu),輸入到大模型中進行 verify,通過 verify 的 token 被大模型接收,并基于此基礎開始下一個循環(huán)。

2.1 Coupled Sequential Glancing Distillation

當前推測解碼方法的準確性相對較低,主要原因是 token 之間的上下文信息不足。CSGD 通過用真實 token 和 hidden states 替換一些初始預測來改善這一點,將正確信息重新注入解碼過程中,從而提高后續(xù)預測的準確性和連貫性。模型結(jié)構(gòu)及訓練流程如下圖:

ab35ab86-d0b2-11ef-9310-92fbcf53809c.png

▲圖2. CGSD方法示意圖

在訓練過程中,一個時間步長之前的連續(xù)特征序列和當前 token 序列連接起來,并輸入到 draft model 中,形成一個融合序列,其維度為 (bs, seq_len, 2 * hidden_dim)。

draft model 由一個混合 Transformer 網(wǎng)絡組成,該網(wǎng)絡包括兩層 LSTM、Relaxed Causal-Masked 多頭注意力機制,以及 MLP 網(wǎng)絡。其中 LSTM 網(wǎng)絡將融合序列的維度減少到 (bs, seq_len, hidden_dim),并保留關于過去 token 的信息,從而提高模型的準確性。

Relaxed Causal-Masked 多頭注意力機制能夠在保持因果關系的同時,專注于輸入序列的相關部分。MLP 層進一步處理這些信息,以做出最終預測。

當序列首次通過 draft model 后,會生成初始的 token 預測ab67c99a-d0b2-11ef-9310-92fbcf53809c.png。然后,我們計算 draft model 的預測與真實 token Y 之間的漢明距離,以此來衡量預測的準確性。接下來,我們將一定數(shù)量連續(xù)預測的 token 序列ab7ebace-d0b2-11ef-9310-92fbcf53809c.png和特征序列ab9624de-d0b2-11ef-9310-92fbcf53809c.png替換為來自 LLMs 的正確 token 序列aba4cb60-d0b2-11ef-9310-92fbcf53809c.png和特征序列abbcafe6-d0b2-11ef-9310-92fbcf53809c.png。

CSGD 與傳統(tǒng)的 glancing 方法不同,后者僅隨機替換 token。相反,CSGD 選擇性地同時替換預測之前的連續(xù) token 和特征序列,如圖 2 中虛線框標注的 choice 1、choice 2、choice3 所示。

這種方法增強了對 token 間的關系的理解,并確保 draft model 能夠有效利用提前時間步長的 token 序列,這在 SAR 解碼中尤為重要。隨后,修正后的 token 和特征序列被重新輸入到 draft model 中以計算訓練損失。

在訓練過程中,我們采用了知識蒸餾,損失函數(shù)包括 draft model 的輸出特征與真實特征之間的回歸損失以及蒸餾損失,具體的損失函數(shù)如下:

abda31b0-d0b2-11ef-9310-92fbcf53809c.png

2.2 Custom-Designed Decoding Tree

當前基于樹的推測解碼方法通過在每個起草步驟生成多個 draft token 來提升推測效率。然而,這些方法仍然需要 draft model 按順序生成 token,這限制了推測效率的進一步提高。

為了解決這一局限性,CDT (Custom-Designed Decoding Tree) 支持 draft model 在一次前向傳遞中生成多個 token (k 個),并且在每個 draft 步驟中支持多次前向傳遞。因此,與現(xiàn)有方法相比,CDT 生成的草稿標記數(shù)量是其 k 倍。

Draft model 多次 forward 之后,生成的 token 被組織成樹結(jié)構(gòu),輸入到大模型中進行 verify。LLM 使用基于樹的并行解碼機制來驗證候選 token 序列的正確性,被接受的 token 及其相應的特征序列會在后續(xù)繼續(xù)進行前向傳遞。在傳統(tǒng)的自回歸(AR)解碼中,使用因果掩碼,其結(jié)構(gòu)為下三角矩陣。它確保了前面的 token 不能訪問后面的信息。

相比之下,F(xiàn)alcon 采用了一種 causal 因果掩碼 (如圖 3 所示),允許模型訪問同一 k*k 的 block 內(nèi)的 token 以及相應的之前的連續(xù) token。這一增強顯著提高了 drafter 生成 token 的效率,使 LLM 能夠同時驗證更多的 token,從而加快了 LLM 的整體推理速度。

abfa80fa-d0b2-11ef-9310-92fbcf53809c.png

▲圖3. Custom-Designed Decoding Tree方法示意圖

ac2199e2-d0b2-11ef-9310-92fbcf53809c.png

實驗結(jié)果

我們在多個數(shù)據(jù)集和多個模型上進行了廣泛的實驗,驗證了本文方法的有效性。和現(xiàn)有的方法相比,F(xiàn)alcon 展現(xiàn)了優(yōu)越的性能,具體如下圖:

ac33b42e-d0b2-11ef-9310-92fbcf53809c.png

▲圖4. Falcon實驗結(jié)果圖

業(yè)務潛力

Falcon 大模型可以實現(xiàn)約 2.91-3.51 倍的加速比,相當于同等條件下推理成本下降至約原先的 1/3,從而大幅降低了大模型推理計算相關成本。

當前,F(xiàn)alcon 技術已轉(zhuǎn)化至翼支付大模型產(chǎn)品 InsightAI 平臺,并已服務諸如翼支付數(shù)字人客服、借錢-翼小橙、人力-翼點通、財務-翼小財?shù)榷鄠€業(yè)務應用。

總結(jié)

投機采樣是大模型推理加速的一個核心方法。當前,主要的挑戰(zhàn)是如何提升 draft model 的準確率、采樣效率,并提升大模型的驗證效率。文章提出了 Falcon 方法,一種基于增強半自回歸投機解碼框架。Falcon 通過 CSGD 這種訓練方法以及半自回歸的模型設計,顯著提升了 draft model 的預測準確率以及采樣效率。

此外,為了讓大模型能驗證更多的 token,本文精心設計了一個 decoding tree,有效提升了 draft model 的效率,從而提升了驗證效率。Falcon 在多種數(shù)據(jù)集上可以實現(xiàn)約 2.91-3.51x 的加速比并應用到翼支付的眾多業(yè)務中,獲得了很好的效果。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 大模型
    +關注

    關注

    2

    文章

    3348

    瀏覽量

    4716

原文標題:AAAI 2025 | 加速比高達3.51倍!中國電提出大模型推理加速新范式Falcon

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術研究所】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    什么是AI模型推理能力

    NVIDIA 的數(shù)據(jù)工廠團隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎,該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?555次閱讀

    杭州靈汐類腦智算集群實現(xiàn)大模型快速推理

    據(jù)悉,“杭州靈汐類腦智算集群”已于7月底實現(xiàn)了大模型快速推理API的企業(yè)服務試運行。該集群由杭州靈汐類腦科技有限公司牽頭搭建運營,中國電信、中國電子科技南湖研究院以及腦啟社區(qū)作為合作方
    的頭像 發(fā)表于 08-18 16:06 ?537次閱讀

    商湯大裝置躋身中國模型推理算力廠商第一梯隊

    近日,IDC發(fā)布首個《2025中國模型推理算力市場分析報告》。
    的頭像 發(fā)表于 08-14 09:29 ?4602次閱讀

    模型推理顯存和計算量估計方法研究

    上進行了實驗。實驗結(jié)果表明,所提出的估計方法具有較高的準確性和實用性。 五、結(jié)論 本文針對大模型推理的顯存和計算量估計問題,提出了基于模型結(jié)
    發(fā)表于 07-03 19:43

    如何將一個FA模型開發(fā)的聲明式范式應用切換到Stage模型

    模型切換概述 本文介紹如何將一個FA模型開發(fā)的聲明式范式應用切換到Stage模型,您需要完成如下動作: 工程切換:新建一個Stage模型
    發(fā)表于 06-04 06:22

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    推理 AI 模型。谷歌方面表示,它代表著 AI 發(fā)展從 “響應式” 向 “主動式” 的范式轉(zhuǎn)變,未來 AI 代理將能夠主動檢索并
    的頭像 發(fā)表于 04-12 00:57 ?2857次閱讀

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴展推理時間計算、運用強化學習、開展監(jiān)督微調(diào)和進行提煉等。本文將深入探討
    的頭像 發(fā)表于 04-03 12:09 ?943次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現(xiàn)狀

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴展 AI 工廠中的 AI 推理模型。 作為 NVIDIA
    的頭像 發(fā)表于 03-20 15:03 ?914次閱讀

    中國電信發(fā)布復雜推理模型TeleAI-t1-preview

    中國電信人工智能研究院(TeleAI)近日正式推出了其自主研發(fā)的“復雜推理模型”——TeleAI-t1-preview。這一創(chuàng)新成果標志著中國電信在人工智能領域取得了重要突破,特別是
    的頭像 發(fā)表于 02-05 13:57 ?803次閱讀

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?1007次閱讀
    如何開啟Stable Diffusion WebUI<b class='flag-5'>模型</b><b class='flag-5'>推理</b>部署

    復旦提出模型推理新思路:Two-Player架構(gòu)打破自我反思瓶頸

    更多的訓練算力和數(shù)據(jù)資源,不如讓模型「花更多時間思考」。以 OpenAI 推出的 o1 模型為例,通過增加推理時間,這種方法讓模型能夠進行反思、批評、回溯和糾正,大幅提升了
    的頭像 發(fā)表于 12-06 11:24 ?1044次閱讀
    復旦<b class='flag-5'>提出</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>新思路:Two-Player架構(gòu)打破自我反思瓶頸

    阿里云開源推理模型QwQ

    近日,阿里云通義團隊宣布推出全新AI推理模型QwQ-32B-Preview,并同步實現(xiàn)了開源。這一舉措標志著阿里云在AI推理領域邁出了重要一步。 據(jù)評測數(shù)據(jù)顯示,QwQ預覽版本已具備研究生水平的科學
    的頭像 發(fā)表于 11-29 11:30 ?1410次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰(zhàn)。
    的頭像 發(fā)表于 11-15 14:20 ?1949次閱讀
    使用vLLM+OpenVINO<b class='flag-5'>加速</b>大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    高效大模型推理綜述

    模型由于其在各種任務中的出色表現(xiàn)而引起了廣泛的關注。然而,大模型推理的大量計算和內(nèi)存需求對其在資源受限場景的部署提出了挑戰(zhàn)。業(yè)內(nèi)一直在努力開發(fā)旨在提高大
    的頭像 發(fā)表于 11-15 11:45 ?2027次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    FPGA和ASIC在大模型推理加速中的應用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型
    的頭像 發(fā)表于 10-29 14:12 ?2442次閱讀
    FPGA和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的應用