chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ALINX VD100低功耗端側(cè)大模型部署方案,運行3B模型功耗僅5W?!

FPGA技術(shù)專欄 ? 來源:FPGA技術(shù)專欄 ? 作者:FPGA技術(shù)專欄 ? 2025-09-03 14:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大模型能運行≠用戶體驗好。

IDC 預(yù)測,到 2026 年,全球超過 50% 的企業(yè) AI 工作負載將部署在邊緣設(shè)備上。在 AI 部署逐漸從云端轉(zhuǎn)向邊緣端的趨勢下,越來越多智能終端開始嘗試在本地運行完整模型,以降低延遲、保護隱私并節(jié)省通信成本。但真正落地時卻發(fā)現(xiàn):功耗吃緊、模型裁剪嚴重、開發(fā)流程繁瑣,使得“能運行”遠遠達不到“用得好”。

基于 ALINX VD100 開發(fā)平臺,客戶打造出一套面向 AI 終端的大模型部署方案,實測可支持 8B 模型運行、運行 3B 模型功耗僅 5W,推理速度達 12 tokens/s,遠優(yōu)于市面同類產(chǎn)品。

wKgZPGi35y6AFNCwAAISKZ4vJ7s581.jpg

本方案基于 AMD Versal ACAP 架構(gòu),通過硬件架構(gòu)、推理框架、模型壓縮等多個層級的全棧優(yōu)化,顯著提升大模型端側(cè)部署的能耗比。

可重構(gòu)數(shù)據(jù)流硬件架構(gòu)

可重構(gòu)數(shù)據(jù)流+VLIW處理器陣列+可編程邏輯,提升并行度與靈活性

無緩存設(shè)計+分布式片上存儲,實現(xiàn)低延遲、確定性響應(yīng)

NoC 優(yōu)化與指令調(diào)度提升計算利用率與帶寬利用率至96%

原生支持矩陣-向量乘、注意力融合、激活函數(shù)融合等AI 關(guān)鍵算子,支持混合數(shù)據(jù)模型和嵌套量化

端口高性能訪存模塊,優(yōu)化BRAM 和 DSP資源使用效率

→在同等功耗下,平臺可以支持更多模型層級與更大參數(shù)規(guī)模。

自研開發(fā)工具鏈

自研高層次離散事件仿真器,較 RTL 級仿真器仿真速度優(yōu)化300 倍,支持全部功能模擬與自動設(shè)計空間搜索

自研Kernel 和 Buffer 布局優(yōu)化工具,減少 50% 訪存沖突,大幅縮短部署時間

→ 快速搭建模型、開發(fā)體驗友好。

優(yōu)化推理運行

優(yōu)化硬件調(diào)用開銷,管理異步算子調(diào)用。

設(shè)計連續(xù)地址內(nèi)存池,規(guī)避伙伴系統(tǒng)分配物理內(nèi)存頁碎片問題,減少 50% 內(nèi)存占用。

→讓模型跑得穩(wěn),持續(xù)運行不掉鏈子。

敏捷開發(fā)推理框架

融合采樣計算,推理速度提升 100 倍

融合 MLP、MoE 等算子,通過流水線優(yōu)化重疊不同算子計算時間

軟件層兼容Huggingface 生態(tài),僅需 Transformers 模型代碼+safetensors 權(quán)重文件,即可一鍵運行主流 Transformer 模型

→優(yōu)化大模型推理流程,實現(xiàn)敏捷開發(fā),遷移更快,體驗更流暢。

模型壓縮

端側(cè)推理對存儲與計算資源要求極高,方案采用精細化壓縮策略:

支持 BF16、NF4 混合精度壓縮,在保持精度基礎(chǔ)上顯著降低計算壓力

PCA 聚類壓縮 LM-Head,減少 90% 的訪存與計算負擔,同時保持推理準確性

→模型輕巧運行穩(wěn),真正適配邊緣與終端AI場景。

實測效果

5W 功耗實現(xiàn)行業(yè)領(lǐng)先推理性能

基于 ALINX VD100 平臺實測,模型運行結(jié)果如下:

wKgZO2i35y-AMz6VAABH0qzm3xQ463.png

完整實測報告和對比報告,聯(lián)系 ALINX 獲取。

應(yīng)用場景

AI 終端的可能性不止于你想象

這套端側(cè)大模型部署方案已在多種高要求場景中落地:

新型移動智能終端:包括 AI 可穿戴設(shè)備、AI 玩具、人形機器人等,離線運行大模型,保護用戶隱私

工業(yè)機器人/無人系統(tǒng):保障實時安全

太空/油田等極端場景:低功耗運行,降低散熱負擔,保障系統(tǒng)穩(wěn)定性

如果你也在評估“端側(cè)+大模型”,

歡迎和我們聊聊

如果您正在:

尋找低功耗、高效能的大模型端側(cè)運行平臺

希望快速驗證模型部署可行性

評估 FPGA 在 AI 產(chǎn)品中的可落地性

歡迎訪問ALINX官網(wǎng),聯(lián)系我們,獲取完整技術(shù)白皮書、項目評估與對接服務(wù)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1659

    文章

    22379

    瀏覽量

    633934
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3598

    瀏覽量

    5104
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    黑芝麻智能華山A2000 BaRT工具鏈助力輔助駕駛模型部署

    隨著智駕模型參數(shù)規(guī)模與計算復(fù)雜度指數(shù)級增長,大模型應(yīng)用與車硬件、性能功耗的矛盾愈發(fā)凸顯,成為技術(shù)量產(chǎn)的關(guān)鍵瓶頸。在此背景下,黑芝麻智能華山A2000 BaRT 工具鏈以 MLIR 框
    的頭像 發(fā)表于 02-02 15:37 ?47次閱讀
    黑芝麻智能華山A2000 BaRT工具鏈助力輔助駕駛<b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    高性能電流模式PWM控制器UC2842B/3B/4B/5B - UC3842B/3B/4B/5B詳解

    的是STMicroelectronics推出的UC2842B/3B/4B/5B - UC3842B/3B
    的頭像 發(fā)表于 01-27 13:50 ?83次閱讀

    深度解析UC2842B/3B/4B/5B與UC3842B/3B/4B/5B高性能電流模式PWM控制器

    /5B與UC3842B/3B/4B/5B系列高性能電流模式PWM控制器,以其豐富的特性和出色的性能,在離線或DC - DC固定頻率電流模式控
    的頭像 發(fā)表于 01-27 11:35 ?228次閱讀

    側(cè)模型上車:從“語音助手”到“車內(nèi) AI 智能體”的躍遷革命

    生活空間”的可能性。當7B級大模型在車規(guī)級芯片上流暢運行,當多模態(tài)交互(語音+視覺+傳感)成為標配,車載助手已從“被動響應(yīng)”升級為“主動決策”,成為車內(nèi)真正的“數(shù)字大腦”。這場由
    的頭像 發(fā)表于 01-13 09:10 ?367次閱讀

    引領(lǐng)側(cè)模型落地!Firefly-RK182X 開發(fā)套件上線發(fā)售

    。Rockchip全新高性能側(cè)模型協(xié)處理器RK182X,以硬核技術(shù)突破瓶頸,重構(gòu)側(cè)智能格局,引領(lǐng)
    的頭像 發(fā)表于 11-26 16:33 ?1986次閱讀
    引領(lǐng)<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>落地!Firefly-RK182X 開發(fā)套件上線發(fā)售

    廣和通發(fā)布側(cè)目標檢測模型FiboDet

    為提升側(cè)設(shè)備視覺感知與決策能力,廣和通全自研側(cè)目標檢測模型FiboDet應(yīng)運而生。該模型基于廣和通在邊緣計算與人工智能領(lǐng)域的深度積累,面
    的頭像 發(fā)表于 09-26 13:39 ?1546次閱讀

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺上成功部署運行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了
    的頭像 發(fā)表于 09-26 13:35 ?784次閱讀

    米爾RK3576部署側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    (LLM Core) 模型選擇:搭載 qwen2.5-vl-3b-w4a16_level1_rk3576.rkllm 模型,采用 W4A16 量化
    發(fā)表于 09-05 17:25

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測

    ),確保隱私數(shù)據(jù)不出設(shè)備。 離線場景:Jetson Orin 等邊緣設(shè)備可本地運行 3B 參數(shù)模型,無需聯(lián)網(wǎng)即可完成任務(wù)。 綜上,側(cè) SL
    發(fā)表于 08-29 18:08

    側(cè)模型迎來“輕”革命!移遠通信 × RWKV 打造“輕量AI大腦”

    7月27日,移遠通信宣布與RWKV公司建立全面合作關(guān)系,雙方將依托移遠的算力平臺,優(yōu)化并支持RWKV最新模型架構(gòu),共同推動大模型側(cè)設(shè)備的低資源占用
    的頭像 發(fā)表于 07-27 19:02 ?915次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>迎來“輕”革命!移遠通信 × RWKV 打造“輕量AI大腦”

    后摩智能發(fā)布全新邊大模型AI芯片

    ,就能讓PC、智能語音設(shè)備、機器人等智能移動終端高效運行1.5B 到 70B 參數(shù)的本地大模型,真正實現(xiàn)了"高算力、低功耗、即插即用"。
    的頭像 發(fā)表于 07-26 16:09 ?1455次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓側(cè)AI模型接入得心應(yīng)手

    的自有模型移植,使首字詞生態(tài)速度比云端方案提升70%,賦能絕影多模態(tài)智能座艙強大的側(cè)運行能力,讓汽車擁有“有趣的靈魂”。 不僅如此,天璣
    發(fā)表于 04-13 19:52

    AI大模型側(cè)部署正當時:移遠端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術(shù)飛速發(fā)展的當下,AI大模型的應(yīng)用正從云端向側(cè)加速滲透。 作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大
    發(fā)表于 03-27 11:26 ?485次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)<b class='flag-5'>部署</b>正當時:移遠端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決<b class='flag-5'>方案</b>,激活場景智能新范式

    AI大模型側(cè)部署正當時:移遠端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術(shù)飛速發(fā)展的當下,AI大模型的應(yīng)用正從云端向側(cè)加速滲透。作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大
    的頭像 發(fā)表于 03-26 19:05 ?1188次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)<b class='flag-5'>部署</b>正當時:移遠端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決<b class='flag-5'>方案</b>,激活場景智能新范式

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    的 AI 處理效率,成為部署各類 AI 模型的關(guān)鍵依托。 憑借這些卓越的硬件性能,RK3588 開發(fā)板在保持低功耗的同時,展現(xiàn)出強大的運算能力,無疑是部署 DeepSeek
    發(fā)表于 02-14 17:42