chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ALINX VD100低功耗端側(cè)大模型部署方案,運(yùn)行3B模型功耗僅5W?!

FPGA技術(shù)專欄 ? 來源:FPGA技術(shù)專欄 ? 作者:FPGA技術(shù)專欄 ? 2025-09-03 14:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大模型能運(yùn)行≠用戶體驗好。

IDC 預(yù)測,到 2026 年,全球超過 50% 的企業(yè) AI 工作負(fù)載將部署在邊緣設(shè)備上。在 AI 部署逐漸從云端轉(zhuǎn)向邊緣端的趨勢下,越來越多智能終端開始嘗試在本地運(yùn)行完整模型,以降低延遲、保護(hù)隱私并節(jié)省通信成本。但真正落地時卻發(fā)現(xiàn):功耗吃緊、模型裁剪嚴(yán)重、開發(fā)流程繁瑣,使得“能運(yùn)行”遠(yuǎn)遠(yuǎn)達(dá)不到“用得好”。

基于 ALINX VD100 開發(fā)平臺,客戶打造出一套面向 AI 終端的大模型部署方案,實測可支持 8B 模型運(yùn)行、運(yùn)行 3B 模型功耗僅 5W,推理速度達(dá) 12 tokens/s,遠(yuǎn)優(yōu)于市面同類產(chǎn)品。

wKgZPGi35y6AFNCwAAISKZ4vJ7s581.jpg

本方案基于 AMD Versal ACAP 架構(gòu),通過硬件架構(gòu)、推理框架、模型壓縮等多個層級的全棧優(yōu)化,顯著提升大模型端側(cè)部署的能耗比。

可重構(gòu)數(shù)據(jù)流硬件架構(gòu)

可重構(gòu)數(shù)據(jù)流+VLIW處理器陣列+可編程邏輯,提升并行度與靈活性

無緩存設(shè)計+分布式片上存儲,實現(xiàn)低延遲、確定性響應(yīng)

NoC 優(yōu)化與指令調(diào)度提升計算利用率與帶寬利用率至96%

原生支持矩陣-向量乘、注意力融合、激活函數(shù)融合等AI 關(guān)鍵算子,支持混合數(shù)據(jù)模型和嵌套量化

端口高性能訪存模塊,優(yōu)化BRAM 和 DSP資源使用效率

→在同等功耗下,平臺可以支持更多模型層級與更大參數(shù)規(guī)模。

自研開發(fā)工具鏈

自研高層次離散事件仿真器,較 RTL 級仿真器仿真速度優(yōu)化300 倍,支持全部功能模擬與自動設(shè)計空間搜索

自研Kernel 和 Buffer 布局優(yōu)化工具,減少 50% 訪存沖突,大幅縮短部署時間

→ 快速搭建模型、開發(fā)體驗友好。

優(yōu)化推理運(yùn)行

優(yōu)化硬件調(diào)用開銷,管理異步算子調(diào)用。

設(shè)計連續(xù)地址內(nèi)存池,規(guī)避伙伴系統(tǒng)分配物理內(nèi)存頁碎片問題,減少 50% 內(nèi)存占用。

→讓模型跑得穩(wěn),持續(xù)運(yùn)行不掉鏈子。

敏捷開發(fā)推理框架

融合采樣計算,推理速度提升 100 倍

融合 MLP、MoE 等算子,通過流水線優(yōu)化重疊不同算子計算時間

軟件層兼容Huggingface 生態(tài),僅需 Transformers 模型代碼+safetensors 權(quán)重文件,即可一鍵運(yùn)行主流 Transformer 模型

→優(yōu)化大模型推理流程,實現(xiàn)敏捷開發(fā),遷移更快,體驗更流暢。

模型壓縮

端側(cè)推理對存儲與計算資源要求極高,方案采用精細(xì)化壓縮策略:

支持 BF16、NF4 混合精度壓縮,在保持精度基礎(chǔ)上顯著降低計算壓力

PCA 聚類壓縮 LM-Head,減少 90% 的訪存與計算負(fù)擔(dān),同時保持推理準(zhǔn)確性

→模型輕巧運(yùn)行穩(wěn),真正適配邊緣與終端AI場景。

實測效果

5W 功耗實現(xiàn)行業(yè)領(lǐng)先推理性能

基于 ALINX VD100 平臺實測,模型運(yùn)行結(jié)果如下:

wKgZO2i35y-AMz6VAABH0qzm3xQ463.png

完整實測報告和對比報告,聯(lián)系 ALINX 獲取。

應(yīng)用場景

AI 終端的可能性不止于你想象

這套端側(cè)大模型部署方案已在多種高要求場景中落地:

新型移動智能終端:包括 AI 可穿戴設(shè)備、AI 玩具、人形機(jī)器人等,離線運(yùn)行大模型,保護(hù)用戶隱私

工業(yè)機(jī)器人/無人系統(tǒng):保障實時安全

太空/油田等極端場景:低功耗運(yùn)行,降低散熱負(fù)擔(dān),保障系統(tǒng)穩(wěn)定性

如果你也在評估“端側(cè)+大模型”,

歡迎和我們聊聊

如果您正在:

尋找低功耗、高效能的大模型端側(cè)運(yùn)行平臺

希望快速驗證模型部署可行性

評估 FPGA 在 AI 產(chǎn)品中的可落地性

歡迎訪問ALINX官網(wǎng),聯(lián)系我們,獲取完整技術(shù)白皮書、項目評估與對接服務(wù)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1656

    文章

    22299

    瀏覽量

    630612
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3460

    瀏覽量

    4982
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    引領(lǐng)側(cè)模型落地!Firefly-RK182X 開發(fā)套件上線發(fā)售

    。Rockchip全新高性能側(cè)模型協(xié)處理器RK182X,以硬核技術(shù)突破瓶頸,重構(gòu)側(cè)智能格局,引領(lǐng)
    的頭像 發(fā)表于 11-26 16:33 ?938次閱讀
    引領(lǐng)<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>落地!Firefly-RK182X 開發(fā)套件上線發(fā)售

    廣和通發(fā)布側(cè)目標(biāo)檢測模型FiboDet

    為提升側(cè)設(shè)備視覺感知與決策能力,廣和通全自研側(cè)目標(biāo)檢測模型FiboDet應(yīng)運(yùn)而生。該模型基于廣和通在邊緣計算與人工智能領(lǐng)域的深度積累,面
    的頭像 發(fā)表于 09-26 13:39 ?1422次閱讀

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺上成功部署運(yùn)行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了
    的頭像 發(fā)表于 09-26 13:35 ?680次閱讀

    米爾RK3576部署側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    (LLM Core) 模型選擇:搭載 qwen2.5-vl-3b-w4a16_level1_rk3576.rkllm 模型,采用 W4A16 量化
    發(fā)表于 09-05 17:25

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測

    ),確保隱私數(shù)據(jù)不出設(shè)備。 離線場景:Jetson Orin 等邊緣設(shè)備可本地運(yùn)行 3B 參數(shù)模型,無需聯(lián)網(wǎng)即可完成任務(wù)。 綜上,側(cè) SL
    發(fā)表于 08-29 18:08

    側(cè)模型迎來“輕”革命!移遠(yuǎn)通信 × RWKV 打造“輕量AI大腦”

    7月27日,移遠(yuǎn)通信宣布與RWKV公司建立全面合作關(guān)系,雙方將依托移遠(yuǎn)的算力平臺,優(yōu)化并支持RWKV最新模型架構(gòu),共同推動大模型側(cè)設(shè)備的低資源占用
    的頭像 發(fā)表于 07-27 19:02 ?657次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>迎來“輕”革命!移遠(yuǎn)通信 × RWKV 打造“輕量AI大腦”

    后摩智能發(fā)布全新邊大模型AI芯片

    ,就能讓PC、智能語音設(shè)備、機(jī)器人等智能移動終端高效運(yùn)行1.5B 到 70B 參數(shù)的本地大模型,真正實現(xiàn)了"高算力、低功耗、即插即用"。
    的頭像 發(fā)表于 07-26 16:09 ?1271次閱讀

    【VisionFive 2單板計算機(jī)試用體驗】3、開源大語言模型部署

    的系統(tǒng)和芯片架構(gòu)。 3、拉取/運(yùn)行大語言模型 ollama的使用方法和docker很像。 返回到ollama的編譯路徑,找到ollama可執(zhí)行文件 執(zhí)行 ./ollama run qwen3
    發(fā)表于 07-19 15:45

    德賽西威與面壁智能發(fā)布側(cè)模型語音交互方案

    日前,全球領(lǐng)先的移動出行科技公司德賽西威與側(cè)模型技術(shù)領(lǐng)軍企業(yè)面壁智能共同發(fā)布業(yè)界首個基于高通座艙平臺(SA8255P,簡稱8255)的側(cè)
    的頭像 發(fā)表于 05-14 17:40 ?1028次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓側(cè)AI模型接入得心應(yīng)手

    的自有模型移植,使首字詞生態(tài)速度比云端方案提升70%,賦能絕影多模態(tài)智能座艙強(qiáng)大的側(cè)運(yùn)行能力,讓汽車擁有“有趣的靈魂”。 不僅如此,天璣
    發(fā)表于 04-13 19:52

    AI大模型側(cè)部署正當(dāng)時:移遠(yuǎn)端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術(shù)飛速發(fā)展的當(dāng)下,AI大模型的應(yīng)用正從云端向側(cè)加速滲透。 作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大
    發(fā)表于 03-27 11:26 ?435次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)<b class='flag-5'>部署</b>正當(dāng)時:移遠(yuǎn)端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決<b class='flag-5'>方案</b>,激活場景智能新范式

    AI大模型側(cè)部署正當(dāng)時:移遠(yuǎn)端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術(shù)飛速發(fā)展的當(dāng)下,AI大模型的應(yīng)用正從云端向側(cè)加速滲透。作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大
    的頭像 發(fā)表于 03-26 19:05 ?1022次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)<b class='flag-5'>部署</b>正當(dāng)時:移遠(yuǎn)端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決<b class='flag-5'>方案</b>,激活場景智能新范式

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    的 AI 處理效率,成為部署各類 AI 模型的關(guān)鍵依托。 憑借這些卓越的硬件性能,RK3588 開發(fā)板在保持低功耗的同時,展現(xiàn)出強(qiáng)大的運(yùn)算能力,無疑是部署 DeepSeek
    發(fā)表于 02-14 17:42

    基于AX650N的M.2智能推理卡解決方案

    2024年是大模型在邊緣側(cè)&側(cè)落地的第一年。從這一年開始,頭部手機(jī)廠商在自己的旗艦機(jī)型中內(nèi)置了3B以下的本地大
    的頭像 發(fā)表于 12-23 16:39 ?3253次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    以及邊緣計算能力的增強(qiáng),越來越多的目標(biāo)檢測應(yīng)用開始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運(yùn)行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶隱私,同時也減輕了云端服務(wù)器的壓力。然而,在邊緣部署高效且準(zhǔn)確的目標(biāo)檢測
    發(fā)表于 12-19 14:33