chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在FPGA部署AI模型

FPGA研究院 ? 來源:OpenFPGA ? 2025-09-24 10:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如果你已經(jīng)在用 MATLAB深度學(xué)習(xí),那一定知道它的訓(xùn)練和仿真體驗非常絲滑。但當模型要真正落地到 FPGA 上時,往往就會卡住:怎么把網(wǎng)絡(luò)結(jié)構(gòu)和權(quán)重優(yōu)雅地搬到硬件里?

這就是 MathWorks Deep Learning HDL Toolbox 出場的地方。

它能干什么?

簡單來說,這個工具就是把你的神經(jīng)網(wǎng)絡(luò)“翻譯”成 FPGA 能跑的電路。它提供了一個現(xiàn)成的 Deep Learning Processor (DLP) IP 核,能直接放到 FPGA 里跑模型推理。

22fadfdc-8f68-11f0-8c8f-92fbcf53809c.png

主要功能有:

自動生成 FPGA 工程:不需要手寫 RTL,只要在 MATLAB 定義好網(wǎng)絡(luò)結(jié)構(gòu),就能一鍵生成 Vivado 工程。

支持常見網(wǎng)絡(luò)層:卷積層、全連接層、激活層等常見模塊都內(nèi)置好,拖上去就能用。

硬件加速 AI 推理:推理過程完全在硬件里跑,沒有軟件瓶頸,延遲低、確定性強。

AXI 接口對接:DLP IP 自帶 AXI4-Lite/AXI4-Stream 接口,方便和其他 FPGA 邏輯或外設(shè)對接。

可定制化:支持修改網(wǎng)絡(luò)拓撲、算子精度,還能擴展自定義層。

參考設(shè)計入門

最快捷的入門方法是先在 MATLAB 中生成參考設(shè)計,然后 MATLAB 會生成一個針對 ZCU102 評估板的 Vivado 項目。該設(shè)計可以直接在 MATLAB 中使用 JTAG 接口進行測試。

設(shè)計架構(gòu)概述

該架構(gòu)非常簡單,只需幾分鐘即可運行應(yīng)用程序。

盡管參考設(shè)計使用了 SoC 設(shè)備,但處理器僅負責(zé)時鐘和復(fù)位信號。

該過程從定義 DLP 及其接口的配置文件開始。

接下來,從 MATLAB 庫中導(dǎo)入了一個預(yù)訓(xùn)練的MNIST 分類網(wǎng)絡(luò)。通過分析它,我們可以了解待實現(xiàn)網(wǎng)絡(luò)的結(jié)構(gòu)。

235d00cc-8f68-11f0-8c8f-92fbcf53809c.png

定義網(wǎng)絡(luò)后,處理器就會對其進行配置和優(yōu)化。

23b9d98c-8f68-11f0-8c8f-92fbcf53809c.png24115d38-8f68-11f0-8c8f-92fbcf53809c.png246ba84c-8f68-11f0-8c8f-92fbcf53809c.png

一旦處理器得到優(yōu)化,我們就可以讓 MATLAB 在 Vivado 中構(gòu)建深度學(xué)習(xí) IP 設(shè)計。

24c35100-8f68-11f0-8c8f-92fbcf53809c.png

完成后就可以打開 Vivado 并探索該項目。將看到 AXI 互連、深度學(xué)習(xí) IP 和 AXI 基礎(chǔ)架構(gòu)。

251fab44-8f68-11f0-8c8f-92fbcf53809c.png2573d67e-8f68-11f0-8c8f-92fbcf53809c.png25d1af88-8f68-11f0-8c8f-92fbcf53809c.png

構(gòu)建和運行設(shè)計

優(yōu)化完成后,MATLAB 即可為 Vivado 構(gòu)建 DLP IP 設(shè)計。編譯只需幾分鐘,之后 Vivado 項目將顯示 AXI 互連、DLP IP 以及相關(guān)基礎(chǔ)架構(gòu)。

運行硬件示例之前,必須正確配置 Zynq 處理系統(tǒng) (PS),否則將不提供時鐘。這可以通過 從附加組件管理器安裝適用于 Xilinx FPGA 和 SoC 設(shè)備的深度學(xué)習(xí) HDL 工具箱支持包來完成。

262fd964-8f68-11f0-8c8f-92fbcf53809c.png268cb76a-8f68-11f0-8c8f-92fbcf53809c.png26f065e4-8f68-11f0-8c8f-92fbcf53809c.png274e8dcc-8f68-11f0-8c8f-92fbcf53809c.png

附加管理器還提供為 ZCU102 編程 SD 卡的工具,確保 PS 提供所需的時鐘和復(fù)位信號。

設(shè)置完成后,打開 ZCU102 的電源,將 JTAG 連接到開發(fā)板,并從 MATLAB 下載比特流。這還會使用網(wǎng)絡(luò)的權(quán)重和激活函數(shù)配置 FPGA 存儲器。

27a63da6-8f68-11f0-8c8f-92fbcf53809c.png2805f278-8f68-11f0-8c8f-92fbcf53809c.png

測試網(wǎng)絡(luò)

然后,加載一張簡單的圖像并進行推理。經(jīng)過訓(xùn)練識別手寫數(shù)字的 MNIST 網(wǎng)絡(luò)通過 JTAG 鏈路返回了正確的預(yù)測。

285f4a44-8f68-11f0-8c8f-92fbcf53809c.png28b3d488-8f68-11f0-8c8f-92fbcf53809c.png

由于啟用了分析功能,可以查看推理結(jié)果和性能指標。雖然這是一個簡單的網(wǎng)絡(luò),但速度還是很快的。

小結(jié)

MathWorks Deep Learning HDL Toolbox 其實就是一條“AI 模型到 FPGA 的高速通道”。

它幫你把 MATLAB 里的深度學(xué)習(xí)模型,直接翻譯成可運行在 FPGA 上的硬件結(jié)構(gòu),還自帶了一個成熟的 DLP 引擎,降低了從算法到部署的門檻。

一句話:如果你在 FPGA 上搞 AI,這個工具能幫你把“想法”快速變成“硬件”。

來源:本文轉(zhuǎn)載自O(shè)PENFPGA公眾號

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1650

    文章

    22203

    瀏覽量

    626638
  • matlab
    +關(guān)注

    關(guān)注

    189

    文章

    3009

    瀏覽量

    236631
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5586

    瀏覽量

    123612

原文標題:FPGA 上的 AI“神器”:MathWorks Deep Learning HDL Toolbox

文章出處:【微信號:FPGA研究院,微信公眾號:FPGA研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用CUBEAI部署tflite模型到STM32F0中,模型創(chuàng)建失敗怎么解決?

    看到CUBE_AI已經(jīng)支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創(chuàng)建成功。 查閱CUBE
    發(fā)表于 03-15 08:10

    何在STM32f4系列開發(fā)板上部署STM32Cube.AI,

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經(jīng)過開發(fā)板處理器進行AI
    發(fā)表于 11-18 09:39

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測試,開啟這場充滿挑戰(zhàn)與驚喜的技術(shù)探索之旅。 RK3588 開發(fā)板:AI 性能擔(dān)當 RK3588 開發(fā)板基于先進的 8nm LP 制程工藝精心打造,其硬件配置堪稱豪華,在
    發(fā)表于 02-14 17:42

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    如何將AI模型部署到嵌入式系統(tǒng)中

    本期我們分享主題是如何將 AI 模型部署到嵌入式系統(tǒng)中,下一期將介紹如何在 RT-Thread 操作系統(tǒng)上運行 Mnist Demo(手寫數(shù)字識別)。 嵌入式關(guān)聯(lián) AIAI落地一直是一
    發(fā)表于 12-14 07:55

    介紹在STM32cubeIDE上部署AI模型的系列教程

    介紹在STM32cubeIDE上部署AI模型的系列教程,開發(fā)板型號STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發(fā)】篇四|
    發(fā)表于 12-14 09:05

    部署基于嵌入的機器學(xué)習(xí)模型

    1、如何在生產(chǎn)中部署基于嵌入的機器學(xué)習(xí)模型  由于最近大量的研究,機器學(xué)習(xí)模型的性能在過去幾年里有了顯著的提高。雖然這些改進的模型開辟了新的可能性,但是它們只有在可以
    發(fā)表于 11-02 15:09

    如何通過cube-ai擴展將機器學(xué)習(xí)模型部署到STM32H743ZIT6?

    我正在嘗試通過 cube-ai 擴展將機器學(xué)習(xí)模型部署到 STM32H743ZIT6。該模型采用 .tflite 格式。當我嘗試分析模型時,
    發(fā)表于 12-30 08:57

    【KV260視覺入門套件試用體驗】Vitis AI 構(gòu)建開發(fā)環(huán)境,并使用inspector檢查模型

    量化 七、Vitis AI 通過遷移學(xué)習(xí)訓(xùn)練自定義模型 八、Vitis AI 將自定義模型編譯并部署到KV260中 鋪墊 Vitis
    發(fā)表于 10-14 15:34

    何在小型集群中部署Xilinx FPGA

    Xilinx FPGA是支持OpenStack的第一個(也是目前唯一的)FPGA。 該視頻快速介紹了如何在小型集群中部署Xilinx FPGA
    的頭像 發(fā)表于 11-23 06:14 ?4127次閱讀

    企業(yè)AI模型部署怎么做

    AI模型部署作為這一轉(zhuǎn)型過程中的關(guān)鍵環(huán)節(jié),其成功實施對于企業(yè)的長遠發(fā)展至關(guān)重要。在此,AI部落小編為您介紹企業(yè)AI
    的頭像 發(fā)表于 11-04 10:15 ?1042次閱讀

    AI模型部署和管理的關(guān)系

    AI模型部署與管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術(shù)從實驗室走向?qū)嶋H應(yīng)用。
    的頭像 發(fā)表于 11-21 10:02 ?823次閱讀

    企業(yè)AI模型部署攻略

    當下,越來越多的企業(yè)開始探索和實施AI模型,以提升業(yè)務(wù)效率和競爭力。然而,AI模型部署并非易事,需要企業(yè)在多個層面進行細致的規(guī)劃和準備。下
    的頭像 發(fā)表于 12-23 10:31 ?1036次閱讀

    何在RAKsmart服務(wù)器上實現(xiàn)企業(yè)AI模型部署

    AI模型的訓(xùn)練與部署需要強大的算力支持、穩(wěn)定的網(wǎng)絡(luò)環(huán)境和專業(yè)的技術(shù)管理。RAKsmart作為全球領(lǐng)先的服務(wù)器托管與云計算服務(wù)提供商,已成為企業(yè)部署A
    的頭像 發(fā)表于 03-27 09:46 ?651次閱讀

    企業(yè)部署AI模型怎么做

    當下,AI模型已成為驅(qū)動決策自動化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對動輒數(shù)百億參數(shù)的大模型部署時,常陷入算力不足、響應(yīng)延遲高、成本失控等困境。如何突破瓶頸,實現(xiàn)高效、穩(wěn)
    的頭像 發(fā)表于 06-04 09:26 ?454次閱讀