chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

1 GHz Arm? Cortex?-M85 MCU上部署AI模型

RT-Thread官方賬號 ? 2025-12-02 21:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文將手把手帶你實(shí)現(xiàn)實(shí)時人臉檢測,并將完整流程開源。打通從數(shù)據(jù)采集、模型訓(xùn)練、量化轉(zhuǎn)換,到集成部署的每一個環(huán)節(jié)。我們已為你準(zhǔn)備好了數(shù)據(jù)集、訓(xùn)練代碼、轉(zhuǎn)換工具鏈與RT-Thread工程。只需跟隨步驟,即可體驗在1 GHz Arm Cortex-M85 MCU上部署AI模型。(公眾號后臺回復(fù)RA8P1,加入交流群)

目錄


應(yīng)用效果預(yù)覽


流程圖


環(huán)境準(zhǔn)備


訓(xùn)練模型


ai模型轉(zhuǎn)換


ai模型部署


網(wǎng)盤資源及培訓(xùn)視頻

1 應(yīng)用效果預(yù)覽

7ebd25e4-cf7f-11f0-8ce9-92fbcf53809c.png

2 流程圖

提示:可以上下滑動

7ed07590-cf7f-11f0-8ce9-92fbcf53809c.png7edf225c-cf7f-11f0-8ce9-92fbcf53809c.png

3 環(huán)境準(zhǔn)備

3.1 硬件清單

開發(fā)板:RA8P1開發(fā)板(Titan Board)。

7eedbed4-cf7f-11f0-8ce9-92fbcf53809c.jpg

或復(fù)制鏈接購買:https://item.taobao.com/item.htm?ft=t&id=987791181903


傳感器/外設(shè):RGB565屏幕和攝像頭

3.2 軟件與?具

RT-Thread Studio

Python 3.9–3.11,pip包:pytorch等ai庫

Yolo-Fastest

3.3 RT-Thread Studio

在 RT-Thread Studio 中下載 Titan-Board SDK 及相關(guān)依賴(下載Titan-Board SDK 時,其他依賴會自動下載)。

7eff49b0-cf7f-11f0-8ce9-92fbcf53809c.png

網(wǎng)盤中提供了下載好的 Titan-Board SDK,可以通過導(dǎo)入的方式安裝 SDK。

7f0af896-cf7f-11f0-8ce9-92fbcf53809c.png

選擇 SDK 壓縮包。

7f1477cc-cf7f-11f0-8ce9-92fbcf53809c.png

導(dǎo)入成功。

7f289b44-cf7f-11f0-8ce9-92fbcf53809c.png

提示:如果在燒錄時檢測不到 DAP-Link,按下方鏈接中的步驟操作即可解決。

https://rt-thread-studio.github.io/sdk-bsp-ra8p1-titan-board/latest/faq/FAQ_page/README_zh.html

3.4. Python 環(huán)境

參考https://github.com/AlexeyAB/darknet?tab=readme-ov-file#how-to-compile-on-windows-using-cmake

由于需要安裝vs 2022、cmake等工具,下載需要的時間過久,我這邊有編譯好的darknet.exe,可以使用cpu直接訓(xùn)練模型,如果需要使用gpu訓(xùn)練模型,可以按照darknet官方的安裝步驟重新編譯。

編譯前注意修改配置文件,根據(jù)自己的需求修改。

option(CMAKE_VERBOSE_MAKEFILE"Create verbose makefile"ON)option(CUDA_VERBOSE_BUILD"Create verbose CUDA build"OFF)option(BUILD_SHARED_LIBS"Create dark as a shared library"ON)option(BUILD_AS_CPP"Build Darknet using C++ compiler also for C files"OFF)option(BUILD_USELIB_TRACK"Build uselib_track"ON)option(MANUALLY_EXPORT_TRACK_OPTFLOW"Manually export the TRACK_OPTFLOW=1 define"OFF)option(ENABLE_OPENCV"Enable OpenCV integration"OFF)option(ENABLE_CUDA"Enable CUDA support"OFF)option(ENABLE_CUDNN"Enable CUDNN"OFF)option(ENABLE_CUDNN_HALF"Enable CUDNN Half precision"OFF)option(ENABLE_ZED_CAMERA"Enable ZED Camera support"OFF)option(ENABLE_VCPKG_INTEGRATION"Enable VCPKG integration"OFF)

3.5. Conda 安裝

雙擊安裝miniconda,注意這一步要選擇添加環(huán)境變量

7f3c4d06-cf7f-11f0-8ce9-92fbcf53809c.png

3.6. 安裝 Python 環(huán)境

導(dǎo)入環(huán)境,convert用于將darknet模型轉(zhuǎn)為tflite模型并量化。

3.6.1. convert

下面是安裝方式,二選一

解壓(推薦)

將convert.zip解壓到anaconda安裝目錄的envs中。

7f49fbf4-cf7f-11f0-8ce9-92fbcf53809c.png

安裝keras-YOLOv3-model-set環(huán)境。

condacreate-nconvertpython=3.8conda activateconvertcd keras-YOLOv3-model-setpip install Cythonpip install-r requirements.txt

3.6.2. ruhmi

安裝ruhmi環(huán)境, 用于將量化后的tflite模型轉(zhuǎn)為能在開發(fā)板上部署的模型。

condacreate -n ruhmi python=3.10condaactivate ruhmicdruhmi-framework-mcupipinstall"install\mera-2.4.0+pkg.179-cp310-cp310-win_amd64.whl"pipinstall onnx==1.17.0tflite==2.18.0

4 訓(xùn)練模型

4.1 收集數(shù)據(jù)

使用labelimg創(chuàng)建數(shù)據(jù)集。

7f57e4c6-cf7f-11f0-8ce9-92fbcf53809c.png

創(chuàng)建好的數(shù)據(jù)集可以使用Yolo-Fastest\scripts\xml2yolo.py來轉(zhuǎn)為yolo格式。同時會得到會得到train.txt和val.txt的生成路徑。

python scripts/xml2yolo.py

修改voc.names。

face

得到anchor。

darknet.exe detector calc_anchors datasets/voc.data -num_of_clusters9-width192-height192

得到的anchor如下,每個人每次生成都不一樣。

anchors= 3, 5, 6,10, 11,17, 14,30, 25,25, 25,52, 43,54, 58,90, 94,117

修改yolo-fastest.cfg。

width=192height=192channels=1
# 兩個yolo都要改[convolutional]size=1stride=1pad=1filters=18activation=linear
[yolo]mask=0,1,2anchors= 3, 5, 6,10, 11,17, 14,30, 25,25, 25,52, 43,54, 58,90, 94,117classes=1

我提取收集整理好了人臉識別數(shù)據(jù),位于datasets中。

7f792f6e-cf7f-11f0-8ce9-92fbcf53809c.png

4.2 訓(xùn)練

使用我編譯好的darknet.exe

cdYolo-fastestdarknet.exe detector train datasets/voc.data datasets/yolo-fastest.cfg -dont_show

大概訓(xùn)練2小時才會有好一些的模型結(jié)果(GPU啟動訓(xùn)練的情況下)。

7f8bf9be-cf7f-11f0-8ce9-92fbcf53809c.png7f968bcc-cf7f-11f0-8ce9-92fbcf53809c.png

5 AI部署轉(zhuǎn)換

訓(xùn)練模型結(jié)束后,會在Yolo-fastest/backup中保存模型權(quán)重。我們選擇最后一輪的權(quán)重,用于轉(zhuǎn)換。

7fa83304-cf7f-11f0-8ce9-92fbcf53809c.png

5.1 darknet->tflite

轉(zhuǎn)換代碼需要的參數(shù)如下。

7fd7a076-cf7f-11f0-8ce9-92fbcf53809c.png

我們需要復(fù)制訓(xùn)練好的權(quán)重、cfg文件到keras-YOLOv3-model-set下,然后運(yùn)行,這里需要稍等一會,需要大概6分鐘。

conda activate convertcd /path/to/keras-YOLOv3-model-setpython tools/model_converter/conver2tflite_and_int8.py--config_pathyolo-fastest.cfg--weights_pathyolo-fastest_last.weights--output_pathface.h5--int8_img_path../Yolo-Fastest/datasets/face/data_1/train/image/--save_tflite_pathface_int8.tflite-f

最終會得到face_int8.tflite模型。

7feca4da-cf7f-11f0-8ce9-92fbcf53809c.png

5.2 tflite->ruhmi

將上?步得到的tflite文件復(fù)制到ruhmi-framework-mcu/models下,然后運(yùn)行以下指令

conda activate ruhmicd /path/to/ruhmi-framework-mcu/scriptspython mcu_deploy.py--ethos--ref_data../models/ deploy_qtzed_ethos

7ff9e3de-cf7f-11f0-8ce9-92fbcf53809c.png

6 AI部署模型

在 RT-Thread Studio 中創(chuàng)建示例工程。

800dc0f2-cf7f-11f0-8ce9-92fbcf53809c.png

創(chuàng)建 ai 示例工程。

8019926a-cf7f-11f0-8ce9-92fbcf53809c.png

tflite->ruhmi會在ruhmi-framework-mcu/scripts下生成可部署模型?件,路徑如下

802a5b5e-cf7f-11f0-8ce9-92fbcf53809c.png

接下來,刪除*_io_data.*hal_entry.c,然后將剩下的文件拷貝到剛剛創(chuàng)建的示例工程的Titan_npu_ai_face_detection/src/models下。

編譯然后下載。

80379350-cf7f-11f0-8ce9-92fbcf53809c.png804a46b2-cf7f-11f0-8ce9-92fbcf53809c.png

檢測效果如下

805a7afa-cf7f-11f0-8ce9-92fbcf53809c.png

7 網(wǎng)盤資源及培訓(xùn)視頻

網(wǎng)盤資源鏈接:https://pan.baidu.com/s/16OwyiITyhET6k-BtPnJokw?pwd=d983

培訓(xùn)視頻鏈接:

https://www.bilibili.com/video/BV1nsUSBFE8U/?spm_id_from=333.1387.collection.video_card.click

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • mcu
    mcu
    +關(guān)注

    關(guān)注

    147

    文章

    18605

    瀏覽量

    387033
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38091

    瀏覽量

    296592
  • RT-Thread
    +關(guān)注

    關(guān)注

    32

    文章

    1540

    瀏覽量

    44280
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    RA8P1部署ai模型指南:從訓(xùn)練模型部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項目能否落地。我們帶你基于RA8P1平臺,跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量化轉(zhuǎn)換,到工程
    的頭像 發(fā)表于 11-20 18:06 ?1636次閱讀
    RA8P<b class='flag-5'>1</b><b class='flag-5'>部署</b><b class='flag-5'>ai</b><b class='flag-5'>模型</b>指南:從訓(xùn)練<b class='flag-5'>模型</b>到<b class='flag-5'>部署</b>?|?本周六

    瑞薩電子RA8D2系列MCU產(chǎn)品介紹

    瑞薩電子RA8D2系列包括支持圖形處理功能的32位單核和雙核MCU,集成了支持Helium矢量擴(kuò)展技術(shù)的1GHz Arm Cortex-M85和250MHz
    的頭像 發(fā)表于 10-31 15:38 ?1899次閱讀
    瑞薩電子RA8D2系列<b class='flag-5'>MCU</b>產(chǎn)品介紹

    瑞薩電子RA8P1系列32位AI MCU介紹

    RA8P1系列是瑞薩電子首款搭載高性能Arm Cortex-M85(支持Helium矢量擴(kuò)展)及Ethos-U55 NPU的32位AI加速微控制器(
    的頭像 發(fā)表于 09-23 10:15 ?2551次閱讀
    瑞薩電子RA8P<b class='flag-5'>1</b>系列32位<b class='flag-5'>AI</b> <b class='flag-5'>MCU</b>介紹

    貿(mào)澤開售Renesas Electronics RA8P1微控制器 為先進(jìn)AI提供高CPU性能

    的RA8P1 微控制器 (MCU)。RA8P1微控制器將Arm? Cortex ? -M85 (
    的頭像 發(fā)表于 09-17 14:49 ?610次閱讀
    貿(mào)澤開售Renesas Electronics RA8P<b class='flag-5'>1</b>微控制器  為先進(jìn)<b class='flag-5'>AI</b>提供高CPU性能

    如何在基于Arm架構(gòu)的邊緣AI設(shè)備上部署飛槳模型

    當(dāng) Arm 與領(lǐng)先的開源深度學(xué)習(xí)平臺強(qiáng)強(qiáng)聯(lián)合,會帶來什么?那就是推動創(chuàng)新的“火箭燃料”。Arm 攜手百度,利用雙方在高能效計算平臺與 AI 模型的技術(shù)積累,助力廣大開發(fā)者加快邊緣
    的頭像 發(fā)表于 09-06 14:07 ?826次閱讀

    新唐科技推出高效AI MCU部署工具NuML Toolkit

    ,這套工具整合模型轉(zhuǎn)換、項目生成、部署與除錯流程,特別針對 NuMicro M55M1 微控制器平臺優(yōu)化,廣受使用者一致好評。
    的頭像 發(fā)表于 08-01 17:21 ?1871次閱讀

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    Arm方案 基于Arm架構(gòu)的邊緣側(cè)設(shè)備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構(gòu)的邊緣側(cè)設(shè)備上部署 PyTorch 模型。
    的頭像 發(fā)表于 07-28 11:50 ?2497次閱讀

    地表最強(qiáng)M85內(nèi)核芯片-RA8P1測評 | 技術(shù)集結(jié)

    瑞薩電子宣布推出針對人工智能(AI)、機(jī)器學(xué)習(xí)(ML)應(yīng)用以及實(shí)時分析的RA8P1微控制器(MCU)產(chǎn)品群。該系列MCU通過將1GHzArmCort
    的頭像 發(fā)表于 07-05 10:04 ?2430次閱讀
    地表最強(qiáng)<b class='flag-5'>M85</b>內(nèi)核芯片-RA8P<b class='flag-5'>1</b>測評 | 技術(shù)集結(jié)

    stm32N657上部署cubeAI生成代碼,編譯出錯的原因?怎么解決?

    你好,要怎么在stm32N657上部署cubeAI生成代碼呢,編譯出錯,我使用cubeAI生成的手寫數(shù)字模型的代碼,編譯報錯 要怎么配置呢,我看其他AI demo都是分了兩個文件,這里要怎么燒錄進(jìn)去使用呢?
    發(fā)表于 06-20 06:31

    RAKsmart企業(yè)服務(wù)器上部署DeepSeek編寫運(yùn)行代碼

    在RAKsmart企業(yè)服務(wù)器上部署并運(yùn)行DeepSeek模型的代碼示例和詳細(xì)步驟。假設(shè)使用 Python + Transformers庫 + FastAPI實(shí)現(xiàn)一個基礎(chǔ)的AI服務(wù)。主機(jī)推薦小編為您整理發(fā)布RAKsmart企業(yè)服務(wù)
    的頭像 發(fā)表于 03-25 10:39 ?540次閱讀

    基于stm32h743IIK在cubeai上部署keras模型模型輸出結(jié)果都是同一組概率數(shù)組,為什么?

    基于stm32h743IIK,在cubeai上部署keras模型模型輸出結(jié)果都是同一組概率數(shù)組,一點(diǎn)也搞不明白,看社區(qū)也有相同的問題,但沒有解決方案
    發(fā)表于 03-10 06:42

    AI MCU# 瑞薩RA8T1搭載 Helium 和 TrustZone 的電機(jī)控制MCU 詳細(xì)介紹

    Renesas Electronics RA8T1 Arm? Cortex?-M85微控制器 Renesas Electronics RA8T1
    的頭像 發(fā)表于 03-03 14:26 ?1562次閱讀
    <b class='flag-5'>AI</b> <b class='flag-5'>MCU</b># 瑞薩RA8T<b class='flag-5'>1</b>搭載 Helium 和 TrustZone 的電機(jī)控制<b class='flag-5'>MCU</b> 詳細(xì)介紹

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測試,開啟這場充滿挑戰(zhàn)與驚喜的技術(shù)探索之旅。 RK3588 開發(fā)板:AI 性能擔(dān)當(dāng) RK3588 開發(fā)板基于先進(jìn)的 8nm LP 制程工藝精心打造,其硬件配置堪稱豪華,在
    發(fā)表于 02-14 17:42

    企業(yè)AI模型部署攻略

    當(dāng)下,越來越多的企業(yè)開始探索和實(shí)施AI模型,以提升業(yè)務(wù)效率和競爭力。然而,AI模型部署并非易事,需要企業(yè)在多個層面進(jìn)行細(xì)致的規(guī)劃和準(zhǔn)備。下
    的頭像 發(fā)表于 12-23 10:31 ?1299次閱讀