chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Vision Board系列教程 | 神經(jīng)網(wǎng)絡模型訓練及部署指南

RT-Thread官方賬號 ? 2024-10-17 08:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

準備工作

win10/11系統(tǒng)的電腦

建議1張FAT32格式的SD

建議自備1根Type-C數(shù)據(jù)線

在正式進行開發(fā)前,需要安裝下圖中勾選的四個軟件?。?!

bc18ed40-8c1b-11ef-b5cd-92fbcf53809c.png

注冊賬號并創(chuàng)建Edge Impulse工程

打開Edge Impluse網(wǎng)站,注冊登錄。隨后在項目標簽頁創(chuàng)建新項目:

bc43e298-8c1b-11ef-b5cd-92fbcf53809c.png

上傳訓練集

按照以下步驟,依次點擊Dashboard->Add existing data->Upload data。

bc74450a-8c1b-11ef-b5cd-92fbcf53809c.pngbc9e4d32-8c1b-11ef-b5cd-92fbcf53809c.png

注意:若未在數(shù)據(jù)集中對圖片進行l(wèi)abel注釋(可參考官方文章),需要手動進行添加標簽,或直接選擇Enter label進行標簽定義。分3次單獨上傳3個不同圖片的文件夾,并添加label為ship、truck和plane。

生成特征

點擊左側(cè)Impulse design->Create Impulse,依次點擊Add a processing block、Add a learning block進行輸入數(shù)據(jù)對象、訓練模型的選擇,并點擊保存。(Add 帶星標的即可)

bcb4765c-8c1b-11ef-b5cd-92fbcf53809c.png

繼續(xù)點擊左側(cè)Image,Color depth選擇RGB,點擊保存。接下來會自動跳轉(zhuǎn)到生成特征界面,點擊生成特征按鈕,等待特征生成,結(jié)束后會有三維圖像顯示。

bccdee34-8c1b-11ef-b5cd-92fbcf53809c.png

遷移訓練

點擊左側(cè)Transfer learning按鈕,依次設置訓練參數(shù):訓練周期、學習率等參數(shù)。隨后選擇自己實驗最符合的訓練模型(默認選第一個),點擊開始訓練。

bcf17bec-8c1b-11ef-b5cd-92fbcf53809c.png

如果最后的結(jié)果和準確率不滿足自己的實驗要求,可嘗試重新訓練,重新更改參數(shù)及訓練模型。

bd22f5d2-8c1b-11ef-b5cd-92fbcf53809c.png

在Vision Board上部署

在左側(cè)點擊Deployment,搜索OpenMV library,點擊Build,等待固件生成。

bd48bfd8-8c1b-11ef-b5cd-92fbcf53809c.png

將下載下來的壓縮文件解壓("trained.tflite"、"labels.txt"、"ei_image_classification.py"),將ei_image_classification.py改名為main.py,隨后將3個文件全部復制到sd卡中去(取下SD卡,使用讀卡器將3個文件復制到sd卡)。

bd6d7ab2-8c1b-11ef-b5cd-92fbcf53809c.png

用Type-C線連接Vision Board USB-OTG口,隨后將sd卡中的main.py拖入OpenMV IDE中,打開并運行,此時可以在串口終端看見識別的結(jié)果及準確率。

bd896128-8c1b-11ef-b5cd-92fbcf53809c.png

使用虛擬U盤功能

點擊RT-Thread Setting-->TinyUSB->配置項

bdadf0b0-8c1b-11ef-b5cd-92fbcf53809c.png

在TinyUSB選項處依次點開USING USB device->Using Mass Storage Class(MSC),將The name of the block device used by MSC中的內(nèi)容更改為sd,隨后保存。重新點擊編譯,編譯完成后即可燒錄到開發(fā)板。(由于文件較大,時間可能會比較長)

注意:燒錄需要將Type-C線插到USB-DBG口,燒錄完成后再將線插到USB-OTG口,使能USB復合設備后,每次第一次上電需要先等待彈出U盤后再連接 OpenMV IDE!!否則會卡死!!

bddcf8f6-8c1b-11ef-b5cd-92fbcf53809c.png

彈出U盤后就可以把生成OpenMV固件拖至u盤中,隨后連接OpenMV IDE,即可體驗自己訓練的神經(jīng)網(wǎng)絡模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    深層神經(jīng)網(wǎng)絡模型訓練:過擬合優(yōu)化

    為了訓練出高效可用的深層神經(jīng)網(wǎng)絡模型,在訓練時必須要避免過擬合的現(xiàn)象。過擬合現(xiàn)象的優(yōu)化方法通常有三種。
    的頭像 發(fā)表于 12-02 14:17 ?3322次閱讀
    深層<b class='flag-5'>神經(jīng)網(wǎng)絡</b><b class='flag-5'>模型</b>的<b class='flag-5'>訓練</b>:過擬合優(yōu)化

    神經(jīng)網(wǎng)絡教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡基本模型  2.
    發(fā)表于 03-20 11:32

    關于BP神經(jīng)網(wǎng)絡預測模型的確定!!

    請問用matlab編程進行BP神經(jīng)網(wǎng)絡預測時,訓練結(jié)果很多都是合適的,但如何確定最合適的?且如何用最合適的BP模型進行外推預測?
    發(fā)表于 02-08 14:23

    請問Labveiw如何調(diào)用matlab訓練好的神經(jīng)網(wǎng)絡模型呢?

    我在matlab中訓練好了一個神經(jīng)網(wǎng)絡模型,想在labview中調(diào)用,請問應該怎么做呢?或者labview有自己的神經(jīng)網(wǎng)絡工具包嗎?
    發(fā)表于 07-05 17:32

    【AI學習】第3篇--人工神經(jīng)網(wǎng)絡

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡的起源、簡單神經(jīng)網(wǎng)絡模型、更多神經(jīng)網(wǎng)絡模型、機器學習的步驟:訓練與預
    發(fā)表于 11-05 17:48

    matlab實現(xiàn)神經(jīng)網(wǎng)絡 精選資料分享

    神經(jīng)神經(jīng)網(wǎng)絡,對于神經(jīng)網(wǎng)絡的實現(xiàn)是如何一直沒有具體實現(xiàn)一下:現(xiàn)看到一個簡單的神經(jīng)網(wǎng)絡模型用于訓練
    發(fā)表于 08-18 07:25

    如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡?

    如何用stm32cube.ai簡化人工神經(jīng)網(wǎng)絡映射?如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡?
    發(fā)表于 10-11 08:05

    卷積神經(jīng)網(wǎng)絡模型發(fā)展及應用

    network,DBN)[24], 從此拉開了深度學習大幕。隨著深度學習理論的研究和發(fā)展,研究人員提 出了一系列卷積神經(jīng)網(wǎng)絡模型。為了比較不同模型 的質(zhì)量,收集并整理了文獻中
    發(fā)表于 08-02 10:39

    如何使用TensorFlow將神經(jīng)網(wǎng)絡模型部署到移動或嵌入式設備上

    有很多方法可以將經(jīng)過訓練神經(jīng)網(wǎng)絡模型部署到移動或嵌入式設備上。不同的框架在各種平臺上支持Arm,包括TensorFlow、PyTorch、Caffe2、MxNet和CNTK,如And
    發(fā)表于 08-02 06:43

    卷積神經(jīng)網(wǎng)絡模型訓練步驟

    卷積神經(jīng)網(wǎng)絡模型訓練步驟? 卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)是一種常用的深度學習算法,廣泛應用于圖像識別、語音識別、自然語言處理等諸多
    的頭像 發(fā)表于 08-21 16:42 ?2466次閱讀

    cnn卷積神經(jīng)網(wǎng)絡模型 卷積神經(jīng)網(wǎng)絡預測模型 生成卷積神經(jīng)網(wǎng)絡模型

    cnn卷積神經(jīng)網(wǎng)絡模型 卷積神經(jīng)網(wǎng)絡預測模型 生成卷積神經(jīng)網(wǎng)絡模型? 卷積
    的頭像 發(fā)表于 08-21 17:11 ?1813次閱讀

    卷積神經(jīng)網(wǎng)絡訓練的是什么

    、訓練過程以及應用場景。 1. 卷積神經(jīng)網(wǎng)絡的基本概念 1.1 卷積神經(jīng)網(wǎng)絡的定義 卷積神經(jīng)網(wǎng)絡是一種前饋深度學習模型,其核心思想是利用卷積
    的頭像 發(fā)表于 07-03 09:15 ?1182次閱讀

    PyTorch神經(jīng)網(wǎng)絡模型構(gòu)建過程

    PyTorch,作為一個廣泛使用的開源深度學習庫,提供了豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓練部署神經(jīng)網(wǎng)絡模型。在神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-10 14:57 ?1166次閱讀

    怎么對神經(jīng)網(wǎng)絡重新訓練

    重新訓練神經(jīng)網(wǎng)絡是一個復雜的過程,涉及到多個步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡是一種強大的機器學習模型,廣泛應用于圖像識別、自然語言處理、語音識別等領域。然而,隨著時間的推移,數(shù)據(jù)分布可
    的頭像 發(fā)表于 07-11 10:25 ?1084次閱讀

    如何使用經(jīng)過訓練神經(jīng)網(wǎng)絡模型

    使用經(jīng)過訓練神經(jīng)網(wǎng)絡模型是一個涉及多個步驟的過程,包括數(shù)據(jù)準備、模型加載、預測執(zhí)行以及后續(xù)優(yōu)化等。
    的頭像 發(fā)表于 07-12 11:43 ?2265次閱讀