chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

模型案例之帳篷檢測模型

柴火創(chuàng)客空間 ? 來源:未知 ? 2024-12-06 11:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

2023年以ChatGPT為代表的大語言模型橫空出世,它的出現(xiàn)標志著自然語言處理領域取得了重大突破。它在文本生成、對話系統(tǒng)和語言理解等方面展現(xiàn)出了強大的能力,為人工智能技術的發(fā)展開辟了新的可能性。同時,人工智能技術正在進入各種應用領域,在智慧城市、智能制造、智慧醫(yī)療、智慧農業(yè)等領域發(fā)揮著重要作用。

柴火創(chuàng)客2024年將依托母公司Seeed矽遞科技在人工智能領域的創(chuàng)新硬件,與全球創(chuàng)客愛好者共建“模型倉”,通過“SenseCraft AI”平臺可以讓使用者快速部署應用體驗人工智能技術!

RT-DETR

目標檢測一直面臨著一個重大挑戰(zhàn)-平衡速度和準確性。像YOLO這樣的傳統(tǒng)模型速度很快,但需要一個名為非極大值抑制(NMS)的后處理步驟,這會減慢檢測速度。NMS過濾重疊的邊界框,但這會引入額外的計算時間,影響整體速度。

RT-DETR 實時端到端目標檢測器,旨在解決現(xiàn)有目標檢測方法在速度和精度上的問題。該方法在保持較高檢測精度的同時,顯著提升了推理速度,為實時目標檢測提供了新的解決方案。

0213c752-b228-11ef-93f3-92fbcf53809c.png

RT-DETR是基于DETR架構的端到端對象檢測器,完全消除了對NMS的需求。通過這樣做,RT-DETR顯著減少了之前基于卷積神經網絡(CNN)的對象檢測器(如YOLO系列)的延遲。它結合了強大的主干、混合編碼器和獨特的查詢選擇器,可以快速準確地處理特征。

0238daba-b228-11ef-93f3-92fbcf53809c.png

RT-DETR 架構的關鍵組成

骨干網絡:提取特征,文中實驗了 ResNet 和可縮放的 HgNetV2 兩種骨干網絡,選擇其最后三個階段的特征輸入到編碼器。

高效混合編碼器:通過解耦尺度內交互和跨尺度融合來高效處理多尺度特征,它由兩部分組成:

·AIFI(Attention-based Intra-scale Feature Interaction):僅在上使用單尺度 Transformer 編碼器進行層內特征交互,以捕獲更豐富的語義概念,降低復雜度并提高整體精度。

·CCFF(CNN-based Cross-scale Feature Fusion):基于跨尺度融合模塊進行優(yōu)化,在融合路徑中插入多個由卷積層組成的融合塊,用于融合相鄰尺度的特征。融合塊包含兩個 1×1 卷積調整通道數(shù),使用 RepConv 組成的 N 個 RepBlocks 進行特征融合,通過元素相加融合兩條路徑的輸出。

Transformer 解碼器:解碼器通過不確定性最小查詢選擇模塊,從編碼器輸出的特征序列中選擇固定數(shù)量的特征作為初始對象查詢,然后利用輔助預測頭迭代優(yōu)化對象查詢,生成類別和邊界框。

此外,RT-DETR 支持靈活調整推理速度,通過調整解碼器層數(shù)實現(xiàn),而無需重新訓練。同時,它還支持通過控制編碼器和解碼器的參數(shù)來實現(xiàn)模型的縮放。

024a685c-b228-11ef-93f3-92fbcf53809c.png

RT-DETR特點

高效混合編碼器:采用高效混合編碼器,通過解耦尺度內交互和跨尺度融合來處理多尺度特征。這種基于 Vision Transformers 的獨特設計降低了計算成本,允許實時物體檢測。

IoU 感知查詢選擇:利用 IoU 感知查詢選擇改進了對象查詢初始化,使模型能夠專注于場景中最相關的對象,從而提高檢測準確性。

推理速度可調:支持通過使用不同的解碼器層靈活調整推理速度,無需重新訓練。這種適應性有助于在各種實時目標檢測場景中的實際應用。

025fb158-b228-11ef-93f3-92fbcf53809c.png

實時性能:實現(xiàn)了實時目標檢測速度,相比許多基于 Transformer 的模型,其推理速度更快。

無錨框設計:不依賴于錨框,直接預測物體的邊界框和類別,提高了模型的靈活性和檢測效率,減少了超參數(shù)調優(yōu)的工作量,提升了小目標檢測的性能。

端到端訓練:采用端到端的訓練方式,不需要像傳統(tǒng)的檢測方法那樣經過復雜的后處理步驟,如非極大值抑制(NMS),提高了訓練效率并減少了推理的復雜度。

0272d90e-b228-11ef-93f3-92fbcf53809c.png

高精度:在速度和精度方面均超過了 YOLO 系列等其他實時檢測器,例如 RT-DETR-R50 在 COCO val2017 上達到 53.1% 的 AP 和 108 FPS,RT-DETR-R101 達到 54.3% 的 AP 和 74 FPS。

可擴展性:支持模型的縮放,通過控制編碼器和解碼器的參數(shù),如調整寬度(嵌入尺寸和通道數(shù))和深度(Transformer 層數(shù)和 RepBlocks),以適應不同場景的需求。

高效處理多尺度特征:集成了多尺度特征融合模塊,能夠同時處理大中小不同尺寸的目標,在檢測小目標時表現(xiàn)優(yōu)異。

帳篷檢測模型

027fac74-b228-11ef-93f3-92fbcf53809c.png

該 AI 模型利用先進的 Swift yolo 算法,專注于帳篷識別,可以在實時視頻流中準確檢測和標記帳篷。它特別適用于 Seeed Studio Grove Vision AI (V2) 設備,提供高兼容性和穩(wěn)定性。

露營場景應用

0290f25e-b228-11ef-93f3-92fbcf53809c.png

營地管理與布局優(yōu)化:

- 幫助營地主動監(jiān)控帳篷的分布情況,可以分析不同區(qū)域的帳篷數(shù)量,優(yōu)化露營地的布局,確保合理利用空間,避免擁堵。

安全與防災:

- 在天氣突變或出現(xiàn)自然災害時(如暴風雨、洪水等),可以實時檢測帳篷所在地的環(huán)境變化,警告營地管理者采取相應措施,保障露營者的安全。

資源分配與監(jiān)控:

- 管理者可以根據檢測到的帳篷數(shù)量和分布,合理分配營地的水、電及其他資源,更高效地滿足露營者的需求。

數(shù)據收集與分析:

- 通過持續(xù)監(jiān)測帳篷的數(shù)量和動態(tài)變化,營地管理者可以收集露營高峰期的數(shù)據,從而為未來的活動策劃和資源配置提供參考。

客戶體驗提升:

- 通過分析帳篷的分布及活動情況,管理者可以為露營者提供個性化的建議,如推薦適合的露營區(qū)域、活動和服務,提升整體體驗。

野生動物監(jiān)測與管理:

- 利用帳篷檢測技術,營地管理人員可以監(jiān)控露營區(qū)域對當?shù)厣鷳B(tài)環(huán)境的影響,合理安排活動,以保護野生動物棲息環(huán)境。

應急響應:

- 在緊急情況下,例如露營者的失蹤或事故發(fā)生時,模型可以幫助定位帳篷位置,快速調派救援力量。

智能化露營服務:

- 在自動化和智能化露營平臺中,帳篷檢測模型可以與其他智能設備和系統(tǒng)集成,為露營者提供實時信息和服務,如天氣預報、急救指引等。

在Grove-VisionAIV2上部署模型

1、打開SenseCraft AI平臺,如果第一次使用請先注冊一個會員賬號,還可以設置語言為中文。

平臺地址:https://sensecraft.seeed.cc/ai/#/model

02b842be-b228-11ef-93f3-92fbcf53809c.png

2、在頂部單擊【預訓練模型】菜單,在公共AI模型列表9中找到【帳篷檢測】模型,單擊此模型圖片,如下圖所示。

02d8a428-b228-11ef-93f3-92fbcf53809c.png

3、進入【帳篷檢測】模型介紹頁面,單擊右側的“部署模型”按鈕,如下圖所示。

02ef4dc2-b228-11ef-93f3-92fbcf53809c.png

4、進入部署帳篷檢測模型頁面,按提示步驟先連接攝像頭,再連接設備到電腦USB接口上,最后單擊【連接設備】按鈕,如下圖所示。

030b6020-b228-11ef-93f3-92fbcf53809c.png

5、彈出部署模型窗口,單擊“確定”按鈕,如下圖所示。

0329ec34-b228-11ef-93f3-92fbcf53809c.png

6、彈出連接到串行端口窗口,選擇端口號后單擊“連接”按鈕,如下圖所示。

0334f5e8-b228-11ef-93f3-92fbcf53809c.png

7、開始進行模型部署、固件下載、設備重啟等過程,完成后在預覽中即可看到當前攝像頭視頻內容,將攝像頭對準露營中的帳篷圖片查看預測效果,如下圖所示。

033c72aa-b228-11ef-93f3-92fbcf53809c.png

預測效果視頻演示

Grove Al視覺模塊 V2套裝介紹

0357d824-b228-11ef-93f3-92fbcf53809c.png

Grove Al視覺模塊 V2

036e9e24-b228-11ef-93f3-92fbcf53809c.png

OV5647-62攝像頭

Grove - Vision Al Module V2是一款拇指大小的人工智能視覺模塊, 配備Himax WiseEye2 HX6538處理器, 該處理器采用 ArmCortex-M55雙核架構。

它具有標準的CSI接口, 并與樹莓派相機兼容。它有一個內置的數(shù)字麥克風和SD卡插槽。它非常適用于各種嵌入式視覺項目。

有了SenseCraft Al算法平臺, 經過訓練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測應用的理想選擇。

Arm Ethos-U55 嵌入式神經網絡處理器(NPU)

嵌入式神經網絡處理器(NPU)是一種特別設計用于執(zhí)行神經網絡計算的高效率處理器。它主要基于數(shù)據驅動并行計算架構,特別擅長處理視頻、圖像等大量的多媒體數(shù)據。NPU模仿了生物神經網絡的架構,與CPU、GPU相比,它能夠通過更少的指令(一條或幾條)完成神經元的處理,因此在深度學習的處理效率方面具有明顯優(yōu)勢。

它具有標準的CSI接口, 并與樹莓派相機兼容。它有一個內置的數(shù)字麥克風和SD卡插槽。它非常適用于各種嵌入式視覺項目。

有了SenseCraft Al算法平臺, 經過訓練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測應用的理想選擇。

主要硬件配置

- 板卡基于WiseEye2 HX6538處理器, 采用雙核ARM Cortex-M55架構 。

- 配備集成Arm Ethos-U55微神經網絡加速單元, 兼容的樹莓派相機

- 板載PDM麥克風, SD卡插槽, Type-C, Grove接口, 豐富的外設支持樣機開發(fā) 。

- Seeed Studio XIAO的可擴展性, SenseCraft Al的現(xiàn)成AI模型用于無代碼部署。

- 支持各種有效的模型, 包括MobilenetV1、MobilenetV2、 Eficientnet-Lite、Yolov5和Yolov8。

寫在最后

SenseCraft-AI平臺的模型倉數(shù)量還很少,但是好消息是它支持自定義模型上傳并輸出推理結果,平臺會逐漸增加模型倉的數(shù)量和分享有愛好者設計的模型倉原型,敬請關注!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關注

    關注

    9

    文章

    1199

    瀏覽量

    42554
  • 人工智能
    +關注

    關注

    1811

    文章

    49497

    瀏覽量

    258151
  • 目標檢測
    +關注

    關注

    0

    文章

    230

    瀏覽量

    16317

原文標題:模型案例:| 帳篷檢測模型!

文章出處:【微信號:ChaiHuoMakerSpace,微信公眾號:柴火創(chuàng)客空間】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVMe高速傳輸擺脫XDMA設計27: 橋設備模型設計

    橋設備模型模擬虛擬 PCI 橋設備的配置空間和路由功能。 橋設備是拓展 PCIe 鏈路的關鍵設備, 在 NVMe 子系統(tǒng)模型中, 橋設備模型一方面負責模擬 PCIE 集成塊的配置空間, 另一方面用于
    發(fā)表于 09-18 09:11

    請問嘉楠平臺k230訓練的跌倒檢測模型里面的設置是怎么樣的?

    我想要了解K230所使用的跌倒檢測模型中的設置,例如人體檢測是如何實現(xiàn)的,在模型檢測中,人體的節(jié)點是多少?;蛘呦胝埥桃幌孪嚓P的文檔或者內容在
    發(fā)表于 06-23 07:05

    FA模型卡片和Stage模型卡片切換

    卡片切換 卡片切換主要包含如下三部分: 卡片頁面布局:FA模型卡片和Stage模型卡片的布局都采用類web范式開發(fā)可以直接復用。 卡片配置文件:FA模型的卡片配置在config.json中
    發(fā)表于 06-06 08:10

    FA模型和Stage模型API切換概述

    API切換概述 FA模型和Stage模型由于線程模型和進程模型的差異,部分接口僅在FA模型下才能使用,針對這部分接口在SDK的接口中有FA
    發(fā)表于 06-06 06:29

    從FA模型切換到Stage模型時:module的切換說明

    升級到Stage模型時,Stage模型的name需要和FA模型的package保持一致,否則會導致升級失敗。 name標識HAP的類名。/FA模型中實際未使能,Stage
    發(fā)表于 06-05 08:16

    FA模型訪問Stage模型DataShareExtensionAbility說明

    FA模型訪問Stage模型DataShareExtensionAbility 概述 無論FA模型還是Stage模型,數(shù)據讀寫功能都包含客戶端和服務端兩部分。 FA
    發(fā)表于 06-04 07:53

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩種不同的應用模型
    發(fā)表于 04-24 07:27

    如何使用OpenVINO?運行對象檢測模型?

    無法確定如何使用OpenVINO?運行對象檢測模型
    發(fā)表于 03-06 07:20

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發(fā)與優(yōu)化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經預訓練好的大型深度學習模型基礎上,使用新的、特定任務相關的數(shù)據
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗】對大模型更深入的認知

    閱讀《大模型啟示錄》這本書,我得說,它徹底顛覆了我對大模型的理解。作為一個經常用KIMI和豆包這類AI工具來完成作業(yè)、整理資料的大學生,我原以為大模型就是這些工具背后的技術。但這本書讓我意識到
    發(fā)表于 12-20 15:46

    模型案例綿羊檢測模型

    ? 導讀? ? 2023年以ChatGPT為代表的大語言模型橫空出世,它的出現(xiàn)標志著自然語言處理領域取得了重大突破。它在文本生成、對話系統(tǒng)和語言理解等方面展現(xiàn)出了強大的能力,為人工智能技術的發(fā)展
    的頭像 發(fā)表于 12-20 10:27 ?646次閱讀
    <b class='flag-5'>模型</b>案例<b class='flag-5'>之</b>綿羊<b class='flag-5'>檢測</b><b class='flag-5'>模型</b>

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    以及邊緣計算能力的增強,越來越多的目標檢測應用開始直接在靠近數(shù)據源的邊緣設備上運行。這不僅減少了數(shù)據傳輸延遲,保護了用戶隱私,同時也減輕了云端服務器的壓力。然而,在邊緣端部署高效且準確的目標檢測模型
    發(fā)表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗】如何在客服領域應用大模型

    在客服領域是大模型落地場景中最多的,也是最容易實現(xiàn)的。本身客服領域的特點就是問答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書,學習大模型在客服領域的改變。選擇大
    發(fā)表于 12-17 16:53

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    本文通俗簡單地介紹了什么是大模型、大模型是怎么訓練出來的和大模型的作用。 ? 什么是大模型模型,英文名叫Large Model,大型
    的頭像 發(fā)表于 11-25 09:29 ?1.5w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么訓練出來的及大<b class='flag-5'>模型</b>作用

    模型動態(tài)測試工具TPT的軟件集成與測試支持#Siumlink模型測試 #TPT

    模型
    北匯信息POLELINK
    發(fā)布于 :2024年11月07日 11:20:29