chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

目標(biāo)檢測YOLO系列算法的發(fā)展過程

新機(jī)器視覺 ? 來源:DeepHub IMBA ? 作者:Dr. Abduljabbar Asadi ? 2022-10-27 17:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文中將簡單總結(jié)YOLO的發(fā)展歷史,YOLO是計算機(jī)視覺領(lǐng)域中著名的模型之一,與其他的分類方法,例如R-CNN不同,R-CNN將檢測結(jié)果分為兩部分求解:物體類別(分類問題),物體位置即bounding box(回歸問題)不同,YOLO將任務(wù)統(tǒng)一為一個回歸問題。也就是相對于R-CNN系列的“看兩眼”(候選框提取與分類),YOLO只需要 You Only Look Once。

目標(biāo)檢測

我們?nèi)祟愔恍枰匆谎蹐D像就能知道圖像里面包含了那些物體,能夠知道這些物體在哪里,以及他們之間的相互關(guān)系。這是人類進(jìn)行目標(biāo)檢測的過程,但是當(dāng)談到人工智能計算機(jī)視覺中的視頻和圖像分析時,目標(biāo)檢測是一個有趣和不斷發(fā)展的主題,它從圖像和視頻中提供有意義和有價值的信息,可以為醫(yī)療保健、產(chǎn)品優(yōu)化、人臉識別、自動駕駛,衛(wèi)星圖像分析等不同領(lǐng)域提供巨大的幫助。檢測一個對象并從圖像中獲得高層次的語義或理解將通過3個步驟:

eddf98b4-4286-11ed-96c9-dac502259ad0.png

1、分類:這是一個有監(jiān)督的學(xué)習(xí)任務(wù),它將訓(xùn)練一個模型,如支持向量機(jī)(SVM), AdaBoost來理解一個對象是否在圖像中

2、定位:通過邊界框來區(qū)分對象圖像,顯示對象是否在圖像中(分類)

3、檢測:精確檢測物體所在的位置(物體定位)和它們所屬的組(物體分類)的過程。

下圖顯示了目標(biāo)檢測模型的結(jié)構(gòu)。像人工智能中的所有算法一樣,它從輸入層開始(輸入一個圖像),目標(biāo)檢測的兩個主要部分是Backbone和Head。Backbone的作用是提取特征,提供輸入的特征映射表示,一般都會使用ImageNet上的預(yù)訓(xùn)練模型。Head基于特征進(jìn)行訓(xùn)練,預(yù)測圖像中物體的類別及其邊界框。

在兩階段目標(biāo)檢測模型中, Faster R-CNN (Region-based Convolutional Neural Networks),使用區(qū)域建議網(wǎng)絡(luò)在第一階段和第二階段生成和選擇感興趣區(qū)域,并將區(qū)域建議向下發(fā)送并使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)分類和邊界框回歸。兩階段檢測器模型具有最高的準(zhǔn)確率,但通常較慢,因?yàn)楸仨殞γ總€選定區(qū)域進(jìn)行預(yù)測。因此很難將其用作實(shí)時對象檢測器。

單階段目標(biāo)檢測器,本文的YOLO(You Only Look Once),通過創(chuàng)建輸入圖像的特征圖、學(xué)習(xí)類別概率和整個圖像的邊界框坐標(biāo),將目標(biāo)識別視為一個簡單的回歸問題。算法只運(yùn)行一次。這樣的模型雖然準(zhǔn)確率稍微有所下降,但比兩階段目標(biāo)檢測器快得多,通常用于實(shí)時目標(biāo)檢測任務(wù)。

YOLO Version 1; 統(tǒng)一的實(shí)時目標(biāo)檢測框架

YOLO 是一個簡單的且不復(fù)雜的對象檢測模型,它對圖片進(jìn)行分析只需要“看一眼”,就可以預(yù)測目標(biāo)對象及其在輸入圖片上的位置。該算法將目標(biāo)檢測定義為單個回歸問題。將每個給定的圖像劃分為一個 S * S 網(wǎng)格系統(tǒng),該網(wǎng)格系統(tǒng)是圖像的子集或一部分,每個網(wǎng)格通過預(yù)測網(wǎng)格內(nèi)對象的邊界框數(shù)量來識別對象。

YOLO 執(zhí)行一個神經(jīng)卷積網(wǎng)絡(luò)來識別網(wǎng)格中的對象,預(yù)測對象周圍的邊界框以及它們屬于哪個類別的概率。概率被用作置信水平。卷積網(wǎng)絡(luò)的初始層從圖像中提取特征,全連接層預(yù)測概率。YOLO 工作流程如下圖所示:

ee0ceb5c-4286-11ed-96c9-dac502259ad0.png

為了識別圖像中的不同對象及其位置,使用多尺度滑動窗口掃描整個圖像,因?yàn)閷ο罂梢栽趫D像的每個部分以不同的大小顯示。提取滑動窗口的最佳大小和數(shù)量是很重要的,而且這是計算密集型的因?yàn)椴煌瑪?shù)量的候選或不相關(guān)的候選會影響結(jié)果。通過這種方式Y(jié)OLO可以與傳統(tǒng)算法相媲美,并且速度更快。這些步驟的示例如下圖所示。

ee35c540-4286-11ed-96c9-dac502259ad0.png

YOLO V1的優(yōu)勢:可以高速實(shí)時檢測物,能夠理解廣義對象表示,模型也不太復(fù)雜。

YOLO V1 的局限性:如果小對象以集群或組的形式出現(xiàn),則模型效果,例如下圖所示

ee93062e-4286-11ed-96c9-dac502259ad0.png

YOLO V1 訓(xùn)練是基于損失函數(shù)來展示檢測性能的,而損失函數(shù)沒有考慮窗口的大小,大框中的小錯誤是顯而易見的,但其實(shí)小框中的錯誤其實(shí)應(yīng)該更加被關(guān)注,因?yàn)樗麑徊⒈鹊挠绊懜?,交并比是一種評估指標(biāo),用于衡量數(shù)據(jù)集上對象檢測器模型的準(zhǔn)確性 [6]。

YOLO Version 2;YOLO9000:更快,更好,更強(qiáng)

對象檢測模型應(yīng)該快速、準(zhǔn)確,并且可以識別各種對象類別?;谶@個想法YOLO V2 出現(xiàn)了,與 YOLO V1 相比,在速度、準(zhǔn)確性和檢測大量物體的能力方面有各種改進(jìn)。這個新版本訓(xùn)練了 9000 個新類別,所以被稱作 YOLO9000。它將不同的數(shù)據(jù)集 ImageNet 和 COCO 結(jié)合起來,以提供更大量的分類數(shù)據(jù),擴(kuò)大檢測模型的范圍,并提高召回率 。COCO 用于目標(biāo)檢測,包含 80 個類別的 100,000 張圖像。

YOLO V2 結(jié)構(gòu)中使用Softmax 為每個邊界框提供客觀性分?jǐn)?shù)。Softmax為每一類多類分類任務(wù)分配一個在0到1之間的十進(jìn)制概率,在YOLO V2中,它也為圖像中的對象提供了多類分類的可能性。召回率則衡量正確檢測到真值對象的概率。YOLO V2 在分類和檢測數(shù)據(jù)集上聯(lián)合訓(xùn)練。該方法對圖像進(jìn)行標(biāo)記以進(jìn)行檢測,識別邊界框和對常見對象進(jìn)行分類。還是用僅具有類標(biāo)簽的圖像用于擴(kuò)展算法可以檢測的類別。YOLO V2 中一個有趣的點(diǎn),除了試圖提供更好和準(zhǔn)確的結(jié)果外,還提供了一個比 YOLO V1 更簡單的模型。

eece8820-4286-11ed-96c9-dac502259ad0.png

上表中看到,V2中增加了BN的操作。通過BN層對來自前一層的輸入執(zhí)行標(biāo)準(zhǔn)化和規(guī)范化,將輸入值縮放轉(zhuǎn)換。在Yolo V2中,Yolo V1的所有卷積層上添加BN,從而在Yolo V2中獲得2%以上的精度提升。BN還有助于穩(wěn)定訓(xùn)練,加速收斂,并在不過度擬合的情況下從模型中去除dropout。另一種提高準(zhǔn)確率的技術(shù)是使用更高分辨率的輸入,將輸入尺寸從224*224更改為448*448,這將提高4%的MAP(平均平均精度)。

YOLO Version 3;小改進(jìn),大提升

eef53cae-4286-11ed-96c9-dac502259ad0.png

在YOLO V3[9]中,只對YOLO的設(shè)計添加了一些更改,從而實(shí)現(xiàn)了更準(zhǔn)確、更好和更快的設(shè)計。在預(yù)測邊界的新結(jié)構(gòu)中,繼續(xù)使用V2的結(jié)構(gòu),但是增加了邏輯回歸用于預(yù)測每個邊界框的得分。當(dāng)一個邊界框在與真實(shí)對象重疊之預(yù)測結(jié)果比任何其他邊界框都多時,預(yù)測結(jié)果就為 1。當(dāng)邊界框不是最佳但與真實(shí)對象重疊超過閾值時,預(yù)測則被忽略,并且還引入了Faster R -CNN的方法,在 YOLO V3 中將優(yōu)先只考慮一個邊界框。

下圖顯示了YOLO V3 上的性能對比

ef3b0f22-4286-11ed-96c9-dac502259ad0.png

下圖則對 YOLO v2 與 V3 的比較。很在 YOLO V3 中可以檢測到一些較小的對象,而 V2 無法檢測到。

ef58fe24-4286-11ed-96c9-dac502259ad0.png

除了準(zhǔn)確性和比較之外,Redmon 和 Farhadi 在他們的論文中提到的重要一點(diǎn)是道德和計算機(jī)視覺的使用。由于軍事研究小組非常關(guān)注這一領(lǐng)域,他們希望人們使用他們的新技術(shù)不是為了殺人,而是為了讓別人快樂,讓他們的生活更美好。這是論文中的原話:

we have a responsibility to at least consider the harm our work might be doing and think of ways to mitigate it. We owe the world that much.

這也是 Joseph Redmon 退出目標(biāo)檢測領(lǐng)域研究的原因,有興趣的可以去搜下他TED的演講。

YOLO Version 4;最佳速度和準(zhǔn)確性

目標(biāo)檢測研究的重點(diǎn)是改進(jìn)在該領(lǐng)域執(zhí)行的模型的速度。隨著時間的推移,YOLO 的應(yīng)用在全球范圍內(nèi)不斷增長,研究領(lǐng)域也增加了許多新的變化,在卷積神經(jīng)網(wǎng)絡(luò) (CNN) 中,一些想法可以提高模型的準(zhǔn)確性。YOLO V4 的主要目標(biāo)是開發(fā)一種速度更快的目標(biāo)檢測器,并且具有易于訓(xùn)練和使用的并行計算能力。通過添加和組合一些新功能,例如加權(quán)殘差連接 (WRC)、跨階段部分連接 (CSP)、跨小批量標(biāo)準(zhǔn)化 (CmBN)、自我對抗訓(xùn)練 (SAT)、Mish激活函數(shù)、Mosaic 數(shù)據(jù)增強(qiáng)、DropBlock 正則化和 CIoU 損失等等,在 YOLO V4中實(shí)現(xiàn)了更好更快的模型。YOLO V4 討論的一個重要主題是一個實(shí)時傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型,該模型只需要傳統(tǒng) GPU 進(jìn)行訓(xùn)練,從而為使用一般 GPU 的任何人提供訓(xùn)練、測試、實(shí)現(xiàn)實(shí)時、高質(zhì)量的可能性,以及令人信服的目標(biāo)檢測模型。

下面是 YOLO V4 。這個新版本速度更快,并且表現(xiàn)出可比的性能。

在 YOLO V4 中,Alexey Bochkovskiy 等人總結(jié)了他們的主要貢獻(xiàn):

開發(fā)了一個高效而強(qiáng)大的目標(biāo)檢測模型,這使得每個使用 1080 Ti 或 2080 Ti GPU 的人都可以訓(xùn)練和測試一個超快速、實(shí)時、準(zhǔn)確的目標(biāo)檢測模型。

他們在訓(xùn)練期間驗(yàn)證了最先進(jìn)的 Bag-of-Freebies 和 Bag-of-Specials 檢測方法的影響。

修改了state-of-the-art的方法,包括(Cross-iteration batch normalization)、PAN(Path aggregation network)等,使它們更高效,更適合單GPU訓(xùn)練。

總結(jié)

如果你查看 YOLO 的結(jié)構(gòu)、源代碼和包,就會發(fā)現(xiàn)它們結(jié)構(gòu)良好、文檔齊全且免費(fèi)使用。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7786

    瀏覽量

    92954
  • 人工智能
    +關(guān)注

    關(guān)注

    1814

    文章

    49957

    瀏覽量

    263619

原文標(biāo)題:目標(biāo)檢測YOLO系列算法的進(jìn)化史

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于iTOP-3568核心板的YOLO目標(biāo)檢測全棧解決方案

    在智能制造、智慧安防、智能交通等領(lǐng)域,實(shí)時、精準(zhǔn)的目標(biāo)檢測技術(shù)正成為行業(yè)智能化轉(zhuǎn)型的核心需求。然而,傳統(tǒng)方案面臨云端延遲高、網(wǎng)絡(luò)依賴強(qiáng)、成本居高不下等挑戰(zhàn)?,F(xiàn)在,基于瑞芯微RK3568處理器的iTOP-3568開發(fā)板,為您帶來實(shí)時響應(yīng)、高性價比的
    的頭像 發(fā)表于 01-21 16:44 ?607次閱讀
    基于iTOP-3568核心板的<b class='flag-5'>YOLO</b><b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>全棧解決方案

    充電樁上液晶顯示應(yīng)用發(fā)展過程

    隨著新能源汽車大規(guī)模普及,充電樁的缺口越來越大,特別是可以實(shí)現(xiàn)快速充電充電樁站越來越多,對于顯示的需求也越來越不一樣,縱觀充電樁顯示的迭代的整個過程,剛開始,國內(nèi)的直流樁大部分以國網(wǎng)為主體發(fā)展
    發(fā)表于 10-09 09:37

    YOLO + OpenPLC + ARMxy:工業(yè)智能化視覺識別、邊緣計算、工業(yè)控制的“三位一體”解決方案

    深圳市鋇錸技術(shù)有限公司推出 ARMxy 系列工業(yè)計算機(jī),結(jié)合 YOLO 目標(biāo)檢測算法與 OpenPLC 開源控制平臺,實(shí)現(xiàn)工業(yè)現(xiàn)場視覺識別、邊緣計算與自動化控制一體化。廣泛應(yīng)用于產(chǎn)線缺
    的頭像 發(fā)表于 09-11 16:00 ?771次閱讀
    <b class='flag-5'>YOLO</b> + OpenPLC + ARMxy:工業(yè)智能化視覺識別、邊緣計算、工業(yè)控制的“三位一體”解決方案

    【機(jī)器視覺】睿擎平臺支持NCNN AI 推理框架,輕松實(shí)現(xiàn)實(shí)時目標(biāo)檢測( 睿擎線下 Workshop 報名已開啟)|產(chǎn)品動

    RT-Thread系統(tǒng)上深度集成NCNN推理框架,通過其輕量化架構(gòu)與硬件級優(yōu)化能力,結(jié)合YOLO系列算法的高效單階段檢測特性,實(shí)現(xiàn)了工業(yè)場景下的目標(biāo)
    的頭像 發(fā)表于 08-20 17:40 ?5073次閱讀
    【機(jī)器視覺】睿擎平臺支持NCNN AI 推理框架,輕松實(shí)現(xiàn)實(shí)時<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>( 睿擎線下 Workshop 報名已開啟)|產(chǎn)品動

    RK3576 Yolov11訓(xùn)練部署教程

    、使用最廣泛的YOLO變體。YOLO11將延續(xù)YOLO系列的傳奇。本教程針對目標(biāo)檢測算法
    的頭像 發(fā)表于 07-25 15:22 ?970次閱讀
    RK3576 Yolov11訓(xùn)練部署教程

    RK3576 yolo11-seg訓(xùn)練部署教程

    和分割頭設(shè)計,實(shí)現(xiàn)了像素級的精確目標(biāo)檢測與分割,適用于自動駕駛、醫(yī)學(xué)影像、工業(yè)檢測等對精度和速度要求苛刻的場景。本教程針對目標(biāo)分割算法yol
    的頭像 發(fā)表于 07-25 15:21 ?1601次閱讀
    RK3576 <b class='flag-5'>yolo</b>11-seg訓(xùn)練部署教程

    基于RK3576開發(fā)板的yolov11-track多目標(biāo)跟蹤部署教程

    1.yolov11_track簡介(多目標(biāo)跟蹤算法)YOLO11是UltralyticsYOLO系列實(shí)時物體檢測器的最新版本,重新定義了在尖
    的頭像 發(fā)表于 07-25 15:21 ?1658次閱讀
    基于RK3576開發(fā)板的yolov11-track多<b class='flag-5'>目標(biāo)</b>跟蹤部署教程

    如何在樹莓派 AI HAT+上進(jìn)行YOLO姿態(tài)估計?

    YOLO目標(biāo)檢測?如何在樹莓派AIHAT+上進(jìn)行YOLO姿態(tài)估計?今天是第四部分:如何在樹莓派AIHAT+上進(jìn)行YOLO姿態(tài)估計?如果大家
    的頭像 發(fā)表于 07-20 20:34 ?801次閱讀
    如何在樹莓派 AI HAT+上進(jìn)行<b class='flag-5'>YOLO</b>姿態(tài)估計?

    如何在樹莓派 AI HAT+上進(jìn)行YOLO目標(biāo)檢測?

    YOLO目標(biāo)檢測?如何在樹莓派AIHAT+上進(jìn)行YOLO姿態(tài)估計?今天是第三部分:如何在樹莓派AIHAT+上進(jìn)行YOLO
    的頭像 發(fā)表于 07-19 08:34 ?1453次閱讀
    如何在樹莓派 AI HAT+上進(jìn)行<b class='flag-5'>YOLO</b><b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>?

    YOLOv8水果檢測示例代碼換成640輸入圖像出現(xiàn)目標(biāo)框繪制錯誤的原因 ?

    官網(wǎng)中的YOLOv8 水果檢測關(guān)于圖片推理的示例源代碼: from libs.YOLO import YOLOv8 import os,sys,gc import ulab.numpy as np
    發(fā)表于 06-18 06:37

    k210在線訓(xùn)練的算法yolo5嗎?

    k210在線訓(xùn)練的算法yolo5嗎
    發(fā)表于 06-16 08:25

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    軒轅智駕紅外目標(biāo)檢測算法在汽車領(lǐng)域的應(yīng)用

    在 AI 技術(shù)蓬勃發(fā)展的當(dāng)下,目標(biāo)檢測算法取得了重大突破,其中紅外目標(biāo)檢測算法更是在汽車行業(yè)掀起了波瀾壯闊的變革,從根本上重塑著汽車的安全性
    的頭像 發(fā)表于 03-27 15:55 ?857次閱讀

    睿創(chuàng)微納推出新一代目標(biāo)檢測算法

    隨著AI技術(shù)的發(fā)展,目標(biāo)檢測算法也迎來重大突破。睿創(chuàng)微納作為熱成像領(lǐng)軍者,憑借深厚的技術(shù)積累與創(chuàng)新能力,結(jié)合AI技術(shù)推出新一代目標(biāo)檢測算法,
    的頭像 發(fā)表于 03-20 13:49 ?968次閱讀

    使用Yolo-v3-TF運(yùn)行OpenVINO?對象檢測Python演示時的結(jié)果不準(zhǔn)確的原因?

    通過模型下載器下載了 yolo-v3-tf: ./downloader.py --name yolo-v3-tf 通過模型 優(yōu)化器轉(zhuǎn)換模型: python3 ./model_optimizer
    發(fā)表于 03-06 06:31