chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

利用深度學習解決目標檢測任務的簡單方法

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-10-18 09:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

每次丟了東西,我們都希望有一種方法能快速定位出失物。現在,目標檢測算法或許能做到。目標檢測的用途遍布多個行業(yè),從安防監(jiān)控,到智慧城市中的實時交通監(jiān)測。簡單來說,這些技術背后都是強大的深度學習算法。

在這篇文章中,我們會進一步地了解這些用在目標檢測中的算法,首先要從RCNN家族開始,例如RCNN、Fast RCNN和Faster RCNN。在本系列接下來的文章中我們會談到更高級的算法,例如YOLO、SSD等等。

1. 解決目標檢測任務的簡單方法(利用深度學習)

下圖是描述目標檢測算法如何工作的典型例子,圖中的每個物體(不論是任務還是風箏),都能以一定的精確度被定位出來。

首先我們要說的就是在圖像目標檢測中用途最廣、最簡單的深度學習方法——卷積神經網絡(CNN)。我要講的是CNN的內部工作原理,首先讓我們看看下面這張圖片。

向網絡中輸入一張圖片,接著將它傳遞到多個卷積和池化層中。最后輸出目標所屬的類別,聽上去非常直接。

對每張輸入的圖片,我們都有對應的輸出類別,那么這一技術能檢測圖片中多種目標嗎?答案是肯定的!下面就讓我們看看如何用一個卷積神經網絡解決通用的目標檢測問題。

1.首先,我們把下面的圖片用作輸入:

2.之后,我們將圖片分成多個區(qū)域:

3.將每個區(qū)域看作單獨的圖片。

4.把這些區(qū)域照片傳遞給CNN,將它們分到不同類別中。

5.當我們把每個區(qū)域都分到對應的類別后,再把它們結合在一起,完成對原始圖像的目標檢測:

使用這一方法的問題在于,圖片中的物體可能有不同的長寬比和空間位置。例如,在有些情況下,目標物體可能占據了圖片的大部分,或者非常小。目標物體的形狀也可能不同。

有了這些考慮因素,我們就需要分割很多個區(qū)域,需要大量計算力。所以為了解決這一問題,減少區(qū)域的分割,我們可以使用基于區(qū)域的CNN,它可以進行區(qū)域選擇。

2. 基于區(qū)域的卷積神經網絡介紹

2.1 RCNN簡介

和在大量區(qū)域上工作不同,RCNN算法提出在圖像中創(chuàng)建多個邊界框,檢查這些邊框中是否含有目標物體。RCNN使用選擇性搜索來從一張圖片中提取這些邊框。

首先,讓我們明確什么是選擇性搜索,以及它是如何辨別不同區(qū)域的。組成目標物體通常有四個要素:變化尺度、顏色、結構(材質)、所占面積。選擇性搜索會確定物體在圖片中的這些特征,然后基于這些特征突出不同區(qū)域。下面是選擇搜索的一個簡單案例:

首先將一張圖片作為輸入:

之后,它會生成最初的sub-分割,將圖片分成多個區(qū)域:

基于顏色、結構、尺寸、形狀,將相似的區(qū)域合并成更大的區(qū)域:

最后,生成最終的目標物體位置(Region of Interest)。

用RCNN檢測目標物體的步驟如下:

我們首先取一個預訓練卷積神經網絡。

根據需要檢測的目標類別數量,訓練網絡的最后一層。

得到每張圖片的感興趣區(qū)域(Region of Interest),對這些區(qū)域重新改造,以讓其符合CNN的輸入尺寸要求。

得到這些區(qū)域后,我們訓練支持向量機(SVM)來辨別目標物體和背景。對每個類別,我們都要訓練一個二元SVM。

最后,我們訓練一個線性回歸模型,為每個辨識到的物體生成更精確的邊界框。

下面我們就用具體的案例解釋一下。

首先,將以下圖片作為輸入:

之后,我們會用上文中的選擇性搜索得到感興趣區(qū)域:

將這些區(qū)域輸入到CNN中,并經過卷積網絡:

CNN為每個區(qū)域提取特征,利用SVM將這些區(qū)域分成不同類別:

最后,用邊界框回歸預測每個區(qū)域的邊界框位置:

這就是RCNN檢測目標物體的方法。

2.2 RCNN的問題

現在,我們了解了RCNN能如何幫助進行目標檢測,但是這一技術有自己的局限性。訓練一個RCNN模型非常昂貴,并且步驟較多:

根據選擇性搜索,要對每張圖片提取2000個單獨區(qū)域;

用CNN提取每個區(qū)域的特征。假設我們有N張圖片,那么CNN特征就是N*2000;

用RCNN進行目標檢測的整個過程有三個模型:

用于特征提取的CNN

用于目標物體辨別的線性SVM分類器

調整邊界框的回歸模型。

這些過程合并在一起,會讓RCNN的速度變慢,通常每個新圖片需要40—50秒的時間進行預測,基本上無法處理大型數據集。

所以,這里我們介紹另一種能突破這些限制的目標檢測技術。

3. Fast RCNN

3.1 Fast RCNN簡介

想要減少RCNN算法的計算時間,可以用什么方法?我們可不可以在每張圖片上只使用一次CNN即可得到全部的重點關注區(qū)域呢,而不是運行2000次。

RCNN的作者Ross Girshick提出了一種想法,在每張照片上只運行一次CNN,然后找到一種方法在2000個區(qū)域中進行計算。在Fast RCNN中,我們將圖片輸入到CNN中,會相應地生成傳統(tǒng)特征映射。利用這些映射,就能提取出感興趣區(qū)域。之后,我們使用一個Rol池化層將所有提出的區(qū)域重新修正到合適的尺寸,以輸入到完全連接的網絡中。

簡單地說,這一過程含有以下步驟:

輸入圖片。

輸入到卷積網絡中,它生成感興趣區(qū)域。

利用Rol池化層對這些區(qū)域重新調整,將其輸入到完全連接網絡中。

在網絡的頂層用softmax層輸出類別。同樣使用一個線性回歸層,輸出相對應的邊界框。

所以,和RCNN所需要的三個模型不同,Fast RCNN只用了一個模型就同時實現了區(qū)域的特征提取、分類、邊界框生成。

同樣,我們還用上面的圖像作為案例,進行更直觀的講解。

首先,輸入圖像:

圖像被傳遞到卷積網絡中,返回感興趣區(qū)域:

之后,在區(qū)域上應用Rol池化層,保證每個區(qū)域的尺寸相同:

最后,這些區(qū)域被傳遞到一個完全連接的網絡中進行分類,并用softmax和線性回歸層同時返回邊界框:

3.2 Fast RCNN的問題

但是即使這樣,Fast RCNN也有某些局限性。它同樣用的是選擇性搜索作為尋找感興趣區(qū)域的,這一過程通常較慢。與RCNN不同的是,Fast RCNN處理一張圖片大約需要2秒。但是在大型真實數據集上,這種速度仍然不夠理想。

4.Faster RCNN

4.1 Faster RCNN簡介

Faster RCNN是Fast RCNN的優(yōu)化版本,二者主要的不同在于感興趣區(qū)域的生成方法,Fast RCNN使用的是選擇性搜索,而Faster RCNN用的是Region Proposal網絡(RPN)。RPN將圖像特征映射作為輸入,生成一系列object proposals,每個都帶有相應的分數。

下面是Faster RCNN工作的大致過程:

輸入圖像到卷積網絡中,生成該圖像的特征映射。

在特征映射上應用Region Proposal Network,返回object proposals和相應分數。

應用Rol池化層,將所有proposals修正到同樣尺寸。

最后,將proposals傳遞到完全連接層,生成目標物體的邊界框。

那么Region Proposal Network具體是如何工作的呢?首先,將CNN中得來的特征映射輸入到Faster RCNN中,然后將其傳遞到Region Proposal Network中。RPN會在這些特征映射上使用一個滑動窗口,每個窗口會生成具有不同形狀和尺寸的k個anchor box:

Anchor boxes是固定尺寸的邊界框,它們有不同的形狀和大小。對每個anchor,RPN都會預測兩點:

首先是anchor就是目標物體的概率(不考慮類別)

第二個就是anchor經過調整能更合適目標物體的邊界框回歸量

現在我們有了不同形狀、尺寸的邊界框,將它們傳遞到Rol池化層中。經過RPN的處理,proposals可能沒有所述的類別。我們可以對每個proposal進行切割,讓它們都含有目標物體。這就是Rol池化層的作用。它為每個anchor提取固定尺寸的特征映射:

之后,這些特征映射會傳遞到完全連接層,對目標進行分類并預測邊界框。

4.2 Faster RCNN的問題

目前為止,我們所討論的所有目標檢測算法都用區(qū)域來辨別目標物體。網絡并非一次性瀏覽所有圖像,而是關注圖像的多個部分。這就會出現兩個問題:

算法需要讓圖像經過多個步驟才能提取出所有目標

由于有多個步驟嵌套,系統(tǒng)的表現常常取決于前面步驟的表現水平

5. 上述算法總結

下表對本文中提到的算法做了總結:

目標檢測是很有趣的領域,在商業(yè)中也大有前景。得益于現代硬件和計算資源的發(fā)展,才能讓這一技術有重要的突破。

本文只是目標檢測算法的開門介紹,在下一篇文章中,我們會講解YOLO、RetinaNet這樣更流行的算法,請繼續(xù)關注!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4819

    瀏覽量

    106065
  • 算法
    +關注

    關注

    23

    文章

    4739

    瀏覽量

    96724
  • 深度學習
    +關注

    關注

    73

    文章

    5586

    瀏覽量

    123640

原文標題:基礎目標檢測算法介紹(一):CNN、RCNN、Fast RCNN和Faster RCNN

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或
    的頭像 發(fā)表于 09-10 17:38 ?503次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b>神經網絡

    提高IT運維效率,深度解讀京東云AIOps落地實踐(異常檢測篇)

    基于深度學習對運維時序指標進行異常檢測,快速發(fā)現線上業(yè)務問題 時間序列的異常檢測是實際應用中的一個關鍵問題,尤其是在 IT 行業(yè)。我們沒有采用傳統(tǒng)的基于閾值的
    的頭像 發(fā)表于 05-22 16:38 ?651次閱讀
    提高IT運維效率,<b class='flag-5'>深度</b>解讀京東云AIOps落地實踐(異常<b class='flag-5'>檢測</b>篇)

    labview調用yolo目標檢測、分割、分類、obb

    labview調用yolo目標檢測、分割、分類、obb、pose深度學習,支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    基于高光譜深度特征的油菜葉片鋅含量檢測

    為了實現油菜葉片鋅含量的快速無損檢測,該研究采用一種基于高光譜成像技術結合深度遷移學習算法的高精度檢測方法,通過無土栽培的方式,
    的頭像 發(fā)表于 02-24 18:03 ?536次閱讀
    基于高光譜<b class='flag-5'>深度</b>特征的油菜葉片鋅含量<b class='flag-5'>檢測</b>

    深度學習入門:簡單神經網絡的構建與實現

    深度學習中,神經網絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經網絡。 神經網絡由多個神經元組成,神經元之間通過權重連接。我們構建一個包含輸入層、隱藏層和輸出層的
    的頭像 發(fā)表于 01-23 13:52 ?710次閱讀

    探索對抗訓練的概率分布偏差:DPA雙概率對齊的通用域自適的目標檢測方法

    檢測目標檢測作為計算機視覺領域的核心任務,在閉集場景中已經取得了顯著的進展。然而,現有的方法通常假設類別集合是固定的,并依賴于大量的標注
    的頭像 發(fā)表于 01-15 13:45 ?1002次閱讀
    探索對抗訓練的概率分布偏差:DPA雙概率對齊的通用域自適的<b class='flag-5'>目標</b><b class='flag-5'>檢測</b><b class='flag-5'>方法</b>

    采用華為云 Flexus 云服務器 X 實例部署 YOLOv3 算法完成目標檢測

    一、前言 1.1 開發(fā)需求 這篇文章講解:?采用華為云最新推出的 Flexus 云服務器 X 實例部署 YOLOv3 算法,完成圖像分析、目標檢測。 隨著計算機視覺技術的飛速發(fā)展,深度學習
    的頭像 發(fā)表于 01-02 12:00 ?851次閱讀
    采用華為云 Flexus 云服務器 X 實例部署 YOLOv3 算法完成<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    挑戰(zhàn)的方法。 2 目標檢測模型介紹 在目標檢測任務中,有著許許多多的模型,如 Picodet、
    發(fā)表于 12-19 14:33

    視頻目標跟蹤從0到1,概念與方法

    視覺目標跟蹤的挑戰(zhàn)和算法模型,最后,我們將介紹最流行的基于深度學習目標跟蹤方法,包括MDNET,GOTURN,ROLO等。本文希望你
    的頭像 發(fā)表于 11-20 01:06 ?1128次閱讀
    視頻<b class='flag-5'>目標</b>跟蹤從0到1,概念與<b class='flag-5'>方法</b>

    NPU在深度學習中的應用

    設計的硬件加速器,它在深度學習中的應用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU有所不同。NPU通常具有高度并行的處理能
    的頭像 發(fā)表于 11-14 15:17 ?2545次閱讀

    Pytorch深度學習訓練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓練。
    的頭像 發(fā)表于 10-28 14:05 ?891次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學習</b>訓練的<b class='flag-5'>方法</b>

    GPU深度學習應用案例

    GPU在深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是深度學習
    的頭像 發(fā)表于 10-27 11:13 ?1911次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現場可編程門陣列)加速深度學習模型是當前硬件加速領域的一個熱門研究方向。以下是一些FPGA加速深度學習模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1527次閱讀

    AI大模型與深度學習的關系

    AI大模型與深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 一、深度學習是AI大模型的基礎 技術支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?3377次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?846次閱讀