chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在人臉檢測中的應(yīng)用

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-08 09:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在目標(biāo)檢測領(lǐng)域,可以劃分為人臉檢測與通用目標(biāo)檢測,往往人臉這方面會有專門的算法(包括人臉檢測、人臉識別、人臉其他屬性的識別等),并且和通用目標(biāo)檢測(識別)會有一定的差別。這主要來源于人臉的特殊性(譬如有時候目標(biāo)比較小、人臉之間特征不明顯、遮擋問題等),本文將主要從人臉檢測方面來講解目標(biāo)檢測。

目前主要的人臉檢測方法分類

當(dāng)前,人臉檢測方法主要包含兩個區(qū)域:傳統(tǒng)人臉檢測算法和基于深度學(xué)習(xí)的人臉檢測算法。傳統(tǒng)人臉檢測算法主要可以分為 4 類:

基于知識的人臉檢測方法;

基于模型的人臉檢測方法;

基于特征的人臉檢測方法;

基于外觀的人臉檢測方法。

2006 年,Hinton 首次提出深度學(xué)習(xí)(Deep Learning)的概念,它是通過組合低層的特征形成更高層的抽象特征。隨后研究者將深度學(xué)習(xí)應(yīng)用在人臉檢測領(lǐng)域,主要集中在基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的人臉檢測研究,如基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(Cascade CNN)、基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(MTCNN)、Facebox 等,很大程度上提高了人臉檢測的魯棒性。

當(dāng)然,像Faster RCNN、YOLO、SSD等通用目標(biāo)檢測算法也有用在人臉檢測領(lǐng)域,也可以實現(xiàn)比較不錯的結(jié)果,但是和專門人臉檢測算法比還是有差別。

如何檢測圖片中不同大小的人臉?

傳統(tǒng)人臉檢測算法中針對不同大小人臉主要有兩個策略:

縮放圖片的大小(圖像金字塔如圖 1 所示);

圖1 圖像金字塔

縮放滑動窗的大?。ㄈ鐖D 2 所示)。

圖 2 縮放滑動窗口

基于深度學(xué)習(xí)的人臉檢測算法中,針對不同大小人臉主要也有兩個策略,但和傳統(tǒng)人臉檢測算法有點區(qū)別,主要包括:

縮放圖片大?。?/strong>不過也可以通過縮放滑動窗的方式,基于深度學(xué)習(xí)的滑動窗人臉檢測方式效率會很慢存在多次重復(fù)卷積,所以要采用全卷積神經(jīng)網(wǎng)絡(luò)(FCN),用 FCN 將不能用滑動窗的方法。

通過 anchor box 的方法:如圖 3 所示,不要和圖 2 混淆,這里是通過特征圖預(yù)測原圖的 anchorbox 區(qū)域,具體在 Facebox 中有描述。

圖 3 anchor box

如何設(shè)定算法檢測最小人臉尺寸?

主要是看滑動窗的最小窗口和 anchorbox 的最小窗口。

滑動窗的方法

假設(shè)通過 12×12 的滑動窗,不對原圖做縮放的話,就可以檢測原圖中 12×12 的最小人臉。

但是往往通常給定最小人臉 a=40、或者 a=80,以這么大的輸入訓(xùn)練 CNN 進(jìn)行人臉檢測不太現(xiàn)實,速度會很慢,并且下一次需求最小人臉 a=30*30 又要去重新訓(xùn)練,通常還會是 12×12 的輸入,為滿足最小人臉框 a,只需要在檢測的時候?qū)υ瓐D進(jìn)行縮放即可:w=w×12/a。

anchorbox 的方法

原理類似,這里主要看 anchorbox 的最小 box,通過可以通過縮放輸入圖片實現(xiàn)最小人臉的設(shè)定。

如何定位人臉的位置

滑動窗的方式:

滑動窗的方式是基于分類器識別為人臉的框的位置確定最終的人臉。

圖 4 滑動窗

FCN 的方式:

通過特征圖映射到原圖的方式確定最終識別為人臉的位置,特征圖映射到原圖人臉框是要看特征圖相比較于原圖有多少次縮放(縮放主要查看卷積的步長和池化層)。

假設(shè)特征圖上(2,3)的點,可粗略計算縮放比例為 8 倍,原圖中的點應(yīng)該是(16,24);如果訓(xùn)練的 FCN 為 12*12 的輸入,對于原圖框位置應(yīng)該是(16,24,12,12)。

當(dāng)然這只是估計位置,具體的在構(gòu)建網(wǎng)絡(luò)時要加入回歸框的預(yù)測,主要是相對于原圖框的一個平移與縮放。

通過 anchor box 的方式:

通過特征圖映射到圖的窗口,通過特征圖映射到原圖到多個框的方式確定最終識別為人臉的位置。

如何通過一個人臉的多個框確定最終人臉框位置?

圖 5 通過 NMS 得到最終的人臉位置

NMS 改進(jìn)版本有很多,最原始的 NMS 就是判斷兩個框的交集。如果交集大于設(shè)定的閾值,將刪除其中一個框。

那么兩個框應(yīng)該怎么選擇刪除哪一個呢?因為模型輸出有概率值,一般會優(yōu)選選擇概率小的框刪除。

基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(Cascade CNN)

Cascade CNN 的框架結(jié)構(gòu)是什么?

級聯(lián)結(jié)構(gòu)中有 6 個 CNN,3 個 CNN 用于人臉非人臉二分類,另外 3 個 CNN 用于人臉區(qū)域的邊框校正。

給定一幅圖像,12-net 密集掃描整幅圖片,拒絕 90% 以上的窗口。剩余的窗口輸入到 12-calibration-net 中調(diào)整大小和位置,以接近真實目標(biāo)。接著輸入到 NMS 中,消除高度重疊窗口。下面網(wǎng)絡(luò)與上面類似。

Cascade CNN 人臉校驗?zāi)K原理是什么?

該網(wǎng)絡(luò)用于窗口校正,使用三個偏移變量:

Xn:水平平移量,Yn:垂直平移量,Sn:寬高比縮放。

候選框口(x,y,w,h)中,(x,y)表示左上點坐標(biāo),(w,h)表示寬和高。

我們要將窗口的控制坐標(biāo)調(diào)整為:

這項工作中,我們有種模式。偏移向量三個參數(shù)包括以下值:

同時對偏移向量三個參數(shù)進(jìn)行校正。

訓(xùn)練樣本應(yīng)該如何準(zhǔn)備?

人臉樣本;

非人臉樣本。

級聯(lián)的好處

最初階段的網(wǎng)絡(luò)可以比較簡單,判別閾值可以設(shè)得寬松一點,這樣就可以在保持較高召回率的同時排除掉大量的非人臉窗口;

最后階段網(wǎng)絡(luò)為了保證足夠的性能,因此一般設(shè)計的比較復(fù)雜,但由于只需要處理前面剩下的窗口,因此可以保證足夠的效率;

級聯(lián)的思想可以幫助我們?nèi)ソM合利用性能較差的分類器,同時又可以獲得一定的效率保證。

基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(MTCNN)

MTCNN 模型有三個子網(wǎng)絡(luò),分別是 P-Net,R-Net,O-Net。

為了檢測不同大小的人臉,開始需要構(gòu)建圖像金字塔,先經(jīng)過 PNet 模型,輸出人臉類別和邊界框(邊界框的預(yù)測為了對特征圖映射到原圖的框平移和縮放得到更準(zhǔn)確的框),將識別為人臉的框映射到原圖框位置可以獲取 patch,之后每一個 patch 通過 resize 的方式輸入到 RNet,識別為人臉的框并且預(yù)測更準(zhǔn)確的人臉框,最后 RNet 識別為人臉的的每一個 patch 通過 resize 的方式輸入到 ONet,跟 RNet 類似,關(guān)鍵點是為了在訓(xùn)練集有限情況下使模型更魯棒。

還要注意一點:構(gòu)建圖像金字塔的的縮放比例要保留,為了將邊界框映射到最開始原圖上。

Facebox

(1)Rapidly Digested Convolutional Layers(RDCL)

在網(wǎng)絡(luò)前期,使用 RDCL 快速的縮小 feature map 的大小。主要設(shè)計原則如下:

Conv1, Pool1, Conv2 和 Pool2 的 stride 分別是 4, 2, 2 和 2。這樣整個 RDCL 的 stride 就是 32,可以很快把 feature map 的尺寸變小。

卷積(或 pooling)核太大速度就慢,太小覆蓋信息又不足。權(quán)衡之后,將 Conv1, Pool1, Conv2 和 Pool2 的核大小分別設(shè)為 7x7,3x3,5x5,3x3。

使用 CReLU 來保證輸出維度不變的情況下,減少卷積核數(shù)量。

(2)Multiple Scale Convolutional Layers(MSCL)

在網(wǎng)絡(luò)后期,使用 MSCL 更好地檢測不同尺度的人臉。主要設(shè)計原則有:

類似于 SSD,在網(wǎng)絡(luò)的不同層進(jìn)行檢測;

采用 Inception 模塊。由于 Inception 包含多個不同的卷積分支,因此可以進(jìn)一步使得感受野多樣化。

(3)Anchor densification strategy

為了 anchor 密度均衡,可以對密度不足的 anchor 以中心進(jìn)行偏移加倍,如下圖所示:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人臉識別
    +關(guān)注

    關(guān)注

    77

    文章

    4118

    瀏覽量

    87782
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5591

    瀏覽量

    123915

原文標(biāo)題:深度學(xué)習(xí)在人臉檢測中的應(yīng)用 | CSDN 博文精選

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)
    的頭像 發(fā)表于 11-27 10:19 ?58次閱讀

    基于級聯(lián)分類器的人臉檢測基本原理

    檢測人臉這一結(jié)果。 注:該算法github上有開源實現(xiàn):https://github.com/nenadmarkus/pico 3) 算法流程 我們圖像上設(shè)置一定的搜索范圍,初始
    發(fā)表于 10-30 06:14

    【Milk-V Duo S 開發(fā)板免費體驗】基于Duo S 使用 TDL SDK(V1版本)

    地將各種深度學(xué)習(xí)技術(shù)應(yīng)用于自己的產(chǎn)品和服務(wù)。無論開發(fā)者是否是深度學(xué)習(xí)領(lǐng)域的專家,有了TDL SDK作為助手,都能輕松構(gòu)建智能應(yīng)用。 目前
    發(fā)表于 08-10 22:09

    【Milk-V Duo S 開發(fā)板免費體驗】人臉檢測

    多張人臉識別 針對畫面存在多張人臉的情況進(jìn)行測試 識別效果較好,速度較快。 同時終端輸出檢測到的人臉數(shù)量 動態(tài)效果見底部視頻。 總
    發(fā)表于 07-27 16:53

    【HarmonyOS 5】VisionKit人臉活體檢測詳解

    。 而VisionKit包含人臉活體檢測的功能接口interactiveLiveness 。人臉活體檢測見名知意,主要是為了
    的頭像 發(fā)表于 06-21 11:52 ?636次閱讀
    【HarmonyOS 5】VisionKit<b class='flag-5'>人臉</b>活體<b class='flag-5'>檢測</b>詳解

    基于RV1126開發(fā)板實現(xiàn)人臉檢測方案

    RV1126開發(fā)板上實現(xiàn)人臉檢測圖像找出人臉,以及每張
    的頭像 發(fā)表于 04-21 17:59 ?865次閱讀
    基于RV1126開發(fā)板實現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>方案

    基于RV1126開發(fā)板實現(xiàn)人臉檢測方案

    RV1126開發(fā)板上實現(xiàn)人臉檢測圖像找出人臉,以及每張
    的頭像 發(fā)表于 04-21 14:00 ?13次閱讀
    基于RV1126開發(fā)板實現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>方案

    基于RV1126開發(fā)板實現(xiàn)人臉檢測方案

    RV1126開發(fā)板上實現(xiàn)人臉檢測圖像找出人臉,以及每張
    的頭像 發(fā)表于 04-21 10:21 ?99次閱讀
    基于RV1126開發(fā)板實現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>方案

    基于RV1126開發(fā)板實現(xiàn)人臉檢測方案

    RV1126上實現(xiàn)人臉檢測圖像找出人臉,以及每張人臉
    的頭像 發(fā)表于 04-18 16:47 ?277次閱讀
    基于RV1126開發(fā)板實現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>方案

    運行SCRFD人臉檢測器,CPU上輸出錯誤是怎么回事?

    試圖運行 SCRFD 人臉檢測 CPU 上獲得錯誤輸出,但 GPU 正確無誤
    發(fā)表于 03-07 07:55

    使用OpenVINO?模型的OpenCV進(jìn)行人臉檢測,檢測到多張人臉時,伺服電機和步入器電機都發(fā)生移動是為什么?

    使用OpenVINO?模型的 OpenCV* 進(jìn)行人臉檢測。 使用 cv2.矩形 函數(shù),能夠獲取檢測到的面部的坐標(biāo)。 檢測到多張人臉時,多
    發(fā)表于 03-07 06:35

    【米爾RK3576開發(fā)板評測】+項目名稱RetinaFace人臉檢測

    一、簡介 Pytorch_Retinaface?是一個基于PyTorch框架實現(xiàn)的人臉檢測算法,它能夠快速而準(zhǔn)確地檢測出圖像人臉,并提供
    發(fā)表于 02-15 13:28

    軍事應(yīng)用深度學(xué)習(xí)的挑戰(zhàn)與機遇

    ,并廣泛介紹了深度學(xué)習(xí)兩個主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報行動和自主平臺。最后,討論了相關(guān)的威脅、機遇、技術(shù)和實際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無所不能,需要謹(jǐn)慎應(yīng)用,同時考慮到其局限性、網(wǎng)絡(luò)安全威脅以及
    的頭像 發(fā)表于 02-14 11:15 ?825次閱讀

    人臉識別技術(shù)安全監(jiān)控的應(yīng)用

    的潛力和價值。 人臉識別技術(shù)原理 人臉識別技術(shù)主要依賴于計算機視覺和機器學(xué)習(xí)算法。它首先通過攝像頭捕捉人臉圖像,然后利用算法提取圖像的特征
    的頭像 發(fā)表于 02-06 17:25 ?1561次閱讀

    AI自動化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制的應(yīng)用

    生產(chǎn)效率、保證產(chǎn)品質(zhì)量方面展現(xiàn)出非凡的能力。阿丘科技「AI干貨補給站」推出《AI自動化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制的應(yīng)用》文章,探討深度
    的頭像 發(fā)表于 01-17 16:35 ?1220次閱讀
    AI自動化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>在</b>質(zhì)量控制<b class='flag-5'>中</b>的應(yīng)用