chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

如意 ? 來(lái)源:CSDN ? 作者:呆呆的貓 ? 2020-08-24 16:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)上的應(yīng)用

計(jì)算機(jī)視覺(jué)中比較成功的深度學(xué)習(xí)的應(yīng)用,包括人臉識(shí)別,圖像問(wèn)答,物體檢測(cè),物體跟蹤。

人臉識(shí)別:

這里說(shuō)人臉識(shí)別中的人臉比對(duì),即得到一張人臉,與數(shù)據(jù)庫(kù)里的人臉進(jìn)行比對(duì);或同時(shí)給兩張人臉,判斷是不是同一個(gè)人。

這方面比較超前的是湯曉鷗教授,他們提出的DeepID算法在LWF上做得比較好。他們也是用卷積神經(jīng)網(wǎng)絡(luò),但在做比對(duì)時(shí),兩張人臉?lè)謩e提取了不同位置特征,然后再進(jìn)行互相比對(duì),得到最后的比對(duì)結(jié)果。最新的DeepID-3算法,在LWF達(dá)到了99.53%準(zhǔn)確度,與肉眼識(shí)別結(jié)果相差無(wú)幾。

圖片問(wèn)答問(wèn)題:

這是2014年左右興起的課題,即給張圖片同時(shí)問(wèn)個(gè)問(wèn)題,然后讓計(jì)算機(jī)回答。比如有一個(gè)辦公室靠海的圖片,然后問(wèn)“桌子后面有什么”,神經(jīng)網(wǎng)絡(luò)輸出應(yīng)該是“椅子和窗戶(hù)”。

深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

這一應(yīng)用引入了LSTM網(wǎng)絡(luò),這是一個(gè)專(zhuān)門(mén)設(shè)計(jì)出來(lái)具有一定記憶能力的神經(jīng)單元。特點(diǎn)是,會(huì)把某一個(gè)時(shí)刻的輸出當(dāng)作下一個(gè)時(shí)刻的輸入??梢哉J(rèn)為它比較適合語(yǔ)言等,有時(shí)間序列關(guān)系的場(chǎng)景。因?yàn)槲覀冊(cè)谧x一篇文章和句子的時(shí)候,對(duì)句子后面的理解是基于前面對(duì)詞語(yǔ)的記憶。

圖像問(wèn)答問(wèn)題是基于卷積神經(jīng)網(wǎng)絡(luò)和LSTM單元的結(jié)合,來(lái)實(shí)現(xiàn)圖像問(wèn)答。LSTM輸出就應(yīng)該是想要的答案,而輸入的就是上一個(gè)時(shí)刻的輸入,以及圖像的特征,及問(wèn)句的每個(gè)詞語(yǔ)。

物體檢測(cè)問(wèn)題:

① Region CNN

深度學(xué)習(xí)在物體檢測(cè)方面也取得了非常好的成果。2014年的Region CNN算法,基本思想是首先用一個(gè)非深度的方法,在圖像中提取可能是物體的圖形塊,然后深度學(xué)習(xí)算法根據(jù)這些圖像塊,判斷屬性和一個(gè)具體物體的位置。

深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

為什么要用非深度的方法先提取可能的圖像塊?因?yàn)樵谧鑫矬w檢測(cè)的時(shí)候,如果你用掃描窗的方法進(jìn)行物體監(jiān)測(cè),要考慮到掃描窗大小的不一樣,長(zhǎng)寬比和位置不一樣,如果每一個(gè)圖像塊都要過(guò)一遍深度網(wǎng)絡(luò)的話(huà),這種時(shí)間是你無(wú)法接受的。

所以用了一個(gè)折中的方法,叫Selective Search。先把完全不可能是物體的圖像塊去除,只剩2000左右的圖像塊放到深度網(wǎng)絡(luò)里面判斷。那么取得的成績(jī)是AP是58.5,比以往幾乎翻了一倍。有一點(diǎn)不盡如人意的是,region CNN的速度非常慢,需要10到45秒處理一張圖片。

② Faster R-CNN方法

而且我在去年NIPS上,我們看到的有Faster R-CNN方法,一個(gè)超級(jí)加速版R-CNN方法。它的速度達(dá)到了每秒七幀,即一秒鐘可以處理七張圖片。技巧在于,不是用圖像塊來(lái)判斷是物體還是背景,而把整張圖像一起扔進(jìn)深度網(wǎng)絡(luò)里,讓深度網(wǎng)絡(luò)自行判斷哪里有物體,物體的方塊在哪里,種類(lèi)是什么?

經(jīng)過(guò)深度網(wǎng)絡(luò)運(yùn)算的次數(shù)從原來(lái)的2000次降到一次,速度大大提高了。

Faster R-CNN提出了讓深度學(xué)習(xí)自己生成可能的物體塊,再用同樣深度網(wǎng)絡(luò)來(lái)判斷物體塊是否是背景?同時(shí)進(jìn)行分類(lèi),還要把邊界和給估計(jì)出來(lái)。

Faster R-CNN可以做到又快又好,在VOC2007上檢測(cè)AP達(dá)到73.2,速度也提高了兩三百倍。

③ YOLO

去年FACEBOOK提出來(lái)的YOLO網(wǎng)絡(luò),也是進(jìn)行物體檢測(cè),最快達(dá)到每秒鐘155幀,達(dá)到了完全實(shí)時(shí)。它讓一整張圖像進(jìn)入到神經(jīng)網(wǎng)絡(luò),讓神經(jīng)網(wǎng)絡(luò)自己判斷這物體可能在哪里,可能是什么。但它縮減了可能圖像塊的個(gè)數(shù),從原來(lái)Faster R-CNN的2000多個(gè)縮減縮減到了98個(gè)。

同時(shí)取消了Faster R-CNN里面的RPN結(jié)構(gòu),代替Selective Search結(jié)構(gòu)。YOLO里面沒(méi)有RPN這一步,而是直接預(yù)測(cè)物體的種類(lèi)和位置。

YOLO的代價(jià)就是精度下降,在155幀的速度下精度只有52.7,45幀每秒時(shí)的精度是63.4。

④ SSD

在arXiv上出現(xiàn)的最新算法叫Single Shot MultiBox Detector,即SSD。

它是YOLO的超級(jí)改進(jìn)版,吸取了YOLO的精度下降的教訓(xùn),同時(shí)保留速度快的特點(diǎn)。它能達(dá)到58幀每秒,精度有72.1。速度超過(guò)Faster R-CNN 有8倍,但達(dá)到類(lèi)似的精度。

物體跟蹤

所謂跟蹤,就是在視頻里面第一幀時(shí)鎖定感興趣的物體,讓計(jì)算機(jī)跟著走,不管怎么旋轉(zhuǎn)晃動(dòng),甚至躲在樹(shù)叢后面也要跟蹤。

深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

深度學(xué)習(xí)對(duì)跟蹤問(wèn)題有很顯著的效果。是第一在線用深度學(xué)習(xí)進(jìn)行跟蹤的文章,當(dāng)時(shí)超過(guò)了其它所有的淺層算法。

今年有越來(lái)越多深度學(xué)習(xí)跟蹤算法提出。去年十二月ICCV 2015上面,馬超提出的Hierarchical Convolutional Feature算法,在數(shù)據(jù)上達(dá)到最新的記錄。它不是在線更新一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò),而是用一個(gè)大網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,然后讓大網(wǎng)絡(luò)知道什么是物體什么不是物體。

將大網(wǎng)絡(luò)放在跟蹤視頻上面,然后再分析網(wǎng)絡(luò)在視頻上產(chǎn)生的不同特征,用比較成熟的淺層跟蹤算法來(lái)進(jìn)行跟蹤,這樣利用了深度學(xué)習(xí)特征學(xué)習(xí)比較好的好處,同時(shí)又利用了淺層方法速度較快的優(yōu)點(diǎn)。效果是每秒鐘10幀,同時(shí)精度破了記錄。

最新的跟蹤成果是基于Hierarchical Convolutional Feature,由一個(gè)韓國(guó)的科研組提出的MDnet。它集合了前面兩種深度算法的集大成,首先離線的時(shí)候有學(xué)習(xí),學(xué)習(xí)的不是一般的物體檢測(cè),也不是ImageNet,學(xué)習(xí)的是跟蹤視頻,然后在學(xué)習(xí)視頻結(jié)束后,在真正在使用網(wǎng)絡(luò)的時(shí)候更新網(wǎng)絡(luò)的一部分。這樣既在離線的時(shí)候得到了大量的訓(xùn)練,在線的時(shí)候又能夠很靈活改變自己的網(wǎng)絡(luò)。

基于嵌入式系統(tǒng)的深度學(xué)習(xí)

回到ADAS問(wèn)題(慧眼科技的主業(yè)),它完全可以用深度學(xué)習(xí)算法,但對(duì)硬件平臺(tái)有比較高的要求。在汽車(chē)上不太可能把一臺(tái)電腦放上去,因?yàn)楣β适莻€(gè)問(wèn)題,很難被市場(chǎng)所接受。

現(xiàn)在的深度學(xué)習(xí)計(jì)算主要是在云端進(jìn)行,前端拍攝照片,傳給后端的云平臺(tái)處理。但對(duì)于ADAS而言,無(wú)法接受長(zhǎng)時(shí)間的數(shù)據(jù)傳輸?shù)?,或許發(fā)生事故后,云端的數(shù)據(jù)還沒(méi)傳回來(lái)。

那是否可以考慮NVIDIA推出的嵌入式平臺(tái)?NVIDIA推出的嵌入式平臺(tái),其運(yùn)算能力遠(yuǎn)遠(yuǎn)強(qiáng)過(guò)了所有主流的嵌入式平臺(tái),運(yùn)算能力接近主流的頂級(jí)CPU,如臺(tái)式機(jī)的i7。那么慧眼科技在做工作就是要使得深度學(xué)習(xí)算法,在嵌入式平臺(tái)有限的資源情況下能夠達(dá)到實(shí)時(shí)效果,而且精度幾乎沒(méi)有減少。

具體做法是,首先對(duì)網(wǎng)絡(luò)進(jìn)行縮減,可能是對(duì)網(wǎng)絡(luò)的結(jié)構(gòu)縮減,由于識(shí)別場(chǎng)景不同,也要進(jìn)行相應(yīng)的功能性縮減;另外要用最快的深度檢測(cè)算法,結(jié)合最快的深度跟蹤算法,同時(shí)自己研發(fā)出一些場(chǎng)景分析算法。三者結(jié)合在一起,目的是減少運(yùn)算量,減少檢測(cè)空間的大小。在這種情況下,在有限資源上實(shí)現(xiàn)了使用深度學(xué)習(xí)算法,但精度減少的非常少。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7660

    瀏覽量

    90753
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    77

    文章

    4081

    瀏覽量

    84241
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122785
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Arm KleidiCV與OpenCV集成助力移動(dòng)端計(jì)算機(jī)視覺(jué)性能優(yōu)化

    等多種應(yīng)用中。然而,這些計(jì)算機(jī)視覺(jué)應(yīng)用可能很難實(shí)現(xiàn)最優(yōu)化的延遲性能和處理速度,特別是在內(nèi)存大小、電池容量和處理能力有限的移動(dòng)設(shè)備難度更高。 而 Arm KleidiCV 便能在其中大顯身手。該開(kāi)源庫(kù)利用了最新 Arm CPU
    的頭像 發(fā)表于 02-24 10:15 ?563次閱讀

    AR和VR中的計(jì)算機(jī)視覺(jué)

    ):計(jì)算機(jī)視覺(jué)引領(lǐng)混合現(xiàn)實(shí)體驗(yàn)增強(qiáng)現(xiàn)實(shí)(AR)和虛擬現(xiàn)實(shí)(VR)正在徹底改變我們與外部世界的互動(dòng)方式。即便是引人入勝的沉浸式
    的頭像 發(fā)表于 02-08 14:29 ?1557次閱讀
    AR和VR中的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>

    工業(yè)中使用哪種計(jì)算機(jī)?

    工業(yè)環(huán)境中,工控機(jī)被廣泛使用。這些計(jì)算機(jī)的設(shè)計(jì)可承受極端溫度、灰塵和振動(dòng)等惡劣條件。它們比標(biāo)準(zhǔn)消費(fèi)類(lèi)計(jì)算機(jī)更耐用、更可靠。工業(yè)計(jì)算機(jī)可控制機(jī)器、監(jiān)控流程并實(shí)時(shí)收集數(shù)據(jù)。其堅(jiān)固的結(jié)構(gòu)和
    的頭像 發(fā)表于 11-29 14:07 ?705次閱讀
    工業(yè)中使用哪種<b class='flag-5'>計(jì)算機(jī)</b>?

    量子計(jì)算機(jī)與普通計(jì)算機(jī)工作原理的區(qū)別

    超越世界最強(qiáng)大的超級(jí)計(jì)算機(jī),完成以前不可想象的任務(wù)!這意味著量子計(jì)算機(jī)可能會(huì)徹底改變我們的生活。 本文中,我們將先了解普通計(jì)算機(jī)的工作原
    的頭像 發(fā)表于 11-24 11:00 ?1468次閱讀
    量子<b class='flag-5'>計(jì)算機(jī)</b>與普通<b class='flag-5'>計(jì)算機(jī)</b>工作原理的區(qū)別

    【小白入門(mén)必看】一文讀懂深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)技術(shù)及學(xué)習(xí)路線

    一、什么是計(jì)算機(jī)視覺(jué)?計(jì)算機(jī)視覺(jué),其實(shí)就是教機(jī)器怎么像我們?nèi)艘粯樱脭z像頭看看周?chē)氖澜?,然后理解它。比如說(shuō),它能認(rèn)出這是個(gè)蘋(píng)果,或者那邊有輛車(chē)。除此之外,還能把拍到的照片或者視頻轉(zhuǎn)換
    的頭像 發(fā)表于 10-31 17:00 ?1236次閱讀
    【小白入門(mén)必看】一文讀懂<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>技術(shù)及<b class='flag-5'>學(xué)習(xí)</b>路線

    晶體管計(jì)算機(jī)和電子管計(jì)算機(jī)有什么區(qū)別

    晶體管計(jì)算機(jī)和電子管計(jì)算機(jī)作為計(jì)算機(jī)發(fā)展史上的兩個(gè)重要階段,它們多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這兩類(lèi)計(jì)算機(jī)
    的頭像 發(fā)表于 08-23 15:28 ?3599次閱讀

    如何利用ARMxy ARM嵌入式計(jì)算機(jī)的NPU進(jìn)行深度學(xué)習(xí)模型的訓(xùn)練和優(yōu)化?

    正文開(kāi)始前,我們先大致了解鋇錸的ARMxy ARM嵌入式計(jì)算機(jī),再來(lái)說(shuō)說(shuō)我們?nèi)绾卫肁RMxy ARM嵌入式計(jì)算機(jī)的NPU來(lái)實(shí)現(xiàn)深度學(xué)習(xí)
    的頭像 發(fā)表于 08-20 13:43 ?752次閱讀
    如何利用ARMxy ARM嵌入式<b class='flag-5'>計(jì)算機(jī)</b>的NPU進(jìn)行<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型的訓(xùn)練和優(yōu)化?

    ARMxy ARM嵌入式計(jì)算機(jī)搭載 1 TOPS NPU支持深度學(xué)習(xí)

    ARMxy ARM嵌入式計(jì)算機(jī)BL410系列內(nèi)置了1TOPS算力 NPU,它每秒可以執(zhí)行高達(dá)一萬(wàn)億次的浮點(diǎn)運(yùn)算,這為復(fù)雜的圖像處理和深度學(xué)習(xí)任務(wù)提供了充足的計(jì)算資源。在產(chǎn)品缺陷檢測(cè)領(lǐng)域
    的頭像 發(fā)表于 08-20 11:53 ?843次閱讀
    ARMxy ARM嵌入式<b class='flag-5'>計(jì)算機(jī)</b>搭載 1 TOPS NPU支持<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>

    計(jì)算機(jī)視覺(jué)有哪些優(yōu)缺點(diǎn)

    計(jì)算機(jī)視覺(jué)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類(lèi)一樣理解和解釋圖像和視頻中的信息。這一技術(shù)的發(fā)展不僅推動(dòng)了多個(gè)行業(yè)的變革,也帶來(lái)了諸多優(yōu)勢(shì),但同時(shí)也伴隨著一些挑戰(zhàn)和局限性。以下是對(duì)
    的頭像 發(fā)表于 08-14 09:49 ?2035次閱讀

    計(jì)算機(jī)視覺(jué)中的圖像融合

    許多計(jì)算機(jī)視覺(jué)應(yīng)用中(例如機(jī)器人運(yùn)動(dòng)和醫(yī)學(xué)成像),需要將多個(gè)圖像的相關(guān)信息整合到單一圖像中。這種圖像融合可以提供更高的可靠性、準(zhǔn)確性和數(shù)據(jù)質(zhì)量。多視圖融合可以提高圖像分辨率,并恢復(fù)場(chǎng)景的三維表示
    的頭像 發(fā)表于 08-01 08:28 ?1140次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>中的圖像融合

    地平線科研論文入選國(guó)際計(jì)算機(jī)視覺(jué)頂會(huì)ECCV 2024

    近日,地平線兩篇論文入選國(guó)際計(jì)算機(jī)視覺(jué)頂會(huì)ECCV 2024,自動(dòng)駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1460次閱讀
    地平線科研論文入選國(guó)際<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>頂會(huì)ECCV 2024

    DRAM計(jì)算機(jī)中的應(yīng)用

    DRAM(Dynamic Random Access Memory,動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器)計(jì)算機(jī)系統(tǒng)中扮演著至關(guān)重要的角色。它是一種半導(dǎo)體存儲(chǔ)器,用于存儲(chǔ)和快速訪問(wèn)數(shù)據(jù),是計(jì)算機(jī)主內(nèi)存的主要組成部分。以下是對(duì)DRAM
    的頭像 發(fā)表于 07-24 17:04 ?2986次閱讀

    計(jì)算機(jī)視覺(jué)技術(shù)的AI算法模型

    計(jì)算機(jī)視覺(jué)技術(shù)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類(lèi)一樣理解和解釋圖像及視頻中的信息。為了實(shí)現(xiàn)這一目標(biāo),計(jì)算機(jī)視覺(jué)技術(shù)依賴(lài)于
    的頭像 發(fā)表于 07-24 12:46 ?1801次閱讀

    機(jī)器視覺(jué)計(jì)算機(jī)視覺(jué)有什么區(qū)別

    機(jī)器視覺(jué)計(jì)算機(jī)視覺(jué)是兩個(gè)密切相關(guān)但又有所區(qū)別的概念。 一、定義 機(jī)器視覺(jué) 機(jī)器視覺(jué),又稱(chēng)為計(jì)算機(jī)
    的頭像 發(fā)表于 07-16 10:23 ?1162次閱讀

    機(jī)器視覺(jué)四大類(lèi)應(yīng)用是什么?

    機(jī)器視覺(jué)是一種利用計(jì)算機(jī)和圖像處理技術(shù),模擬人類(lèi)視覺(jué)系統(tǒng),實(shí)現(xiàn)對(duì)圖像的獲取、處理、分析和理解的技術(shù)。它在工業(yè)、醫(yī)療、農(nóng)業(yè)、交通等領(lǐng)域有著廣泛的應(yīng)用。以下是機(jī)器視覺(jué)
    的頭像 發(fā)表于 07-16 10:17 ?2602次閱讀