chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)比作一場“熱兵器革命”

新機(jī)器視覺 ? 來源:DeepBlue深蘭科技 ? 2020-08-28 10:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

二十年

計算機(jī)視覺領(lǐng)域中有幾個基本的任務(wù):圖像分類[3]、目標(biāo)檢測[4]、實例分割[5]及語義分割[6],其中目標(biāo)檢測作為計算機(jī)視覺中最基本的任務(wù)在近年來引起了廣泛關(guān)注。某種意義上,它在過去二十年內(nèi)的發(fā)展也是計算機(jī)視覺發(fā)展史的縮影。如果我們將今天基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)比作一場“熱兵器革命”,那么回顧20年前的技術(shù)時即可窺探“冷兵器”時代的智慧。

過去二十年中與 “ 目標(biāo)檢測 ” 相關(guān)的出版物數(shù)量的增長

目標(biāo)檢測是一項計算機(jī)視覺任務(wù)。正如視覺對于人的作用一樣,目標(biāo)檢測旨在解決計算機(jī)視覺應(yīng)用中兩個最基本的問題:

1. 該物體是什么?

2. 該物體在哪里?

當(dāng)然,聰明的人可能會立即想到第三個問題:“該物體在干什么?”這即是更進(jìn)一步的邏輯及認(rèn)知推理,這一點(diǎn)在近年來的目標(biāo)檢測技術(shù)中也越來越被重視。不管怎樣,作為計算機(jī)視覺的基本任務(wù),它也是其他計算機(jī)視覺任務(wù)的主要成分,如實例分割、圖像字幕、目標(biāo)跟蹤等。

從應(yīng)用的角度來看,目標(biāo)檢測可以被分為兩個研究主題:“通用目標(biāo)檢測(General Object Detection) ” 及 “檢測應(yīng)用(Detection Applications)” ,前者旨在探索在統(tǒng)一的框架下檢測不同類型物體的方法,以模擬人類的視覺和認(rèn)知;后者是指特定應(yīng)用場景下的檢測,如行人檢測、人臉檢測、文本檢測等。

近年來,隨著深度學(xué)習(xí)技術(shù)[7]的快速發(fā)展,為目標(biāo)檢測注入了新鮮血液,取得了顯著的突破,也將其推向了一個前所未有的研究熱點(diǎn)。目前,目標(biāo)檢測已廣泛應(yīng)用于自動駕駛機(jī)器人視覺、視頻監(jiān)控等領(lǐng)域。

二十年間的發(fā)展

如下圖所示,以2014年為分水嶺,目標(biāo)檢測在過去的二十年中可大致分為兩個時期:2014年前的“傳統(tǒng)目標(biāo)檢測期”及之后的“基于深度學(xué)習(xí)的目標(biāo)檢測期”。接下來我們詳細(xì)談?wù)搩蓚€時期的發(fā)展。

傳統(tǒng)檢測

早期的目標(biāo)檢測算法大多是基于手工特征構(gòu)建的。由于當(dāng)時缺乏有效的圖像表示,人們別無選擇,只能設(shè)計復(fù)雜的特征表示及各種加速技術(shù)對有限的計算資源物盡其用。

(1) Viola Jones檢測器

18年前,P. Viola和M. Jones在沒有任何約束(如膚色分割)的情況下首次實現(xiàn)了人臉的實時檢測[8][9]。他們所設(shè)計的檢測器在一臺配備700MHz Pentium III CPU電腦上運(yùn)行,在保持同等檢測精度的條件下的運(yùn)算速度是其他算法的數(shù)十甚至數(shù)百倍。這種檢測算法以共同作者的名字命名為“Viola-Jones (VJ) 檢測器”以紀(jì)念他們的重大貢獻(xiàn)。

VJ檢測器采用最直接的檢測方法,即滑動窗口(slide window):查看一張圖像中所有可能的窗口尺寸和位置并判斷是否有窗口包含人臉。這一過程雖然聽上去簡單,但它背后所需的計算量遠(yuǎn)遠(yuǎn)超出了當(dāng)時計算機(jī)的算力。VJ檢測器結(jié)合了 “積分圖像”、“特征選擇” 和 “檢測級聯(lián)” 三種重要技術(shù),大大提高了檢測速度。

1)積分圖像:這是一種計算方法,以加快盒濾波或卷積過程。與當(dāng)時的其他目標(biāo)檢測算法一樣[10],在VJ檢測器中使用Haar小波作為圖像的特征表示。積分圖像使得VJ檢測器中每個窗口的計算復(fù)雜度與其窗口大小無關(guān)。

2)特征選擇:作者沒有使用一組手動選擇的Haar基過濾器,而是使用Adaboost算法從一組巨大的隨機(jī)特征池 (大約18萬維) 中選擇一組對人臉檢測最有幫助的小特征。

3)檢測級聯(lián):在VJ檢測器中引入了一個多級檢測范例 ( 又稱“檢測級聯(lián)”,detection cascades ),通過減少對背景窗口的計算,而增加對人臉目標(biāo)的計算,從而減少了計算開銷。

(2) HOG 檢測器

方向梯度直方圖(HOG)特征描述器最初是由N. Dalal和B.Triggs在2005年提出的[11]。HOG對當(dāng)時的尺度不變特征變換(scale-invariant feature transform)和形狀語境(shape contexts)做出重要改進(jìn)。

為了平衡特征不變性 ( 包括平移、尺度、光照等 ) 和非線性 ( 區(qū)分不同對象類別 ),HOG描述器被設(shè)計為在密集的均勻間隔單元網(wǎng)格(稱為一個“區(qū)塊”)上計算,并使用重疊局部對比度歸一化方法來提高精度。

雖然HOG可以用來檢測各種對象類,但它的主要目標(biāo)是行人檢測問題。如若要檢測不同大小的對象,則要讓HOG檢測器在保持檢測窗口大小不變的情況下,對輸入圖像進(jìn)行多次重設(shè)尺寸(rescale)。這么多年來,HOG檢測器一直是許多目標(biāo)檢測器和各種計算機(jī)視覺應(yīng)用的重要基礎(chǔ)。

方向梯度直方圖(HOG),計算出每個像素朝四周的梯度方向和梯度強(qiáng)度,并統(tǒng)計形成梯度直方圖

(3) 基于可變形部件的模型(DPM)

DPM作為voco -07、-08、-09屆檢測挑戰(zhàn)賽的優(yōu)勝者,它曾是傳統(tǒng)目標(biāo)檢測方法的巔峰。DPM最初是由P. Felzenszwalb提出的[12],于2008年作為HOG檢測器的擴(kuò)展,之后R. Girshick進(jìn)行了各種改進(jìn)[13][14]。

DPM遵循“分而治之”的檢測思想,訓(xùn)練可以簡單地看作是學(xué)習(xí)一種正確的分解對象的方法,推理可以看作是對不同對象部件的檢測的集合。例如,檢測“汽車”的問題可以看作是檢測它的窗口、車身和車輪。工作的這一部分,也就是“star model”由P.Felzenszwalb等人完成。后來,R. Girshick進(jìn)一步將star model擴(kuò)展到 “ 混合模型 ”,以處理更顯著變化下的現(xiàn)實世界中的物體。

一個典型的DPM檢測器由一個根過濾器(root-filter)和一些零件濾波器(part-filters)組成。該方法不需要手動設(shè)定零件濾波器的配置(如尺寸和位置),而是在開發(fā)了一種弱監(jiān)督學(xué)習(xí)方法并使用到了DPM中,所有零件濾波器的配置都可以作為潛在變量自動學(xué)習(xí)。R. Girshick將這個過程進(jìn)一步表述為一個多實例學(xué)習(xí)的特殊案例,同時還應(yīng)用了“困難負(fù)樣本挖掘(hard-negative mining)”、“邊界框回歸”、“語境啟動”等重要技術(shù)以提高檢測精度。而為了加快檢測速度,Girshick開發(fā)了一種技術(shù),將檢測模型“ 編譯 ”成一個更快的模型,實現(xiàn)了級聯(lián)結(jié)構(gòu),在不犧牲任何精度的情況下實現(xiàn)了超過10倍的加速。

雖然今天的目標(biāo)探測器在檢測精度方面已經(jīng)遠(yuǎn)遠(yuǎn)超過了DPM,但仍然受到DPM的許多有價值的見解的影響,如混合模型、困難負(fù)樣本挖掘、邊界框回歸等。2010年,P. Felzenszwalb和R. Girshick被授予PASCAL VOC的 “終身成就獎”。

基于卷積神經(jīng)網(wǎng)絡(luò)的雙級檢測器

隨著手動選取特征技術(shù)的性能趨于飽和,目標(biāo)檢測在2010年之后達(dá)到了一個平穩(wěn)的發(fā)展期。2012年,卷積神經(jīng)網(wǎng)絡(luò)在世界范圍內(nèi)重新煥發(fā)生機(jī)[15]。由于深卷積網(wǎng)絡(luò)能夠?qū)W習(xí)圖像的魯棒性和高層次特征表示,一個自然而然的問題是:我們能否將其應(yīng)用到目標(biāo)檢測中?

R. Girshick等人在2014年率先打破僵局,提出了具有CNN特征的區(qū)域(RCNN)用于目標(biāo)檢測[16]。從那時起,目標(biāo)檢測開始以前所未有的速度發(fā)展。在深度學(xué)習(xí)時代,目標(biāo)檢測可以分為兩類:“雙級檢測(two-stage detection)” 和 “單級檢測(one-stage detection)”,前者將檢測框定為一個“從粗到細(xì) ”的過程,而后者將其定義為“一步到位”。

雙級檢測的發(fā)展及各類檢測器的結(jié)構(gòu)[2]

(1) RCNN

RCNN[17]的思路很簡單:它首先通過選擇性搜索來提取一組對象作為“提案(proposal)”并當(dāng)做對象的候選框。然后將每個提案重新調(diào)整成一個固定大小的圖像,再輸入到一個在ImageNet上訓(xùn)練得到的CNN模型(如AlexNet) 來提取特征。最后,利用線性SVM分類器對每個區(qū)域內(nèi)的目標(biāo)進(jìn)行預(yù)測,識別目標(biāo)類別。RCNN在VOC07測試集上有明顯的性能提升,平均精準(zhǔn)度 (mean Average Precision,mAP) 從33.7%(DPM-v5) 大幅提高到58.5%。

雖然RCNN已經(jīng)取得了很大的進(jìn)步,但它的缺點(diǎn)是顯而易見的:需要在大量重疊的提案上進(jìn)行冗余的特征計算 (一張圖片超過2000個框),導(dǎo)致檢測速度極慢(使用GPU時每張圖片耗時14秒)。同年晚些時候,有人提出了SPPNet并克服了這個問題。

(2) SPPNet

2014年,K. He等人提出了空間金字塔池化網(wǎng)絡(luò)( Spatial Pyramid Pooling Networks,SPPNet)[18]。以前的CNN模型需要固定大小的輸入,例如AlexNet需要224x224圖像。SPPNet的主要貢獻(xiàn)是引入了空間金字塔池化(SPP)層,它使CNN能夠生成固定長度的表示,而不需要重新調(diào)節(jié)有意義圖像的尺寸。

利用SPPNet進(jìn)行目標(biāo)檢測時,只對整個圖像進(jìn)行一次特征映射計算,然后生成任意區(qū)域的定長表示以訓(xùn)練檢測器,避免了卷積特征的重復(fù)計算。SPPNet的速度是R-CNN的20多倍,并且沒有犧牲任何檢測精度(VOC07 mAP=59.2%)。

SPPNet雖然有效地提高了檢測速度,但仍然存在一些不足:

第一,訓(xùn)練仍然是多階段的。

第二,SPPNet只對其全連接層進(jìn)行微調(diào),而忽略了之前的所有層。而次年晚些時候出現(xiàn)Fast RCNN并解決了這些問題。

(3)Fast RCNN

2015年,R. Girshick提出了Fast RCNN檢測器[19],這是對R-CNN和SPPNet的進(jìn)一步改進(jìn)。Fast RCNN使我們能夠在相同的網(wǎng)絡(luò)配置下同時訓(xùn)練檢測器和邊界框回歸器。在VOC07數(shù)據(jù)集上,F(xiàn)ast RCNN將mAP從58.5%( RCNN)提高到70.0%,檢測速度是R-CNN的200多倍。

雖然Fast-RCNN成功地融合了R-CNN和SPPNet的優(yōu)點(diǎn),但其檢測速度仍然受到提案檢測的限制。然后,一個問題自然而然地出現(xiàn)了:“ 我們能用CNN模型生成對象提案嗎? ” 之后的Faster R-CNN解決了這個問題。

(4) Faster RCNN

2015年,S. Ren等人提出了Faster RCNN檢測器[20],在Fast RCNN之后不久。Faster RCNN 是第一個端到端的,也是第一個接近實時的深度學(xué)習(xí)檢測器(COCO mAP@.5=42.7%,COCO mAP@[.5,.95]=21.9%, VOC07 mAP=73.2%,VOC12 mAP=70.4%)。

Faster RCNN的主要貢獻(xiàn)是引入了區(qū)域提案網(wǎng)絡(luò) (RPN)從而允許幾乎所有的cost-free的區(qū)域提案。從RCNN到Faster RCNN,一個目標(biāo)檢測系統(tǒng)中的大部分獨(dú)立塊,如提案檢測、特征提取、邊界框回歸等,都已經(jīng)逐漸集成到一個統(tǒng)一的端到端學(xué)習(xí)框架中。

雖然Faster RCNN突破了Fast RCNN的速度瓶頸,但是在后續(xù)的檢測階段仍然存在計算冗余。后來提出了多種改進(jìn)方案,包括RFCN和 Light head RCNN。

(5) Feature Pyramid Networks(FPN)

2017年,T.-Y.Lin等人基于Faster RCNN提出了特征金字塔網(wǎng)絡(luò)(FPN)[21]。在FPN之前,大多數(shù)基于深度學(xué)習(xí)的檢測器只在網(wǎng)絡(luò)的頂層進(jìn)行檢測。雖然CNN較深層的特征有利于分類識別,但不利于對象的定位。

為此,開發(fā)了具有橫向連接的自頂向下體系結(jié)構(gòu),用于在所有級別構(gòu)建高級語義。由于CNN通過它的正向傳播,自然形成了一個特征金字塔,F(xiàn)PN在檢測各種尺度的目標(biāo)方面顯示出了巨大的進(jìn)步。

在基礎(chǔ)的Faster RCNN系統(tǒng)中使用FPN骨架可在無任何修飾的條件下在MS-COCO數(shù)據(jù)集上以單模型實現(xiàn)state-of-the-art 的效果(COCO mAP@.5=59.1%,COCO mAP@[.5,.95]= 36.2%)。FPN現(xiàn)在已經(jīng)成為許多最新探測器的基本組成部分。

基于卷積神經(jīng)網(wǎng)絡(luò)的單級檢測器

單階段檢測的發(fā)展及各類檢測器的結(jié)構(gòu)[2]

(1) You Only Look Once (YOLO)

YOLO由R. Joseph等人于2015年提出[22]。它是深度學(xué)習(xí)時代的第一個單級檢測器。YOLO非??欤篩OLO的一個快速版本運(yùn)行速度為155fps, VOC07 mAP=52.7%,而它的增強(qiáng)版本運(yùn)行速度為45fps, VOC07 mAP=63.4%, VOC12 mAP=57.9%。YOLO是“ You Only Look Once ” 的縮寫。從它的名字可以看出,作者完全拋棄了之前的“提案檢測+驗證”的檢測范式。

相反,它遵循一個完全不同的設(shè)計思路:將單個神經(jīng)網(wǎng)絡(luò)應(yīng)用于整個圖像。該網(wǎng)絡(luò)將圖像分割成多個區(qū)域,同時預(yù)測每個區(qū)域的邊界框和概率。后來R. Joseph在 YOLO 的基礎(chǔ)上進(jìn)行了一系列改進(jìn),其中包括以路徑聚合網(wǎng)絡(luò)(Path aggregation Network, PAN)取代FPN,定義新的損失函數(shù)等,陸續(xù)提出了其 v2、v3及v4版本(截止本文的2020年7月,Ultralytics發(fā)布了“YOLO v5”,但并沒有得到官方承認(rèn)),在保持高檢測速度的同時進(jìn)一步提高了檢測精度。

必須指出的是,盡管與雙級探測器相比YOLO的探測速度有了很大的提高,但它的定位精度有所下降,特別是對于一些小目標(biāo)而言。YOLO的后續(xù)版本及在它之后提出的SSD更關(guān)注這個問題。

(2) Single Shot MultiBox Detector (SSD)

SSD由W. Liu等人于2015年提出[23]。這是深度學(xué)習(xí)時代的第二款單級探測器。SSD的主要貢獻(xiàn)是引入了多參考和多分辨率檢測技術(shù),這大大提高了單級檢測器的檢測精度,特別是對于一些小目標(biāo)。SSD在檢測速度和準(zhǔn)確度上都有優(yōu)勢(VOC07 mAP=76.8%,VOC12 mAP=74.9%, COCO mAP@.5=46.5%,mAP@[.5,.95]=26.8%,快速版本運(yùn)行速度為59fps) 。SSD與其他的檢測器的主要區(qū)別在于,前者在網(wǎng)絡(luò)的不同層檢測不同尺度的對象,而后者僅在其頂層運(yùn)行檢測。

(3) RetinaNet

單級檢測器有速度快、結(jié)構(gòu)簡單的優(yōu)點(diǎn),但在精度上多年來一直落后于雙級檢測器。T.-Y.Lin等人發(fā)現(xiàn)了背后的原因,并在2017年提出了RetinaNet[24]。他們的觀點(diǎn)為精度不高的原因是在密集探測器訓(xùn)練過程中極端的前景-背景階層不平衡(the extreme foreground-background class imbalance)現(xiàn)象。

為此,他們在RetinaNet中引入了一個新的損失函數(shù) “ 焦點(diǎn)損失(focal loss)”,通過對標(biāo)準(zhǔn)交叉熵?fù)p失的重構(gòu),使檢測器在訓(xùn)練過程中更加關(guān)注難分類的樣本。焦損耗使得單級檢測器在保持很高的檢測速度的同時,可以達(dá)到與雙級檢測器相當(dāng)?shù)木取?COCO mAP@.5=59.1%,mAP@[.5, .95]=39.1% )。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:目標(biāo)檢測二十年間的那些事兒——從傳統(tǒng)方法到深度學(xué)習(xí)

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    航天科普|一場救援中的通信革命-衛(wèi)星通信(下篇)

    席卷全球的衛(wèi)星通信革命。是一場“手機(jī)芯片-衛(wèi)星-地面站-救援系統(tǒng)”的技術(shù)協(xié)同“革命”。上期我們介紹了目前衛(wèi)星通信的衛(wèi)星通信目前的市場情況、產(chǎn)業(yè)鏈發(fā)展及產(chǎn)業(yè)
    的頭像 發(fā)表于 07-01 17:03 ?603次閱讀
    航天科普|<b class='flag-5'>一場</b>救援中的通信<b class='flag-5'>革命</b>-衛(wèi)星通信(下篇)

    鋰電池失控原理及安全檢測技術(shù)解析

    的影響尚未完全量化。 創(chuàng)新方向展望: 智能傳感集成:開發(fā)柔性熱電偶與光纖傳感器,實現(xiàn)電池包內(nèi)部溫度實時映射; 數(shù)字孿生技術(shù):結(jié)合AI算法預(yù)測失控傳播路徑,優(yōu)化熱管理設(shè)計。 更多關(guān)于菲尼克斯
    發(fā)表于 05-12 16:51

    科技護(hù)航軍械管理:RFID 智能兵器室管控系統(tǒng)創(chuàng)新方案

    根本跟不上要求。這時候,RFID 技術(shù)就派上用場了。它不用直接接觸就能識別,能下子讀取好多目標(biāo),還能實時傳信息,和數(shù)字化技術(shù)結(jié)合,就能幫
    的頭像 發(fā)表于 04-28 16:55 ?285次閱讀
    科技護(hù)航軍械管理:RFID 智能<b class='flag-5'>兵器</b>室管控系統(tǒng)創(chuàng)新方案

    高德地圖推出全球首個AI導(dǎo)航智能體

    當(dāng)?shù)貓D導(dǎo)航與AI深度融合,一場關(guān)于出行效率與體驗的革命,正在悄然發(fā)生。
    的頭像 發(fā)表于 04-15 17:01 ?606次閱讀

    你以為的安全,真的安全嗎?——擬態(tài)安全,一場關(guān)于認(rèn)知的博弈

    黑客的日常工作就像一場精心策劃的“入室盜竊”。首先“踩點(diǎn)”——掃描目標(biāo)系統(tǒng)的端口、分析網(wǎng)絡(luò)流量、研究系統(tǒng)架構(gòu)找出漏洞,但如果黑客發(fā)現(xiàn)系統(tǒng)會“變臉”,今天Windows,明天變成Linux,剛研究完
    的頭像 發(fā)表于 04-14 10:45 ?168次閱讀
    你以為的安全,真的安全嗎?——擬態(tài)安全,<b class='flag-5'>一場</b>關(guān)于認(rèn)知的博弈

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    睿創(chuàng)微納推出新目標(biāo)檢測算法

    隨著AI技術(shù)的發(fā)展,目標(biāo)檢測算法也迎來重大突破。睿創(chuàng)微納作為成像領(lǐng)軍者,憑借深厚的技術(shù)積累與創(chuàng)新能力,結(jié)合AI
    的頭像 發(fā)表于 03-20 13:49 ?435次閱讀

    軒轅智駕紅外成像技術(shù)的應(yīng)用案例

    眾所周知,礦卡、工程機(jī)械以及特種車所處作業(yè)環(huán)境相對較為復(fù)雜,安全與高效始終是其追求的核心目標(biāo)。近年來,紅外成像技術(shù)異軍突起,以其獨(dú)特優(yōu)勢,在這些領(lǐng)域掀起了一場
    的頭像 發(fā)表于 03-20 13:42 ?398次閱讀

    Imagination:軟件定義汽車時代,一場由算力驅(qū)動的出行革命

    當(dāng)輛汽車的性能不再由發(fā)動機(jī)排量決定,而是取決于車載芯片的算力與軟件的智能程度,這場由"軟件定義汽車"(SDV)引發(fā)的產(chǎn)業(yè)革命已勢不可擋。在2025年CES展會上,全球科技巨頭
    的頭像 發(fā)表于 03-10 14:00 ?920次閱讀
    Imagination:軟件定義汽車時代,<b class='flag-5'>一場</b>由算力驅(qū)動的出行<b class='flag-5'>革命</b>

    視未來:紅外成像引領(lǐng)工業(yè)視覺革命

    隨著工業(yè)4.0時代的到來,智能制造和自動化技術(shù)的迅速發(fā)展,工業(yè)技術(shù)成為創(chuàng)新的重要領(lǐng)域。這背景下,紅外成像技術(shù)憑借其獨(dú)特優(yōu)勢,正在引領(lǐng)工業(yè)
    的頭像 發(fā)表于 02-17 10:50 ?516次閱讀
    <b class='flag-5'>熱</b>視未來:紅外<b class='flag-5'>熱</b>成像引領(lǐng)工業(yè)視覺<b class='flag-5'>革命</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    1、簡介 人工智能圖像識別是人工智能領(lǐng)域的個重要分支,它涉及計算機(jī)視覺、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)等多個領(lǐng)域的知識和技術(shù)。圖像識別主要是處理具有
    發(fā)表于 12-19 14:33

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為
    的頭像 發(fā)表于 11-14 15:17 ?1918次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?1069次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 深度學(xué)習(xí)是AI大模型的基礎(chǔ)
    的頭像 發(fā)表于 10-23 15:25 ?2893次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題() Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度
    發(fā)表于 09-27 20:53