chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在目標(biāo)檢測(cè)中的應(yīng)用

新機(jī)器視覺(jué) ? 來(lái)源:CV算法恩仇錄 ? 作者:CV算法恩仇錄 ? 2022-10-31 10:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

二階段目標(biāo)檢測(cè)算法(RCNN 家族)是目標(biāo)檢測(cè)中最經(jīng)典的算法之一,有 R-CNN -> Fast R-CNN -> Faster R-CNN,每一代的變化以及目的性都明確,也是目標(biāo)檢測(cè)領(lǐng)域二階段檢測(cè)必會(huì)的算法之一。

如果想對(duì)目標(biāo)檢測(cè)有粗略的了解請(qǐng)查看這兩篇文章:

目標(biāo)檢測(cè)綜述

目標(biāo)檢測(cè)快速入門(mén)(含YOLO V1原理詳解)

深度學(xué)習(xí)在目標(biāo)檢測(cè)應(yīng)用

R-CNN 算法在 2014 年提出,可以說(shuō)是歷史性的算法,將深度學(xué)習(xí)應(yīng)用于目標(biāo)檢測(cè)領(lǐng)域,相較于之前的目標(biāo)檢測(cè)方法,提升多達(dá) 30% 以上,大大提高了目標(biāo)檢測(cè)效果,改變了目標(biāo)檢測(cè)領(lǐng)域的研究方向。

早在 2010 年,深度學(xué)習(xí)已經(jīng)初露鋒芒,為什么在 2014 年目標(biāo)檢測(cè)才可以說(shuō)正式應(yīng)用深度學(xué)習(xí)技術(shù)呢?

這要從目標(biāo)檢測(cè)的場(chǎng)景以及目的上來(lái)分析。將問(wèn)題簡(jiǎn)化一下,假設(shè)現(xiàn)在在做貓和狗的檢測(cè),要從圖片中找到貓和狗的位置并且知道是什么分類。對(duì)于人工智能問(wèn)題,往下細(xì)分可以分到 2 個(gè)方向,分類問(wèn)題和回歸問(wèn)題。識(shí)別一張圖片是貓還是狗是比較容易的事情,也可以準(zhǔn)確的說(shuō)是分類問(wèn)題。

但是尋找到圖片中不確定是否含有以及不確定具體數(shù)量的貓和狗的具體位置,這樣的一個(gè)問(wèn)題算作哪個(gè)類別呢?分類和回歸問(wèn)題都不好往上面靠,下面再把問(wèn)題拆分一下。

目標(biāo)檢測(cè)中的分類與回歸問(wèn)題

假設(shè),現(xiàn)在已經(jīng)有框了,如圖 1 所示,根據(jù) 4 個(gè)檢測(cè)框內(nèi)是否包含狗做分類,包含待檢測(cè)目標(biāo)越完整、背景越少則概率越高,下圖中顯然藍(lán)色更加合適。

462c7556-5852-11ed-a3b6-dac502259ad0.png

圖1 目標(biāo)檢測(cè)示意

用藍(lán)色的檢測(cè)框來(lái)代表檢測(cè)的物體還有個(gè)問(wèn)題,就是這個(gè)框還有些許的偏差,離“完美”的檢測(cè)框還是有一些距離,下面可以對(duì)我們的檢測(cè)框進(jìn)行矯正回歸,如圖 2 所示。白色的框是“完美檢測(cè)框”,我們希望藍(lán)色的檢測(cè)框向白色的檢測(cè)框從形狀和位置上靠近,在某些特殊條件下,這種變換滿足線性的變化,將邊框的矯正問(wèn)題轉(zhuǎn)變成一個(gè)回歸問(wèn)題。

46e4309c-5852-11ed-a3b6-dac502259ad0.png

圖2 邊框矯正示意圖

現(xiàn)在目標(biāo)檢測(cè)問(wèn)題得到了解決,前提是已經(jīng)存在可能存在待檢測(cè)物體的預(yù)選框,剩下的問(wèn)題是如何產(chǎn)生這些預(yù)選框。

R-CNN 算法就是采用上面所述的解決思路,采用的是選擇性搜索 (Selective Search) 算法來(lái)選擇預(yù)選框。

選擇性搜索 (Selective Search) 提取候選區(qū)域

選擇性搜索 (Selective Search) 是對(duì)上文中的選擇區(qū)域過(guò)程進(jìn)行的一個(gè)優(yōu)化。Selective Search 算法在 13 年提出,這個(gè)算法其實(shí)是借鑒了層次聚類的思想,將層次聚類的思想應(yīng)用到區(qū)域的合并上面。

首先使用 Felzenszwalb 等人在其論文 “Efficient Graph-Based Image Segmentation ” 中描述的方法生成輸入圖像的初始子候選區(qū)域。

然后將較小的相似區(qū)域遞歸組合為較大的相似區(qū)域。這里使用貪婪算法將相似的區(qū)域組合成更大的區(qū)域。

所謂貪婪算法就是從一組區(qū)域中,選擇兩個(gè)最相似的區(qū)域,將它們合并為一個(gè)較大的區(qū)域,重復(fù)上述步驟進(jìn)行多次迭代,直至數(shù)量為我們想得到的候選區(qū)域數(shù)量。

選擇性搜索的思想是基于圖像中物體可能具有某些相似性或者連續(xù)性,因此采用子區(qū)域合并的方法進(jìn)行提取候選邊界框,合并過(guò)程根據(jù)子區(qū)域之間的顏色、紋理、體積等相似性進(jìn)行區(qū)域合并,最后合并成我們想要的數(shù)量,然后再對(duì)子區(qū)域做外切矩形,得到的矩形就是候選區(qū)域。

471ad48a-5852-11ed-a3b6-dac502259ad0.png

圖3 Selective Search示意圖

R-CNN:Region with CNN feature (Region proposals + CNN)

R-CNN 算法流程可以分為 4 步:

使用選擇性搜索 (Selective Search) 從圖像中提取 1k-2k 個(gè)區(qū)域,將其稱為候選區(qū)域。

將這 2000 個(gè)大小可能不同的候選區(qū)域處理成固定大小 (227,227),然后輸入到卷積神經(jīng)網(wǎng)絡(luò)中做圖像特征提取,生成 4096 維特征圖作為第二步輸出。

將特征圖輸入到一組 SVM 中,對(duì)候選區(qū)域是否存在要檢測(cè)的目標(biāo)進(jìn)行分類,每個(gè) SVM 都是一個(gè)二分類器,負(fù)責(zé)判斷是否是存在某一個(gè)類 (yes/no),也就是說(shuō)有多少個(gè)分類就有多少個(gè)SVM分類器。

除了預(yù)測(cè)候選區(qū)域內(nèi)是否包含檢測(cè)目標(biāo),該算法還預(yù)測(cè)四個(gè)值,這些值是偏移值,以提高邊界框的精度。

47e3c3e0-5852-11ed-a3b6-dac502259ad0.png

圖4 RCNN示意圖

統(tǒng)一候選區(qū)域尺寸

通過(guò)前面的內(nèi)容,可以在圖片中找出想得到的候選區(qū)域,這個(gè)候選區(qū)域不一定都是同樣的大小,如果進(jìn)行簡(jiǎn)單的縮放到同一尺寸,會(huì)造成不同的拉扯程度,同一張圖片選出的候選框進(jìn)行了不同程度的變形會(huì)對(duì)結(jié)果造成影響。

選擇性搜索最終產(chǎn)出的是矩形,論文中對(duì)矩形的縮放嘗試了兩種方式:各向同性縮放、各向異性縮放。

4873cdbe-5852-11ed-a3b6-dac502259ad0.png

圖5 RCNN-圖像尺寸統(tǒng)一處理示意圖

上圖 5 中 B 列,直接在原始圖片中,把邊界擴(kuò)展延伸成正方形,然后再進(jìn)行裁剪;如果已經(jīng)延伸到了原始圖片的外邊界,那么就用候選框中的顏色進(jìn)行填充;C 列,先沿邊框進(jìn)行剪裁,然后用固定顏色填充成正方形,這個(gè)固定顏色為候選框內(nèi)顏色均值;D 列方法很簡(jiǎn)單,不管候選區(qū)域的寬高比,直接進(jìn)行縮放。

在此基礎(chǔ)上,作者還嘗試了加入 padding 處理,示意圖中第一、三行是使用了padding=0 的效果,第二、四行使用了 padding=16 的效果。經(jīng)過(guò)測(cè)試發(fā)現(xiàn),使用各向異性縮放結(jié)合 padding=16 的精度最高,使 mAp 提高了 3 到 5 個(gè)百分點(diǎn)。

在網(wǎng)絡(luò)結(jié)構(gòu)方面,R-CNN 對(duì)比現(xiàn)在流行的網(wǎng)絡(luò)顯得略微“單薄”。方案選擇上面有 2 個(gè)選擇:Alexnet 與 VGG16。從表現(xiàn)來(lái)說(shuō) VGG16 的表現(xiàn)效果會(huì)更好一些,VGG16 有較小的卷積核以及較小的步長(zhǎng),泛化能力更強(qiáng),但是計(jì)算量是 Alexnet 的 7 倍。

Fast R-CNN:Towards Real-Time Object Detection with Region Proposal Networks

站在現(xiàn)在的目標(biāo)檢測(cè)技術(shù)角度去看 R-CNN,可能會(huì)覺(jué)得這個(gè)模型表現(xiàn)的并不是很好,設(shè)計(jì)的也不夠合理,但是在當(dāng)時(shí) R-CNN 將深度學(xué)習(xí)引入檢測(cè)領(lǐng)域,一舉將 PASCAL VOC 上的檢測(cè)率從 35.1% 提升到 53.7%。

R-CNN 也存在著非常大的問(wèn)題,首先三個(gè)模型在訓(xùn)練的方面會(huì)是個(gè)比較大的挑戰(zhàn),其次也是最主要的就是效率問(wèn)題,計(jì)算 Region Proposals 和 features 平均所花時(shí)間:13s/image on a GPU;53s/image on a CPU。最后 2000 個(gè)左右的候選區(qū)域都需要經(jīng)過(guò)網(wǎng)絡(luò)處理,這就加大了計(jì)算代價(jià)。

已經(jīng)定位了 R-CNN 的計(jì)算瓶頸,那么解決方法也就應(yīng)運(yùn)而生,R-CNN 的同一作者解決了R-CNN 的一些缺點(diǎn)并提出了新的算法,該算法稱為 Fast R-CNN。

Fast R-CNN 算法發(fā)表于 2015 年,在同樣使用 VGG16 網(wǎng)絡(luò)作為 Backbone 的情況下,與 R-CNN 相比訓(xùn)練速度快 9 倍,推理時(shí)間快了 200 多倍,在 Pascal VOC 數(shù)據(jù)集上準(zhǔn)確率也從 62% 提升到了66%。

整體思路類似于 R-CNN 算法,與之不同的是,不再用候選區(qū)域選出來(lái)再傳入網(wǎng)絡(luò)中,F(xiàn)ast R-CNN 將輸入圖像直接提供給 CNN 結(jié)構(gòu)來(lái)生成卷積特征圖,在原圖中使用 SS(Selective Search) 算法提取候選區(qū)域,映射到特征圖上形成特征矩陣,這樣看似簡(jiǎn)單的調(diào)整順序,從需要對(duì) 1k-2k 張圖像提取特征轉(zhuǎn)變成只需要對(duì)一張圖像提取特征,極大的減少了執(zhí)行時(shí)間。

但是新的問(wèn)題也出來(lái)了,對(duì)特征圖進(jìn)行預(yù)選區(qū)域選擇后產(chǎn)出的“小特征圖”大小不一,無(wú)法一下放入網(wǎng)絡(luò)中進(jìn)行處理與預(yù)測(cè)。Fast R-CNN 借鑒了 SPP Net 的設(shè)計(jì)來(lái)解決這個(gè)問(wèn)題。

SPP:Spatial Pyramid Pooling(空間金字塔池化)

SPP-Net 是出自 2015 年發(fā)表在 IEEE 上的論文:《Spatial Pyramid Pooling in Deep ConvolutionalNetworks for Visual Recognition》,SPP 是其中核心的設(shè)計(jì)。

CNN 一般都有卷積部分和全連接部分,其中,卷積層不需要固定尺寸的圖像,而全連接層是需要固定大小的輸入。

所以當(dāng)全連接層面對(duì)各種尺寸的輸入數(shù)據(jù)時(shí),就需要對(duì)輸入數(shù)據(jù)進(jìn)行 crop(crop 就是從一個(gè)大圖摳出網(wǎng)絡(luò)輸入大小的 patch,比如 227×227),或 warp(把一個(gè)邊界框 bounding box 的內(nèi)容 resize 成 227×227)等一系列操作以統(tǒng)一圖片的尺寸大小,比如 224×224(ImageNet)、32×32(LenNet)等。

在 R-CNN 中,因?yàn)槿〕龅膮^(qū)域大小各自不同,所以需要將每個(gè) Region Proposal 縮放(warp)成統(tǒng)一的 227x227 的大小并輸入到 CNN。但 warp/crop 這種預(yù)處理,導(dǎo)致的問(wèn)題要么被拉伸變形、要么物體不全,限制了識(shí)別精確度。如圖 6 所示,原本“瘦高”的燈塔,warp 之后體型“發(fā)福”了。

48ede8ec-5852-11ed-a3b6-dac502259ad0.png

圖6 圖像伸縮示意圖

SPP Net 開(kāi)拓了新的思路,原來(lái)的思路是在進(jìn)入 CNN 中之前,將圖像統(tǒng)一尺寸,而 CNN 本身可以適應(yīng)任何尺寸,那么何不嘗試在 CNN 結(jié)構(gòu)之后再加入某種結(jié)構(gòu)使后面的全連接層可以接收到固定的輸出呢?

下圖便是 R-CNN 與 SPP Net 檢測(cè)流程的對(duì)比:

490c0692-5852-11ed-a3b6-dac502259ad0.png

圖7 R-CNN與SPP Net流程對(duì)比

在卷積結(jié)構(gòu)與 FC 層之間介入金字塔池化層,保證下一層全連接層的輸入固定。換句話說(shuō),在普通的 CNN 結(jié)構(gòu)中,輸入圖像的尺寸往往是固定的(比如 224×224 像素),輸出則是一個(gè)固定維數(shù)的向量。SPP Net 在普通的 CNN 結(jié)構(gòu)中加入了 ROI 池化層(ROI Pooling),使得網(wǎng)絡(luò)的輸入圖像可以是任意尺寸的,輸出則不變,同樣是一個(gè)固定維數(shù)的向量。

Fast R-CNN 中的 ROI Pooling

Fast R-CNN 使用 ROI Pooling 結(jié)構(gòu)將 CNN 結(jié)構(gòu)輸出統(tǒng)一成 7×7 的結(jié)構(gòu),這個(gè)過(guò)程并不復(fù)雜,如圖 8 所示,左面假設(shè)是特征圖(為了可視化使用圖像代替),將特征圖劃分成 7×7 的網(wǎng)格 ,對(duì)每一個(gè)網(wǎng)格用 Max Pooling 得到 7×7的 結(jié)構(gòu),圖中使用一個(gè) channel 數(shù)據(jù)示例,實(shí)際計(jì)算中對(duì)每個(gè) channel 做如下處理。

492ff69c-5852-11ed-a3b6-dac502259ad0.png

圖8 ROI Pooling示意圖

在訓(xùn)練過(guò)程中,并不是所有 SS 算法獲取的候選框都被使用,相對(duì)于選擇的 1k-2k 個(gè)候選框,只需要其中的一小部分, 從中選擇正樣本和負(fù)樣本,正樣本指包含需要檢測(cè)的目標(biāo),而負(fù)樣本不包含需要檢測(cè)的目標(biāo),也就是背景。

為什么要分正樣本與負(fù)樣本,對(duì)于選擇出的 1k-2k 個(gè)候選區(qū)域,絕大部分只會(huì)有很小的一部分里面包含需要檢測(cè)的物體,大部分都是背景,如果全部使用包含圖像的樣本進(jìn)行訓(xùn)練,會(huì)對(duì)網(wǎng)絡(luò)產(chǎn)生不好的影響。區(qū)分正負(fù)樣本的條件是與 GT 的 IOU 大于 0.5 的為正樣本,反之為負(fù)樣本。

Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

Faster R-CNN 的設(shè)計(jì)思路

經(jīng)過(guò)前面兩個(gè)網(wǎng)絡(luò)的積累 (Fast R-CNN 與 R-CNN),Ross B.Girshick 在 2016 年提出了新的改進(jìn)版算法 Faster R-CNN,盡管 Fast R-CNN 已經(jīng)對(duì) R-CNN 的速度進(jìn)行了大幅度的優(yōu)化,但是在其結(jié)構(gòu)中還是有明顯的瓶頸,F(xiàn)ast R-CNN 的整體結(jié)構(gòu)并不緊湊,先使用卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行特征提取,篩選候選區(qū)域再進(jìn)行預(yù)測(cè)。

在 Faster R-CNN 中,引入了 Region Proposal Network(RPN),RPN 網(wǎng)絡(luò)與檢測(cè)網(wǎng)絡(luò)共享完整的圖像卷積特征,從而大大降低了 region proposal 的代價(jià)。RPN 是一個(gè) FCN 結(jié)構(gòu)的網(wǎng)絡(luò),可以同時(shí)預(yù)測(cè)每個(gè)位置上的對(duì)象范圍和對(duì)象得分。RPN 網(wǎng)絡(luò)不是單獨(dú)的網(wǎng)絡(luò)而是融合在整個(gè)網(wǎng)絡(luò)之中,這樣更容易訓(xùn)練出好的效果。

4acbe768-5852-11ed-a3b6-dac502259ad0.jpg

圖9 Faster R-CNN結(jié)構(gòu)圖

代碼結(jié)構(gòu)

除了 RPN 結(jié)構(gòu),F(xiàn)aster R-CNN 與 Fast R-CNN 結(jié)構(gòu)一致,這里不再過(guò)多的介紹基礎(chǔ),在前期對(duì) Faster R-CNN 有初步的認(rèn)識(shí)即可,下面給出 Faster R-CNN 實(shí)現(xiàn)的代碼結(jié)構(gòu)圖。

4ae0563a-5852-11ed-a3b6-dac502259ad0.png


圖10 Faster R-CNN代碼結(jié)構(gòu)






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • SVM
    SVM
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    33471
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13606
  • voc
    voc
    +關(guān)注

    關(guān)注

    0

    文章

    110

    瀏覽量

    16043

原文標(biāo)題:通俗易懂詳解二階段目標(biāo)檢測(cè)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。
    的頭像 發(fā)表于 09-10 17:38 ?502次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    自動(dòng)駕駛Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是自動(dòng)駕駛領(lǐng)域,部分廠商開(kāi)始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過(guò)時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來(lái)看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?3770次閱讀
    自動(dòng)駕駛<b class='flag-5'>中</b>Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    提高IT運(yùn)維效率,深度解讀京東云AIOps落地實(shí)踐(異常檢測(cè)篇)

    基于深度學(xué)習(xí)對(duì)運(yùn)維時(shí)序指標(biāo)進(jìn)行異常檢測(cè),快速發(fā)現(xiàn)線上業(yè)務(wù)問(wèn)題 時(shí)間序列的異常檢測(cè)是實(shí)際應(yīng)用的一個(gè)關(guān)鍵問(wèn)題,尤其是
    的頭像 發(fā)表于 05-22 16:38 ?649次閱讀
    提高IT運(yùn)維效率,<b class='flag-5'>深度</b>解讀京東云AIOps落地實(shí)踐(異常<b class='flag-5'>檢測(cè)</b>篇)

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    軒轅智駕紅外目標(biāo)檢測(cè)算法汽車領(lǐng)域的應(yīng)用

    AI 技術(shù)蓬勃發(fā)展的當(dāng)下,目標(biāo)檢測(cè)算法取得了重大突破,其中紅外目標(biāo)檢測(cè)算法更是汽車行業(yè)掀起
    的頭像 發(fā)表于 03-27 15:55 ?613次閱讀

    軍事應(yīng)用深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    ,并廣泛介紹了深度學(xué)習(xí)兩個(gè)主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報(bào)行動(dòng)和自主平臺(tái)。最后,討論了相關(guān)的威脅、機(jī)遇、技術(shù)和實(shí)際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無(wú)所不能,需要謹(jǐn)慎應(yīng)用,同時(shí)考慮到其局限性、網(wǎng)絡(luò)安全威脅以及
    的頭像 發(fā)表于 02-14 11:15 ?712次閱讀

    AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制的應(yīng)用

    生產(chǎn)效率、保證產(chǎn)品質(zhì)量方面展現(xiàn)出非凡的能力。阿丘科技「AI干貨補(bǔ)給站」推出《AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制的應(yīng)用》文章,探討深度
    的頭像 發(fā)表于 01-17 16:35 ?1039次閱讀
    AI自動(dòng)化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>在</b>質(zhì)量控制<b class='flag-5'>中</b>的應(yīng)用

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    挑戰(zhàn)的方法。 2 目標(biāo)檢測(cè)模型介紹 目標(biāo)檢測(cè)的任務(wù),有著許許多多的模型,如 Picodet、
    發(fā)表于 12-19 14:33

    GPU深度學(xué)習(xí)的應(yīng)用 GPUs圖形設(shè)計(jì)的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)深度學(xué)習(xí)
    的頭像 發(fā)表于 11-19 10:55 ?1957次閱讀

    NPU深度學(xué)習(xí)的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門(mén)針對(duì)深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?2542次閱讀

    pcie深度學(xué)習(xí)的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來(lái)訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運(yùn)而生,它們通過(guò)
    的頭像 發(fā)表于 11-13 10:39 ?1666次閱讀

    樹(shù)莓派上部署YOLOv5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    目標(biāo)檢測(cè)計(jì)算機(jī)視覺(jué)領(lǐng)域中具有重要意義。YOLOv5(You Only Look One-level)是目標(biāo)檢測(cè)算法
    的頭像 發(fā)表于 11-11 10:38 ?4417次閱讀
    <b class='flag-5'>在</b>樹(shù)莓派上部署YOLOv5進(jìn)行動(dòng)物<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>的完整流程

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是
    的頭像 發(fā)表于 10-27 11:13 ?1911次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?3377次閱讀