chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

算法 | 超Mask RCNN速度4倍,僅在單個(gè)GPU訓(xùn)練的實(shí)時(shí)實(shí)例分割算法

WpOh_rgznai100 ? 來源:YXQ ? 2019-06-11 10:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在論文《YOLACT:Real-time Instance Segmentation》中,作者提出了一種簡(jiǎn)潔的實(shí)時(shí)實(shí)例分割全卷積模型,僅使用單個(gè) Titan Xp,以 33 fps 在MS COCO 上實(shí)現(xiàn)了 29.8 的 mAP,速度明顯優(yōu)于以往已有的算法。而且,這個(gè)結(jié)果是就在一個(gè) GPU 上訓(xùn)練取得的!

引言

一開始,作者提出了一個(gè)疑問:創(chuàng)建實(shí)時(shí)實(shí)例分割算法需要什么?

在過去的幾年中,在實(shí)例分割方向取得了很大進(jìn)展,部分原因是借鑒了物體檢測(cè)領(lǐng)域相關(guān)的技術(shù)。比如像 mask RCNN 和 FCIS 這樣的實(shí)例分割方法,是直接建立在像Faster R-CNN 和 R-FCN 這樣的物體檢測(cè)方法之上。然而,這些方法主要關(guān)注圖像性能,而較少出現(xiàn) SSD,YOLO 這類關(guān)注實(shí)時(shí)性的實(shí)例分割算法。因此,本文的工作主要是來填補(bǔ)這一空白。SSD 這類方法是將 Two-Stage 簡(jiǎn)單移除成為 One-Stage 方法,然后通過其它方式來彌補(bǔ)性能的損失。而這類方法在實(shí)例分割領(lǐng)域擴(kuò)充起來卻并不容易,由于 Two-Stage 的方法高度依賴于特征定位來產(chǎn)生 mask,而這類方法不可逆。而 One-Stage 的方法,如 FCIS,由于后期需要大量的處理,因此也達(dá)不到實(shí)時(shí)。

YOLACT 介紹

基于此,作者在這項(xiàng)研究中提出一種放棄特征定位的方法——YOLACT(You Only Look At CoefficienTs)來解決實(shí)時(shí)性問題。

YOLACT 將實(shí)例分割分解為兩個(gè)并行任務(wù):(1)在整副圖像上生成非局部原型 mask 的字典;(2)為每個(gè)實(shí)例預(yù)測(cè)一組線性組合系數(shù)。 從這兩部分內(nèi)容生成全圖像實(shí)例分割的想法簡(jiǎn)單:對(duì)于每個(gè)實(shí)例,使用預(yù)測(cè)的系數(shù)線性組合原型,然后用預(yù)測(cè)邊界框來 crop。作者通過這種方式來讓網(wǎng)絡(luò)學(xué)會(huì)如何定位實(shí)例mask本身,這些在視覺上,空間上和語義上相似的實(shí)例,在原型中卻不同。

作者發(fā)現(xiàn),由于這個(gè)過程不依賴于 repooling,因此此方法可以產(chǎn)生高質(zhì)量和高動(dòng)態(tài)穩(wěn)定性的 masks。盡管本文使用了全卷積網(wǎng)絡(luò)實(shí)現(xiàn),但模板 mask 可以自己在具有平移變換情況下對(duì)實(shí)例進(jìn)行定位。最后,作者還提出了 Fast NMS,這比標(biāo)準(zhǔn) NMS 的快12ms,并且性能損失很小。

這種方法有是三個(gè)優(yōu)點(diǎn):第一,速度非???。第二,由于沒使用類似“repool”的方法,mask的質(zhì)量非常高。第三,這個(gè)想法可以泛化。生成原型和mask系數(shù)的想法可以添加到現(xiàn)有的目標(biāo)檢測(cè)的算法里面。

算法

算法介紹

為了提高實(shí)例分割的速度,作者提出了一種快速、單階段的實(shí)例分割模型——YOLACT。主要思想是將 Mask 分支添加到單階段目標(biāo)檢測(cè)框架中。因此,研究人員將實(shí)例分割任務(wù)分解為兩個(gè)更簡(jiǎn)單的并行任務(wù),將其組合以形成最終的 Mask。YOLACT 的網(wǎng)絡(luò)結(jié)構(gòu)圖如下圖所示。

作者將實(shí)例分割的復(fù)雜任務(wù)分解為兩個(gè)更簡(jiǎn)單的并行任務(wù),這些任務(wù)可以組合以形成最終的 mask。 第一個(gè)分支使用 FCN 生成一組圖像大小的“原型掩碼”(prototype masks),它們不依賴于任何一個(gè)實(shí)例。第二個(gè)是給目標(biāo)檢測(cè)分支添加額外的 head ,用于預(yù)測(cè)每個(gè) anchor 的“掩碼系數(shù)”(mask coefficients)的向量,其中 anchor 是在編碼原型空間中的實(shí)例表示。最后,對(duì)經(jīng)過NMS后的每個(gè)實(shí)例,本文通過線性組合這兩個(gè)分支來為該實(shí)例構(gòu)造mask。

YOLACT 將問題分解為兩個(gè)并行的部分,利用 fc 層(擅長(zhǎng)產(chǎn)生語義向量)和 conv 層(擅長(zhǎng)產(chǎn)生空間相干掩模)來分別產(chǎn)生“掩模系數(shù)”和“原型掩?!?。因?yàn)樵秃脱谀O禂?shù)可以獨(dú)立地計(jì)算,所以 backbone 檢測(cè)器的計(jì)算開銷主要來自合成(assembly)步驟,其可以實(shí)現(xiàn)為單個(gè)矩陣乘法。通過這種方式,論文中的方法可以在特征空間中保持空間一致性,同時(shí)仍然是 One-Stage 和快速的。

原型生成

原型生成分支是預(yù)測(cè)整個(gè)圖像的一組K個(gè)原型 mask。采用 FCN 來實(shí)現(xiàn)protonet ,其最后一層有 k 個(gè) channels(每個(gè)原型一個(gè))并將其附加到 backbone 特征層。

掩碼系數(shù)(mask coefficients)

在實(shí)驗(yàn)中,YOLACT 為每個(gè)Anchor預(yù)測(cè)(4+C+k)個(gè)值,額外 k 個(gè)值即為 mask系數(shù)。另外,為了能夠通過線性組合得到 mask,很重要的一步是從最終的mask 中減去原型 mask。換言之,mask 系數(shù)必須有正有負(fù)。所以,在 mask系數(shù)預(yù)測(cè)時(shí)使用了 tanh 函數(shù)進(jìn)行非線性激活,因?yàn)?tanh 函數(shù)的值域是(-1,1)。

合成Mask

為了生成實(shí)例掩模,通過基本的矩陣乘法配合 sigmoid 函數(shù)來處理兩分支的輸出,從而合成 mask。

其中,P 是 h×w×k 的原型 mask 集合;C 是 n×k 的系數(shù)集合,代表有 n 個(gè)通過 NMS 和閾值過濾的實(shí)例,每個(gè)實(shí)例對(duì)應(yīng)有 k 個(gè) mask 系數(shù)。

Loss 設(shè)計(jì):Loss 由分類損失、邊界框回歸損失和 mask 損失三部分組成。其中分類損失和邊界框回歸損失同 SSD,mask 損失為預(yù)測(cè) mask 和 ground truth mask 的逐像素二進(jìn)制交叉熵。

Mask 裁剪:為了改善小目標(biāo)的分割效果,在推理時(shí)會(huì)首先根據(jù)檢測(cè)框進(jìn)行裁剪,再閾值化。而在訓(xùn)練時(shí),會(huì)使用 ground truth 框來進(jìn)行裁剪,并通過除以對(duì)應(yīng) ground truth框面積來平衡 loss 尺度。

Emergent Behavior

在實(shí)例分割任務(wù)中,通常需要添加轉(zhuǎn)移方差。在 YOLACT 中唯一添加轉(zhuǎn)移方差的地方是使用預(yù)測(cè)框裁剪 feature map 時(shí)。但這只是為了改善對(duì)小目標(biāo)的分割效果,作者發(fā)現(xiàn)對(duì)大中型目標(biāo),不裁剪效果就很好了。

Backbone 檢測(cè)器

因?yàn)轭A(yù)測(cè)一組原型 mask 和 mask 系數(shù)是一個(gè)相對(duì)比較困難的任務(wù),需要更豐富更高級(jí)的特征,所以在網(wǎng)絡(luò)設(shè)計(jì)上,作者希望兼顧速度和特征豐富度。因此,YOLACT 的主干檢測(cè)器設(shè)計(jì)遵循了 RetinaNet 的思想,同時(shí)更注重速度。 YOLACT 使用 ResNet-101 結(jié)合 FPN 作為默認(rèn)主干網(wǎng)絡(luò),默認(rèn)輸入圖像尺寸為550×550,如上圖所示。使用平滑-L1 loss 訓(xùn)練 bounding box 參數(shù),并且采用和 SSD 相同的 bounding box 參數(shù)編碼方式。 使用 softmax 交叉熵訓(xùn)練分類部分,共(C+1)個(gè)類別。同時(shí),使用 OHEM 方式選取訓(xùn)練樣本,正負(fù)樣本比例設(shè)為 1:3. 值得注意的是,沒有像 RetinaNet 一樣采用 focal loss。

快速 NMS(fast NMS)

a.對(duì)每一類的得分前 n 名的框互相計(jì)算 IOU,得到 C*n*n 的矩陣X(對(duì)角矩陣),對(duì)每個(gè)類別的框進(jìn)行降序排列。

b.其次,通過檢查是否有任何得分較高的框與其 IOU 大于某個(gè)閾值,從而找到要?jiǎng)h除的框,通過將 X 的下三角和對(duì)角區(qū)域設(shè)置為 0 實(shí)現(xiàn)。這可以在一個(gè)批量上三角中實(shí)現(xiàn),之后保留列方向上的最大值,來計(jì)算每個(gè)檢測(cè)器的最大 IOU 矩陣 K。

c.最后,利用閾值 t(K

論文實(shí)驗(yàn)

作者在 MS COCO 的 test-dev 數(shù)據(jù)集上對(duì) YOLACT 和目前最好的方法進(jìn)行了性能對(duì)比。本文的關(guān)注點(diǎn)在于速度的提升,且所有實(shí)驗(yàn)都是在 Titan Xp 上進(jìn)行的,故一些結(jié)果和原文中的結(jié)果可能略有不同。

實(shí)驗(yàn)來驗(yàn)證本文模型在不同大小輸入圖像情況下的性能。除了基本的 550×550 模型,還有輸入為 400×400 和 700×700 的模型,相應(yīng)地也調(diào)整了 anchor 的尺寸(sx=s550/550*x s)。降低圖像大小會(huì)導(dǎo)致性能的大幅度下降,這說明越大的圖像進(jìn)行實(shí)例分割的性能越好,但提升圖像尺寸帶來性能提升的同時(shí)會(huì)降低運(yùn)行速度。

當(dāng)然作者還做了關(guān)于 Mask 質(zhì)量與視頻動(dòng)態(tài)穩(wěn)定性相關(guān)的對(duì)比實(shí)驗(yàn),并詳細(xì)分析了優(yōu)劣緣由。詳見論文。

總結(jié)

YOLACT 網(wǎng)絡(luò)的優(yōu)勢(shì):快速,高質(zhì)量的 mask,優(yōu)良的動(dòng)態(tài)穩(wěn)定性。

YOLACT 網(wǎng)絡(luò)的劣勢(shì):性能略低于目前最好的實(shí)例分割方法,很多由檢測(cè)引起的錯(cuò)誤,分類錯(cuò)誤和邊界框的位移等。

此外,作者最后還提到了該方法的一些典型錯(cuò)誤:

1)定位誤差:當(dāng)場(chǎng)景中一個(gè)點(diǎn)上出現(xiàn)多個(gè)目標(biāo)時(shí),網(wǎng)絡(luò)可能無法在自己的模板中定位到每個(gè)對(duì)象,此時(shí)將會(huì)輸出一些和前景 mask 相似的物體,而不是在這個(gè)集合中實(shí)例分割出一些目標(biāo)。

2)特征泄露(Leakage):網(wǎng)絡(luò)對(duì)預(yù)測(cè)的集成 mask 進(jìn)行了裁剪,但并未對(duì)輸出的結(jié)果進(jìn)行去噪。這樣一來,當(dāng)b-box 準(zhǔn)確的時(shí)候,沒有什么影響,但是當(dāng) b-box 不準(zhǔn)確的時(shí)候,噪聲將會(huì)被帶入實(shí)例 mask,造成一些“泄露”。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5087

    瀏覽量

    134369
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4759

    瀏覽量

    97095

原文標(biāo)題:超Mask RCNN速度4倍,僅在單個(gè)GPU訓(xùn)練的實(shí)時(shí)實(shí)例分割算法 | 技術(shù)頭條

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    SM4算法實(shí)現(xiàn)分享(一)算法原理

    SM4分組加密算法采用的是非線性迭代結(jié)構(gòu),以字為單位進(jìn)行加密、解密運(yùn)算,每次迭代稱為一輪變換,每輪變換包括S盒變換、非線性變換、線性變換、合成變換。加解密算法與密鑰擴(kuò)展都是采用32輪非線性迭代結(jié)構(gòu)
    發(fā)表于 10-30 08:10

    SM4算法原理及分享1

    SM4算法是一種分組密碼算法。其分組長(zhǎng)度為128bit,密鑰長(zhǎng)度也為128bit。加密算法與密鑰擴(kuò)展算法均采用32輪非線性迭代結(jié)構(gòu),以字(
    發(fā)表于 10-30 06:54

    國密系列算法簡(jiǎn)介及SM4算法原理介紹

    所示: 非對(duì)稱加密算法:SM2算法可用于電子認(rèn)證服務(wù);SM9算法可用于各種互聯(lián)網(wǎng)新興應(yīng)用。 對(duì)稱加密算法:SM1算法未公布,以IP核的形式
    發(fā)表于 10-24 08:25

    加密算法的應(yīng)用

    ,加密和解密速度相對(duì)較慢,適用于數(shù)據(jù)量較小的場(chǎng)景,所以常用來傳輸對(duì)稱加密的密鑰。常見的非對(duì)稱加密算法包括RSA、ECC等。 4. 加密算法的應(yīng)用場(chǎng)景 加密技術(shù)的應(yīng)用場(chǎng)景非常廣
    發(fā)表于 10-24 08:03

    模板驅(qū)動(dòng) 無需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    算法作為軟實(shí)力,其水平直接影響著目標(biāo)檢測(cè)識(shí)別的能力。兩年前,慧視光電推出了零基礎(chǔ)的基于yolo系列算法架構(gòu)的AI算法開發(fā)平臺(tái)SpeedDP,此平臺(tái)能夠通過數(shù)據(jù)驅(qū)動(dòng)模型訓(xùn)練,實(shí)現(xiàn)
    的頭像 發(fā)表于 09-09 17:57 ?1125次閱讀
    模板驅(qū)動(dòng)  無需<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)  SmartDP解決小樣本AI<b class='flag-5'>算法</b>模型開發(fā)難題

    PPEC電源DIY套件:圖形化算法編程,解鎖電力電子底層算法實(shí)踐

    : 無需深入復(fù)雜的代碼編寫,通過圖形化界面的模塊拖拽、參數(shù)設(shè)置和連線操作來實(shí)現(xiàn)自定義控制算法,實(shí)現(xiàn)對(duì)開關(guān)電源的精準(zhǔn)控制和優(yōu)化。 ▌動(dòng)態(tài)調(diào)試優(yōu)化: 算法調(diào)整后立即生效,實(shí)時(shí)觀測(cè)輸出紋波、動(dòng)態(tài)響應(yīng)
    發(fā)表于 08-14 11:30

    信號(hào)發(fā)生器如何與波束賦形算法配合優(yōu)化?

    相鄰的連續(xù)波(CW)干擾,功率比目標(biāo)信號(hào)高10-20dB,驗(yàn)證算法的頻域?yàn)V波和空間隔離能力。 智能干擾:生成方向性干擾(如通過波束賦形將干擾能量集中到目標(biāo)用戶方向),測(cè)試算法的動(dòng)態(tài)波束調(diào)整速度(如毫秒
    發(fā)表于 08-08 14:41

    RK3576 yolo11-seg訓(xùn)練部署教程

    1.yolov11-seg簡(jiǎn)介yolov11-seg是YOLO(YouOnlyLookOnce)系列的最新成員,專為實(shí)時(shí)實(shí)例分割任務(wù)設(shè)計(jì)。它在保持YOLO家族高效推理速度的同時(shí),通過創(chuàng)
    的頭像 發(fā)表于 07-25 15:21 ?1183次閱讀
    RK3576 yolo11-seg<b class='flag-5'>訓(xùn)練</b>部署教程

    k210在線訓(xùn)練算法是yolo5嗎?

    k210在線訓(xùn)練算法是yolo5嗎
    發(fā)表于 06-16 08:25

    單片機(jī)項(xiàng)目實(shí)例:XPT2046觸摸屏芯片驅(qū)動(dòng)與校準(zhǔn)算法

    單片機(jī)項(xiàng)目實(shí)例:XPT2046觸摸屏芯片驅(qū)動(dòng)與校準(zhǔn)算法,推薦下載!
    發(fā)表于 06-09 22:24

    RK3576 yolov11-seg訓(xùn)練部署教程

    yolov11-seg 是YOLO(You Only Look Once)系列的最新成員,專為實(shí)時(shí)實(shí)例分割任務(wù)設(shè)計(jì)。它在保持YOLO家族高效推理速度的同時(shí),通過創(chuàng)新的網(wǎng)絡(luò)結(jié)構(gòu)和
    的頭像 發(fā)表于 04-16 09:43 ?1848次閱讀
    RK3576 yolov11-seg<b class='flag-5'>訓(xùn)練</b>部署教程

    無法轉(zhuǎn)換TF OD API掩碼RPGA模型怎么辦?

    無法轉(zhuǎn)換重新訓(xùn)練的 TF OD API 掩碼 RPGA 模型,該模型使用以下命令在 GPU 上工作: mo > --saved_model_dir
    發(fā)表于 03-06 06:44

    執(zhí)行“mask_rcnn_demo.exe”時(shí),無法找到帶有名稱的Blob:DetectionOutput是怎么回事?

    引用 將 ONNX* Mask R-CNN 模型轉(zhuǎn)換為 OpenVINO?文檔的中間表示。 已下載并轉(zhuǎn)換 mask_rcnn_R_50_FPN_1x 模型到 IR 執(zhí)行命令
    發(fā)表于 03-05 07:10

    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機(jī)器學(xué)習(xí)算法

    前言 由于本人最近在學(xué)習(xí)一些機(jī)器算法,AI 算法的知識(shí),需要搭建一個(gè)學(xué)習(xí)環(huán)境,所以就在最近購買的華為云 Flexus X 實(shí)例上安裝了學(xué)習(xí)環(huán)境,Jupyter Notebook。沒想到效果格外
    的頭像 發(fā)表于 01-02 13:43 ?852次閱讀
    華為云 Flexus X <b class='flag-5'>實(shí)例</b>部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機(jī)器學(xué)習(xí)<b class='flag-5'>算法</b>

    GPU是如何訓(xùn)練AI大模型的

    在AI模型的訓(xùn)練過程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來,AI部落小編帶您了解GPU是如何訓(xùn)練AI大模型的。
    的頭像 發(fā)表于 12-19 17:54 ?1271次閱讀