chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

何愷明等人再出重磅新作:分割任務(wù)的TensorMask框架

電子工程師 ? 來(lái)源:lp ? 2019-04-04 17:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

看到今天要給大家介紹的論文,也許現(xiàn)在大家已經(jīng)非常熟悉 Ross Girshic、Piotr Dollár 還有我們的大神何愷明的三人組了。沒(méi)錯(cuò),今天這篇重磅新作還是他們的產(chǎn)出,營(yíng)長(zhǎng)感覺(jué)剛介紹他們的新作好像沒(méi)多久??!想要追趕大神腳步,確實(shí)是不能懈怠?。?/p>

不過(guò)這次一作是來(lái)自 FAIR 的陳鑫磊博士,雖然和三人組合比起來(lái),一作陳鑫磊還沒(méi)有那么被大家所熟知,不過(guò)其實(shí)力也是不容小覷的(畢竟后面跟著三個(gè)實(shí)力響當(dāng)當(dāng)?shù)娜宋铮?。營(yíng)長(zhǎng)在陳鑫磊的個(gè)人主頁(yè)上看到他的學(xué)習(xí)經(jīng)歷和研究成果,也是忍不住點(diǎn)贊。陳鑫磊在浙江大學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室 CAD&CG實(shí)驗(yàn)室學(xué)習(xí)時(shí),師從蔡登教授,隨后在 CMU 攻讀博士學(xué)位,現(xiàn)任職于 FAIR,畢業(yè)前曾在 Google Cloud 李飛飛和李佳組內(nèi)實(shí)習(xí)。在博士研究期間,每年和導(dǎo)師 Abhinav Gupta 教授都有論文發(fā)表在 AAAI、CVPR、ECCV、ICCV 等頂會(huì)上,考慮篇幅,營(yíng)長(zhǎng)就從每年成果中選一篇列舉出來(lái),大家可以前往陳鑫磊的個(gè)人主頁(yè)中可以看到全部作品。

2013-2018 年間的主要作品:

[1]、Xinlei Chen, Li-Jia Li, Li Fei-Fei, Abhinav Gupta.Iterative Visual Reasoning Beyond Convolutions. The 31st IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2018.Spotlight

[2]、Xinlei Chen, Abhinav Gupta.Spatial Memory for Context Reasoning in Object Detection. The 15th International Conference on Computer Vision(ICCV), 2017

[3]、Gunnar A. Sigurdsson,Xinlei Chen, Abhinav Gupta.Learning Visual Storylines with Skipping Recurrent Neural Networks. The 14th European Conference on Computer Vision(ECCV), 2016

[4]、Xinlei Chen, Abhinav Gupta.Webly Supervised Learning of Convolutional Networks. The 15th International Conference on Computer Vision(ICCV), 2015.Oral

[5]、Xinlei Chen, C. Lawrence Zitnick.Mind's Eye: A Recurrent Visual Representation for Image Caption Generation. The 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2015

[6]、Xinlei Chen, Alan Ritter, Abhinav Gupta, Tom Mitchell.Sense Discovery via Co-Clustering on Images and Text. The 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2015.

[7]、Xinlei Chen, Abhinav Shrivastava, Abhinav Gupta.Enriching Visual Knowledge Bases via Object Discovery and Segmentation. The 27th IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2014

[8]、Xinlei Chen, Abhinav Shrivastava, Abhinav Gupta.NEIL: Extracting Visual Knowledge from Web Data. The 14th International Conference on Computer Vision(ICCV), 2013.Oral.

這幾個(gè)人從出道至今,都有非常多的佳作,出產(chǎn)率也非常高,最近大家還在重談去年三人組合的論文《Rethinking ImageNet Pre-training》,今天就有了這篇在密集掩碼預(yù)測(cè)新突破:《TensorMask: A Foundation for Dense Object Segmentation》,大神們簡(jiǎn)直就是快要承包整個(gè) CV 界了!

“CV男團(tuán)”四人的個(gè)人主頁(yè)(一到四作的順序):

http://xinleic.xyz/#

http://www.rossgirshick.info/

http://kaiminghe.com/

http://pdollar.github.io/

接下來(lái),營(yíng)長(zhǎng)就為大家?guī)?lái)“CV男團(tuán)”這篇最新力作的初解讀,因?yàn)檎撐闹猩婕昂芏嗯c TensorMask 框架相關(guān)的專業(yè)術(shù)語(yǔ),函數(shù)定義等,還需要大家下來(lái)細(xì)細(xì)研究,感興趣的同學(xué)可以從下面的論文地址里下載論文進(jìn)一步學(xué)習(xí),也歡迎大家在后臺(tái)給我們留言,發(fā)表你的感想。

論文解讀

摘要

在目標(biāo)檢測(cè)任務(wù)中,采用滑窗方式生成目標(biāo)的檢測(cè)框是一種非常常用的方法。而在實(shí)例分割任務(wù)中,比較主流的圖像分割方法是首先檢測(cè)目標(biāo)邊界框,然后進(jìn)行裁剪和目標(biāo)分割,如 Mask RCNN。在這篇工作中,我們研究了密集滑窗實(shí)例分割(dense sliding-window instance segmentation)的模式,發(fā)現(xiàn)與其他的密集預(yù)測(cè)任務(wù)如語(yǔ)義分割,目標(biāo)檢測(cè)不同,實(shí)例分割滑窗在每個(gè)空間位置的輸出具有自己空間維度的幾何結(jié)構(gòu)。為了形式化這一點(diǎn),我們提出了一個(gè)通用的框架 TensorMask 來(lái)獲得這種幾何結(jié)構(gòu)。

我們通過(guò)張量視圖展示了相較于忽略這種結(jié)構(gòu)的 baseline 方法,它可以有一個(gè)大的效果提升,甚至比肩于 Mask R-CNN。這樣的實(shí)驗(yàn)結(jié)果足以說(shuō)明TensorMask 為密集掩碼預(yù)測(cè)任務(wù)提供了一個(gè)新的理解方向,并可以作為該領(lǐng)域新的基礎(chǔ)方法。

引言

滑窗范式(在一張圖的每個(gè)滑動(dòng)窗口里面去尋找目標(biāo))是視覺(jué)任務(wù)里面最早且非常成功的方法,并且可以很自然的和卷積網(wǎng)絡(luò)聯(lián)系起來(lái)。雖然像 RCNN 系列方法需要在滑窗的方法上再進(jìn)行精修,但是像 SSD、RetinaNet 的方法就是直接利用滑窗預(yù)測(cè)。在目標(biāo)檢測(cè)里面非常受歡迎的方法,在實(shí)例分割任務(wù)中卻沒(méi)得到足夠的關(guān)注。因此本文的工作就是來(lái)填補(bǔ)該缺失。本文主要的 insight 就是定義密集掩碼的表示方式,并且在神經(jīng)網(wǎng)絡(luò)中有效的實(shí)現(xiàn)它。與低維、尺度無(wú)關(guān)的檢測(cè)框不同,分割掩碼需要一種更具有結(jié)構(gòu)化的表示方式。因此,本文在空域上,采用結(jié)構(gòu)化的 4 維張量定義了掩碼的表示方式,并提出了一個(gè)基于滑窗方法的密集實(shí)例分割框架——TensorMask。在 4 維張量(V,U,H,W)中,H 和 W 表示目標(biāo)的位置,而 V 和 U 表示相關(guān)掩碼的位置。與僅直接在通道上加一個(gè)掩碼分支的方法不同,這種方法是具有幾何意義的,并且可以直接在(V,U)張量上進(jìn)行坐標(biāo)轉(zhuǎn)換,尺度縮放等操作。在 TensorMask 框架中,作者還順手開發(fā)了一個(gè)張量尺度金字塔(tensor bipyramid),用于 4 維的尺度縮放。如下公式所示,其中 K 就是尺度。

? ? ?

掩碼的張量表示

TensorMask 框架的主要想法就是利用結(jié)構(gòu)化的高維張量去表示密集的滑動(dòng)窗口。在理解這樣的一個(gè)框架時(shí),需要了解幾個(gè)重要的概念。

單位長(zhǎng)度(Unit of Length):在不同的軸和尺度上有不同的單位長(zhǎng)度,且 HW 和 VU 的單位長(zhǎng)度可以不相等。

? ? ?和 ? ? ? ? ? ? ?分別表示其單位長(zhǎng)度。

自然表示(Natural Representation):在點(diǎn)(y,x)處的滑窗內(nèi),某點(diǎn)的掩碼值表示,如下截圖所示,其中 alpha 表示 VU 和 HW 的單位長(zhǎng)度比率。

對(duì)齊表示(Aligned Representation):由于單位長(zhǎng)度中 stride 的存在,自然表示存在著像素偏移的問(wèn)題,因此這里有一個(gè)同 ROIAlign 相似的想法,需要從張量的角度定義一個(gè)像素級(jí)的表示。

坐標(biāo)轉(zhuǎn)換:用于自然表示和對(duì)齊表示間的轉(zhuǎn)換,論文給出了兩種情況下的轉(zhuǎn)換公式,一種是簡(jiǎn)化版的( ? ? ?),一種是一般版的(就是任意的單位長(zhǎng)度)。

上采樣轉(zhuǎn)換(Upscaling Transformation):下圖就是上采樣轉(zhuǎn)換的操作集合。實(shí)驗(yàn)證明它可以在不增加通道數(shù)的情況下,有效的生成高分辨率的掩碼。

張量尺度金字塔(Tensor Bipyramid):由于掩碼存在尺度問(wèn)題,它需要隨目標(biāo)的大小而進(jìn)行縮放,為了保持恒定的分辨率密度,提出了這種基于尺度來(lái)調(diào)整掩碼像素?cái)?shù)量的方法。

TensorMask結(jié)構(gòu)

基于 TensorMask 表示的模型,有一個(gè)采用滑窗的掩碼預(yù)測(cè)分支和一個(gè)類似于檢測(cè)框回歸的分類分支。該結(jié)構(gòu)不需要增加檢測(cè)框的分支。掩碼預(yù)測(cè)分支可以采用卷積的 backbone,比如 ResNet50。因此,論文提出了多個(gè)基礎(chǔ)(baseline)分支和張量尺度金字塔分支,幫助使用者快速上手 TensorMask。需要指出的是,張量尺度金字塔分支是最有效的一個(gè)模型。在訓(xùn)練時(shí),作者采用 DeepMask 來(lái)幫助標(biāo)記數(shù)據(jù),以及 focal loss 等等。

實(shí)驗(yàn)

為了說(shuō)明各分支或者操作的作用,論文做了大量的消融實(shí)驗(yàn)來(lái)進(jìn)行論證。具體結(jié)果見(jiàn)下圖表格的數(shù)據(jù)以及與 Mask-RCNN 可視化的對(duì)比。實(shí)驗(yàn)結(jié)果證明,TensorMask 能夠定性定量的比肩 MaskR-CNN。

該項(xiàng)工作將滑窗方法與實(shí)例分割任務(wù)直接聯(lián)系了起來(lái),能夠幫助該領(lǐng)域的研究者對(duì)實(shí)例分割有新的理解,期待代碼早日開源。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4819

    瀏覽量

    106072
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    18219
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3880

    瀏覽量

    45227

原文標(biāo)題:何愷明等人提TensorMask框架:比肩Mask R-CNN,4D張量預(yù)測(cè)新突破

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    手機(jī)板 layout 走線跨分割問(wèn)題

    初學(xué)習(xí)layout時(shí),都在說(shuō)信號(hào)線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對(duì)。 在后續(xù)工作中,跨分割的基礎(chǔ)都是相鄰層有一面完整的GND參考,跨分割發(fā)生在相鄰的另外一層。 但
    發(fā)表于 09-16 14:56

    Task任務(wù):LuatOS實(shí)現(xiàn)“任務(wù)級(jí)并發(fā)”的核心引擎

    Task任務(wù)通過(guò)其強(qiáng)大的并發(fā)處理能力,使LuatOS能夠在單線程環(huán)境中模擬多線程執(zhí)行,通過(guò)協(xié)程的掛起與恢復(fù)機(jī)制,實(shí)現(xiàn)任務(wù)級(jí)的并行操作,顯著提升系統(tǒng)效能。 sys核心庫(kù)是LuatOS運(yùn)行框架庫(kù),也是
    的頭像 發(fā)表于 08-28 13:49 ?240次閱讀
    Task<b class='flag-5'>任務(wù)</b>:LuatOS實(shí)現(xiàn)“<b class='flag-5'>任務(wù)</b>級(jí)并發(fā)”的核心引擎

    揭秘LuatOS Task:多任務(wù)管理的“智能中樞”

    Task任務(wù)作為L(zhǎng)uatOS的核心組成部分,通過(guò)智能化的任務(wù)管理機(jī)制,實(shí)現(xiàn)任務(wù)的創(chuàng)建、調(diào)度與協(xié)同運(yùn)行,讓復(fù)雜應(yīng)用得以高效并行處理,滿足實(shí)時(shí)場(chǎng)景下的嚴(yán)苛需求。 sys核心庫(kù)是LuatOS運(yùn)行框架
    的頭像 發(fā)表于 08-28 13:48 ?270次閱讀
    揭秘LuatOS Task:多<b class='flag-5'>任務(wù)</b>管理的“智能中樞”

    科技與華輝煌簽訂100萬(wàn)臺(tái)AI智能硬件供貨框架協(xié)議

    框架協(xié)議。 根據(jù)協(xié)議,華輝煌未來(lái)將向洲采購(gòu)100萬(wàn)臺(tái)AI智能硬件及解決方案,共同推動(dòng)傳統(tǒng)LED護(hù)眼燈向新一代AI智能燈具升級(jí)。 #01 AI智能燈具 打造全新交互體驗(yàn) 與傳統(tǒng)燈具不同,新一代AI智能燈具不僅具備護(hù)眼功能,更融合前沿的AI語(yǔ)音交
    的頭像 發(fā)表于 08-19 09:58 ?1000次閱讀

    科技與香港科晫集團(tuán)簽署戰(zhàn)略合作協(xié)議

    8月13日下午,洲科技與香港科晫集團(tuán)(TechTure)在深圳福永總部簽署戰(zhàn)略合作協(xié)議,正式啟動(dòng)香港地鐵AI智能化升級(jí)項(xiàng)目,并簽署1500臺(tái)AI一體機(jī)批量交付框架協(xié)議,這意味著洲科技端側(cè)AI一體機(jī)批量化交付能力得到肯定,也是
    的頭像 發(fā)表于 08-14 14:17 ?813次閱讀

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    是谷歌團(tuán)隊(duì)提出的一種用于語(yǔ)義分割的深度學(xué)習(xí)模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語(yǔ)義分割任務(wù)中表現(xiàn)優(yōu)異,能夠高效地捕獲圖像的多尺度上下文信息,并生成高分辨率的分割
    發(fā)表于 06-21 21:11

    第三屆大會(huì)回顧第3期 | FFRT并發(fā)框架在OpenHarmony中的設(shè)計(jì)與實(shí)踐

    演講嘉賓 | 黃佑鐘 回顧整理 | 廖 ? 濤 排版校對(duì) | 宋夕 嘉賓介紹 開發(fā)框架分論壇? 黃佑鐘 ,海思Kirin解決方案并行與異構(gòu)計(jì)算專家。 正文內(nèi)容 多任務(wù)并發(fā)能更有效地利用CPU資源
    的頭像 發(fā)表于 06-21 16:53 ?738次閱讀
    第三屆大會(huì)回顧第3期 | FFRT并發(fā)<b class='flag-5'>框架</b>在OpenHarmony中的設(shè)計(jì)與實(shí)踐

    科技發(fā)布勃朗峰畫質(zhì)引擎UF4

    作為亞太地區(qū)專業(yè)視聽領(lǐng)域的年度盛會(huì)Infocomm China始終是技術(shù)風(fēng)向的標(biāo)桿,展會(huì)期間,洲科技發(fā)布“勃朗峰畫質(zhì)引擎”——UF4,重磅亮相EB1-01展位,帶來(lái)一場(chǎng)顛覆視覺(jué)體驗(yàn)的科技盛宴。
    的頭像 發(fā)表于 04-19 15:52 ?936次閱讀

    百度飛槳框架3.0正式版發(fā)布

    、推理等任務(wù)都離不開深度學(xué)習(xí)框架的優(yōu)化與支撐。 飛槳框架3.0,從設(shè)計(jì)理念上實(shí)現(xiàn)了從底層硬件適配到頂層開發(fā)體驗(yàn)的全面進(jìn)化,在訓(xùn)練效率、性能、兼容性等關(guān)鍵指標(biāo)上建立了新標(biāo)桿。 其中, “動(dòng)靜統(tǒng)一自動(dòng)并行”、“大模型訓(xùn)推一體”、“科
    的頭像 發(fā)表于 04-02 19:03 ?977次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    BEVFusion —面向自動(dòng)駕駛的多任務(wù)多傳感器高效融合框架技術(shù)詳解

    BEVFusion 技術(shù)詳解總結(jié)——面向自動(dòng)駕駛的多任務(wù)多傳感器高效融合框架原始論文:*附件:bevfusion.pdf介紹(Introduction)背景:自動(dòng)駕駛系統(tǒng)配備了多種傳感器,提供互補(bǔ)
    的頭像 發(fā)表于 02-26 20:33 ?5123次閱讀
    BEVFusion —面向自動(dòng)駕駛的多<b class='flag-5'>任務(wù)</b>多傳感器高效融合<b class='flag-5'>框架</b>技術(shù)詳解

    德賽電池榮膺仲高新區(qū)三項(xiàng)榮譽(yù)

    近日,仲高新區(qū)舉行高質(zhì)量發(fā)展大會(huì)暨優(yōu)秀企業(yè)授牌活動(dòng),旨在表彰2024年度為仲高新區(qū)經(jīng)濟(jì)發(fā)展作出杰出貢獻(xiàn)的優(yōu)秀企業(yè),激勵(lì)更多企業(yè)創(chuàng)新發(fā)展,共同推動(dòng)區(qū)域經(jīng)濟(jì)的繁榮與進(jìn)步。區(qū)領(lǐng)導(dǎo)、園區(qū)、鎮(zhèn)(街道)領(lǐng)導(dǎo)、區(qū)直相關(guān)部門領(lǐng)導(dǎo)以及各企業(yè)代表齊聚一堂,共同見(jiàn)證這一榮耀時(shí)刻。
    的頭像 發(fā)表于 02-12 09:27 ?616次閱讀

    惠州隆利榮獲2024年仲高新區(qū)優(yōu)秀企業(yè)經(jīng)濟(jì)突出貢獻(xiàn)獎(jiǎng)

    近日,在仲高新區(qū)高質(zhì)量發(fā)展大會(huì)暨優(yōu)秀企業(yè)授牌活動(dòng)中,公司全資子公司惠州市隆利科技發(fā)展有限公司,榮獲2024年仲高新區(qū)優(yōu)秀企業(yè)經(jīng)濟(jì)突出貢獻(xiàn)獎(jiǎng)。
    的頭像 發(fā)表于 02-07 11:30 ?839次閱讀

    YOLOv8中的損失函數(shù)解析

    YOLO長(zhǎng)期以來(lái)一直是目標(biāo)檢測(cè)任務(wù)的首選模型之一。它既快速又準(zhǔn)確。此外,其API簡(jiǎn)潔易用。運(yùn)行訓(xùn)練或推斷作業(yè)所需的代碼行數(shù)有限。在2023年下半年,YOLOv8在框架中引入了姿態(tài)估計(jì)后,該框架現(xiàn)在支持最多四個(gè)
    的頭像 發(fā)表于 11-05 17:15 ?4682次閱讀
    YOLOv8中的損失函數(shù)解析

    淺談分割接地層的利弊

    如果分割接地層并且線路穿過(guò)分割線(如圖1所示)那么電流返回通路在哪里呢?假設(shè)兩個(gè)層在某處連接(通過(guò)在一個(gè)單獨(dú)點(diǎn)),則返回電流必在該大型環(huán)路內(nèi)流動(dòng)。大型環(huán)路內(nèi)的高頻電流產(chǎn)生輻射和高接地電感。大型環(huán)路內(nèi)的低電平模擬電流易受干擾的影響。
    的頭像 發(fā)表于 10-30 10:09 ?855次閱讀
    淺談<b class='flag-5'>分割</b>接地層的利弊

    語(yǔ)義分割25種損失函數(shù)綜述和展望

    本綜述提供了對(duì)25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強(qiáng)調(diào)了它們的重要特征和應(yīng)用,并進(jìn)行了系統(tǒng)的分類。摘要
    的頭像 發(fā)表于 10-22 08:04 ?1982次閱讀
    語(yǔ)義<b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望