chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CVPR 2023 | 完全無(wú)監(jiān)督的視頻物體分割 RCF

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:未知 ? 2023-07-16 20:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgZomTYhUSAenguAAjVd7mUCo8183.png

TLDR:視頻分割一直是重標(biāo)注的一個(gè) task,這篇 CVPR 2023 文章研究了完全不需要標(biāo)注的視頻物體分割。僅使用 ResNet,RCF模型在 DAVIS16/STv2/FBMS59 上提升了 7/9/5%。文章里還提出了不需要標(biāo)注的調(diào)參方法。代碼已公開(kāi)可用。

ea60cd80-23d5-11ee-962d-dac502259ad0.png ? ? ?論文標(biāo)題:Bootstrapping Objectness from Videos by Relaxed Common Fate and Visual Grouping

論文鏈接:

https://arxiv.org/abs/2304.08025

作者機(jī)構(gòu):

UC Berkeley, MSRA, UMich

分割效果視頻:

https://people.eecs.berkeley.edu/~longlian/RCF_video.html

項(xiàng)目主頁(yè):

https://rcf-video.github.io/

代碼鏈接:

https://github.com/TonyLianLong/RCF-UnsupVideoSeg

ed6b5c70-23d5-11ee-962d-dac502259ad0.png

視頻物體分割真的可以不需要人類監(jiān)督嗎?

視頻分割一直是重標(biāo)注的一個(gè) task,可是要標(biāo)出每一幀上的物體是非常耗時(shí)費(fèi)力的。然而人類可以輕松地分割移動(dòng)的物體,而不需要知道它們是什么類別。為什么呢?

Gestalt 定律嘗試解釋人類是怎么分割一個(gè)場(chǎng)景的,其中有一條定律叫做 Common Fate,即移動(dòng)速度相同的物體屬于同一類別。比如一個(gè)箱子從左邊被拖到右邊,箱子上的點(diǎn)是均勻運(yùn)動(dòng)的,人就會(huì)把這個(gè)部分給分割出來(lái)理解。然而人并不需要理解這是個(gè)箱子來(lái)做這個(gè)事情,而且就算是嬰兒之前沒(méi)有見(jiàn)過(guò)箱子也能知道這是一個(gè)物體。

ed89f3ec-23d5-11ee-962d-dac502259ad0.png

edd3b4f0-23d5-11ee-962d-dac502259ad0.png

運(yùn)用Common Fate來(lái)分割視頻

這個(gè)定律啟發(fā)了基于運(yùn)動(dòng)的無(wú)監(jiān)督分割。然而,Common Fate 并不是物體性質(zhì)的可靠指標(biāo):關(guān)節(jié)可動(dòng)(articulated)/可變形物體(deformable objects)的一些 part 可能不以相同速度移動(dòng),而物體的陰影/反射(shadows/reflections)始終隨物體移動(dòng),但并非其組成部分。

舉個(gè)例子,下面這個(gè)人的腿和身子的運(yùn)動(dòng)是不同的(Optical Flow 可視化出來(lái)顏色不同)。這很常見(jiàn),畢竟人有關(guān)節(jié)嘛(articulated),要是這個(gè)處理不了的話,很多視頻都不能分割了。然而很多 baseline 是處理不了這點(diǎn)的(例如 AMD+ 和 OCLR),他們把人分割成了幾個(gè)部分。

wKgZomTYhVmAaP-gAALeTk_-f4k153.png

還有就是影子和反射,比如上面這只天鵝,它的倒影跟它的運(yùn)動(dòng)是一致的(Optical Flow 可視化顏色一樣),所以之前的方法認(rèn)為天鵝跟倒影是一個(gè)物體。很多視頻里是有這類現(xiàn)象的(畢竟大太陽(yáng)下物體都有個(gè)影子嘛),如果這個(gè)處理不了的話,很多視頻也不能分割了。

ee50510e-23d5-11ee-962d-dac502259ad0.png

那怎么解決?放松。Relax.

長(zhǎng)話短說(shuō),那我們的方法是怎么解決這個(gè)問(wèn)題的呢?無(wú)監(jiān)督學(xué)習(xí)的一個(gè)特性是利用神經(jīng)網(wǎng)絡(luò)自己內(nèi)部的泛化和擬合能力進(jìn)行學(xué)習(xí)。既然 Common Fate 有自己的問(wèn)題,那么我們沒(méi)有必要強(qiáng)制神經(jīng)網(wǎng)絡(luò)去擬合 Common Fate。于是我們提出了 Relaxed Common Fate,通過(guò)一個(gè)比較弱的學(xué)習(xí)方式讓神經(jīng)網(wǎng)絡(luò)真正學(xué)到物體的特性而不是 noise。

具體來(lái)說(shuō),我們的方法認(rèn)為物體運(yùn)動(dòng)由兩部分組成:物體總體的 piecewise-constant motion (也就是 Common Fate)和物體內(nèi)部的 segment motion。比如你看下圖這個(gè)舞者,他全身的運(yùn)動(dòng)就可以被理解成 piecewise-constant motion 來(lái)建模,手部腿部這些運(yùn)動(dòng)就可以作為 residual motion 進(jìn)行擬合,最后合并成一個(gè)完整的 flow,跟 RAFT 生成的 flow 進(jìn)行比較來(lái)算 loss。我們用的 RAFT 是用合成數(shù)據(jù)(FlyingChairs 和 FlyingThings)進(jìn)行訓(xùn)練的,不需要人工標(biāo)注。

wKgaomTYhW-ARynXAAGz3l4TSMw344.png

eea607e8-23d5-11ee-962d-dac502259ad0.png

Relaxed Common Fate

首先我們使用一個(gè) backbone 來(lái)進(jìn)行特征提取,然后通過(guò)一個(gè)簡(jiǎn)單的 full-convolutional network 獲得 Predicted Masks (下圖里的下半部分),和一般的分割框架是一樣的,也可以切換成別的框架。 那我們?cè)趺磧?yōu)化這些 Masks 呢?我們先提取、合并兩幀的特征,放入一個(gè) residual flow prediction head 來(lái)獲得 Residual Flow (下圖里的上半部分)。 然后我們對(duì) RAFT 獲得的 Flow 用 Predicted Masks 進(jìn)行 Guided Pooling,獲得一個(gè) piecewise-constant flow,再加上預(yù)測(cè)的 residual flow,就是我們的 flow prediction 了。最后把 flow prediction 和 RAFT 獲得的 Flow 的差算一個(gè) L1 norm Loss 進(jìn)行優(yōu)化,以此來(lái)學(xué)習(xí) segmentation。 在測(cè)試的時(shí)候,只有 Predicted Masks 是有用的,其他部分是不用的。eebe9254-23d5-11ee-962d-dac502259ad0.png ?

這里的 Residual Flow 會(huì)盡量初始化得小一些,來(lái)鼓勵(lì)先學(xué) piecewise-constant 的部分(有點(diǎn)類似 ControlNet),再慢慢學(xué)習(xí) residual 部分。

eee33334-23d5-11ee-962d-dac502259ad0.png

引入Appearance信息來(lái)幫助無(wú)監(jiān)督視頻分割

光是 Relaxed Common Fate 就能在 DAVIS 上相對(duì) baseline 提 5%了,但這還不夠。前面說(shuō) Relaxed Common Fate 的只用了 motion 而沒(méi)有使用 appearance 信息。

讓我們?cè)俅位氐缴厦孢@個(gè)例子。這個(gè)舞者的手和身子是一個(gè)顏色,然而 AMD+ 直接把舞者的手忽略了。下面這只天鵝和倒影明明在 appearance 上差別這么大,卻在 motion 上沒(méi)什么差別。如果整合 appearance 和 motion,是不是能提升分割質(zhì)量呢?

wKgZomTYhYaAJeOJAALHCeFXY4w226.png

因此我們引入了 Appearance 來(lái)進(jìn)行進(jìn)一步的監(jiān)督。在學(xué)習(xí)完 motion 信息之后,我們直接把取得的 Mask 進(jìn)行兩步優(yōu)化:一個(gè)是 low-level 的 CRF refinement,強(qiáng)調(diào)顏色等細(xì)節(jié)一致的地方應(yīng)該屬于同一個(gè) mask(或背景),一個(gè)是 semantic constraint,強(qiáng)調(diào) Unsupervised Feature 一直的地方應(yīng)該屬于同一個(gè) mask。

把優(yōu)化完的 mask 再和原 mask 進(jìn)行比較,計(jì)算 L2 Loss,再更新神經(jīng)網(wǎng)絡(luò)。這樣訓(xùn)練的模型的無(wú)監(jiān)督分割能力可以進(jìn)一步提升。具體細(xì)節(jié)歡迎閱讀原文。

ef7e3d5c-23d5-11ee-962d-dac502259ad0.png

efcaa296-23d5-11ee-962d-dac502259ad0.png

無(wú)監(jiān)督調(diào)參

很多無(wú)監(jiān)督方法都需要使用有標(biāo)注的數(shù)據(jù)集來(lái)調(diào)參,而我們的方法提出可以利用前面說(shuō)的 motion 和 appearance 的一致性來(lái)進(jìn)行調(diào)參。簡(jiǎn)單地說(shuō),motion 學(xué)習(xí)出的 mask 在 appearance 上不一致代表這個(gè)參數(shù)可能不是最優(yōu)的。具體方法是在 Unsupervised Feature 上計(jì)算 Normalized Cuts (但是不用算出最優(yōu)值),Normalized Cuts 越小越代表分割效果好。原文里面對(duì)此有詳細(xì)描述。

efdf21ee-23d5-11ee-962d-dac502259ad0.png

方法效果

無(wú)論是否有 Post-processing,我們的方法在三個(gè)視頻分割數(shù)據(jù)集上都有很大提升,在 STv2 上更是提升了 12%。

eff8356c-23d5-11ee-962d-dac502259ad0.png

Ablation 可以看出 Residual pathway (Relaxed Common Fate)的貢獻(xiàn)是最大的,其他部分總計(jì)貢獻(xiàn)了 11.9% 的增長(zhǎng)。

f03f535c-23d5-11ee-962d-dac502259ad0.png

Visualizations

f069cd58-23d5-11ee-962d-dac502259ad0.png

f164ad9a-23d5-11ee-962d-dac502259ad0.png

f203ca06-23d5-11ee-962d-dac502259ad0.png

wKgaomTYha2Afs61AAUfDqTnj88519.png

f2d31fea-23d5-11ee-962d-dac502259ad0.png

總結(jié)

這篇 CVPR 2023 文章研究了完全不需要標(biāo)注的視頻物體分割。通過(guò) Relaxed Common Fate 來(lái)利用 motion 信息,再通過(guò)改進(jìn)和利用 appearance 信息來(lái)進(jìn)一步優(yōu)化,RCF 模型在 DAVIS16/STv2/FBMS59 上提升了 7/9/5%。文章里還提出了不需要標(biāo)注的調(diào)參方法。代碼和模型已公開(kāi)可用。


原文標(biāo)題:CVPR 2023 | 完全無(wú)監(jiān)督的視頻物體分割 RCF

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:CVPR 2023 | 完全無(wú)監(jiān)督的視頻物體分割 RCF

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    手機(jī)板 layout 走線跨分割問(wèn)題

    初學(xué)習(xí)layout時(shí),都在說(shuō)信號(hào)線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對(duì)。 在后續(xù)工作中,跨分割的基礎(chǔ)都是相鄰層有一面完整的GND參考,跨分割發(fā)生在相鄰的另外一層。 但
    發(fā)表于 09-16 14:56

    易控智駕榮獲計(jì)算機(jī)視覺(jué)頂會(huì)CVPR 2025認(rèn)可

    近日,2025年國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別頂級(jí)會(huì)議(IEEE/CVF Conference on Computer Vision and Pattern Recognition,CVPR 2025)在美國(guó)田納西州納什維爾召開(kāi)。
    的頭像 發(fā)表于 07-29 16:54 ?843次閱讀

    基于黃金分割搜索法的IPMSM最大轉(zhuǎn)矩電流比控制

    摘 要:在矢量控制理論的基礎(chǔ)上,研究了內(nèi)嵌式永磁同步電機(jī)(IPMSM)基于黃金分割搜索法實(shí)現(xiàn)最大轉(zhuǎn)矩電流比控制(MTPA)的方法。該方法利用對(duì)理論最優(yōu)電流矢量角表達(dá)式進(jìn)行多項(xiàng)式擬合所得值作為搜索
    發(fā)表于 07-29 16:11

    EL非監(jiān)督分割白皮書(shū)丨5張OK圖、1分鐘建模、半小時(shí)落地的異常檢測(cè)工具!

    ,阿丘科技全新發(fā)布《EL非監(jiān)督分割白皮書(shū)》,揭秘一款極致速度、零門(mén)檻操作、穩(wěn)定可靠的AI質(zhì)檢神器,解決柔性產(chǎn)線換型慢、未知缺陷難捕捉等行業(yè)難題。傳統(tǒng)檢測(cè)技術(shù)的三大
    的頭像 發(fā)表于 07-11 15:21 ?317次閱讀
    EL非<b class='flag-5'>監(jiān)督</b><b class='flag-5'>分割</b>白皮書(shū)丨5張OK圖、1分鐘建模、半小時(shí)落地的異常檢測(cè)工具!

    傳音多媒體團(tuán)隊(duì)攬獲CVPR NTIRE 2025兩項(xiàng)挑戰(zhàn)賽冠亞軍

    Challenge)第二名 ,展現(xiàn)了傳音在視頻畫(huà)質(zhì)領(lǐng)域的深厚積累與領(lǐng)先實(shí)力。 ? CVPR NTIRE(New Trends in Image Restoration and Enhancement
    的頭像 發(fā)表于 06-24 16:08 ?1313次閱讀
    傳音多媒體團(tuán)隊(duì)攬獲<b class='flag-5'>CVPR</b> NTIRE 2025兩項(xiàng)挑戰(zhàn)賽冠亞軍

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】基于 DeepLab 模型的圖像分割

    == \'__main__\': main() 效果 USB 攝像頭采集實(shí)時(shí)畫(huà)面的圖像分割推理效果 終端打印信息 動(dòng)態(tài)識(shí)別效果見(jiàn)頂部視頻。 靜態(tài)識(shí)別 介紹了通過(guò)對(duì)本地圖片的 板端推理 實(shí)現(xiàn)圖片分割
    發(fā)表于 06-21 21:11

    NVIDIA榮獲CVPR 2025輔助駕駛國(guó)際挑戰(zhàn)賽冠軍

    NVIDIA 在本周美國(guó)田納西州舉辦的國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別會(huì)議(CVPR)上榮獲“端到端輔助駕駛”賽道冠軍。這一消息是在“自主系統(tǒng)具身智能研討會(huì)”上宣布的。
    的頭像 發(fā)表于 06-16 14:44 ?714次閱讀

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1011次閱讀
    使用MATLAB進(jìn)行無(wú)<b class='flag-5'>監(jiān)督</b>學(xué)習(xí)

    挑戰(zhàn)具身機(jī)器人協(xié)同操作新高度!地瓜機(jī)器人邀你共戰(zhàn)CVPR 2025雙臂協(xié)作機(jī)器人競(jìng)賽

    引言2025年6月,全球計(jì)算機(jī)視覺(jué)與人工智能領(lǐng)域的頂級(jí)盛會(huì)——CVPR(IEEE/CVFConferenceonComputerVisionandPatternRecognition)將重磅亮相
    的頭像 發(fā)表于 04-11 05:30 ?1015次閱讀
    挑戰(zhàn)具身機(jī)器人協(xié)同操作新高度!地瓜機(jī)器人邀你共戰(zhàn)<b class='flag-5'>CVPR</b> 2025雙臂協(xié)作機(jī)器人競(jìng)賽

    stm32cubemax為什么下載完之后無(wú)法運(yùn)行?

    我本來(lái)想上傳代碼的,完全完全無(wú)法理解為什么下載完之后無(wú)法運(yùn)行
    發(fā)表于 03-12 06:06

    The Hacksmith:H.E.R.C. 的終極安全無(wú)人機(jī)系統(tǒng)

    ),創(chuàng)新永無(wú)止境。因此,在校園安全方面,我們決定設(shè)計(jì)一些與我們其他項(xiàng)目的純粹創(chuàng)造力和力量相匹配的東西:完全自主的安全無(wú)人機(jī)系統(tǒng)。目標(biāo)是什么?創(chuàng)建一個(gè)空中監(jiān)視網(wǎng)絡(luò),能夠比任何人更快地檢測(cè)和響應(yīng)入侵。在對(duì)其進(jìn)行測(cè)試(包括由專業(yè)滲透測(cè)試人員進(jìn)行受控闖入)后,結(jié)果令人印象深刻。是
    的頭像 發(fā)表于 01-26 22:04 ?553次閱讀
    The Hacksmith:H.E.R.C. 的終極安<b class='flag-5'>全無(wú)</b>人機(jī)系統(tǒng)

    GB/T6451-2023

    電力變壓器技術(shù)參數(shù)要求,2023版,有需要的看一下。還有其它的,咋帶附件?
    發(fā)表于 11-04 15:49

    淺談分割接地層的利弊

    如果分割接地層并且線路穿過(guò)分割線(如圖1所示)那么電流返回通路在哪里呢?假設(shè)兩個(gè)層在某處連接(通過(guò)在一個(gè)單獨(dú)點(diǎn)),則返回電流必在該大型環(huán)路內(nèi)流動(dòng)。大型環(huán)路內(nèi)的高頻電流產(chǎn)生輻射和高接地電感。大型環(huán)路內(nèi)的低電平模擬電流易受干擾的影響。
    的頭像 發(fā)表于 10-30 10:09 ?855次閱讀
    淺談<b class='flag-5'>分割</b>接地層的利弊

    語(yǔ)義分割25種損失函數(shù)綜述和展望

    本綜述提供了對(duì)25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強(qiáng)調(diào)了它們的重要特征和應(yīng)用,并進(jìn)行了系統(tǒng)的分類。摘要
    的頭像 發(fā)表于 10-22 08:04 ?1982次閱讀
    語(yǔ)義<b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    物體識(shí)別桌 AR物體識(shí)互動(dòng)桌 電容屏實(shí)物識(shí)別漫游桌

    在這個(gè)科技發(fā)達(dá)的時(shí)代,AR增強(qiáng)技術(shù)也在迅速發(fā)展,在展廳展館中發(fā)光發(fā)熱,帶來(lái)了創(chuàng)意無(wú)限的互動(dòng)展示效果,AR技術(shù)結(jié)合物體識(shí)別技術(shù)打造的AR物體識(shí)別桌,讓游客有了全新的體驗(yàn),通過(guò)新穎的人機(jī)交互方式和趣味展示效果,能吸引人們的目光,吸引人們前來(lái)體驗(yàn)。
    的頭像 發(fā)表于 10-21 17:44 ?614次閱讀