chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個(gè)具有泛化性的小樣本語(yǔ)義分割(GFS-Seg)

工程師鄧生 ? 來(lái)源:GiantPandaCV ? 作者:李響 ? 2022-09-13 08:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1 前言

之前已經(jīng)有過(guò)關(guān)于小樣本語(yǔ)義分割的論文解讀,關(guān)于如何用 Transformer 思想的分類器進(jìn)行小樣本分割。本篇是發(fā)表在 CVPR 2022 上的 Generalized Few-shot Semantic Segmentation(后文簡(jiǎn)稱 GFS-Seg),既一種泛化的小樣本語(yǔ)義分割模型。在看論文的具體內(nèi)容之前,我們先了解一些前置知識(shí)。

深度學(xué)習(xí)是 Data hunger 的方法, 需要大量的數(shù)據(jù),標(biāo)注或者未標(biāo)注。少樣本學(xué)習(xí)研究就是如何從少量樣本中去學(xué)習(xí)。拿分類問(wèn)題來(lái)說(shuō),每個(gè)類只有一張或者幾張樣本。少樣本學(xué)習(xí)可以分為 Zero-shot Learning(即要識(shí)別訓(xùn)練集中沒(méi)有出現(xiàn)過(guò)的類別樣本)和 One-Shot Learning/Few shot Learning(即在訓(xùn)練集中,每一類都有一張或者幾張樣本)。以 Zero-shot Learning 來(lái)說(shuō),比如有一個(gè)中文 “放棄”,要你從 I, your、 she、them 和 abnegation 五個(gè)單詞中選擇出來(lái)對(duì)應(yīng)的英文單詞,盡管你不知道“放棄”的英文是什么,但是你會(huì)將“放棄”跟每個(gè)單詞對(duì)比,而且在你之前的學(xué)習(xí)中,你已經(jīng)知道了 I、 your、she 和 them 的中文意思,都不是“放棄”,所以你會(huì)選擇 abnegation。還需要明確幾個(gè)概念:

Support set:支撐集,每次訓(xùn)練的樣本集合。

Query set:查詢集,用于與訓(xùn)練樣本比對(duì)的樣本,一般來(lái)說(shuō) Query set 就是一個(gè)樣本。

在 Support set 中,如果有 n 個(gè)種類,每個(gè)種類有 k 個(gè)樣本,那么這個(gè)訓(xùn)練過(guò)程叫 n-way k-shot。如每個(gè)類別是有 5 個(gè) examples 可供訓(xùn)練,因?yàn)橛?xùn)練中還要分 Support set 和 Query set,5-shots 場(chǎng)景至少需要 5+1 個(gè)樣例,至少一個(gè) Query example 去和 Support set 的樣例做距離(分類)判斷。

2 概述

訓(xùn)練語(yǔ)義分割模型需要大量精細(xì)注釋的數(shù)據(jù),這使得它很難快速適應(yīng)不滿足這一條件的新類,F(xiàn)S-Seg 在處理這個(gè)問(wèn)題時(shí)有很多限制條件。在這篇文章中引入了一個(gè)新的方法,稱為 GFS-Seg,能同時(shí)分割具有極少樣本的新類別和具有足夠樣本的基礎(chǔ)類別的能力。建立了一個(gè) GFS-Seg baseline,在不對(duì)原模型進(jìn)行結(jié)構(gòu)性改變的情況下能取得不錯(cuò)的性能。此外,由于上下文信息對(duì)語(yǔ)義分割至關(guān)重要,文中提出了上下文感知原型學(xué)習(xí)架構(gòu)(CAPL),利用 Support Set 樣本共同的先驗(yàn)知識(shí),根據(jù)每個(gè) Query Set 圖像的內(nèi)容動(dòng)態(tài)地豐富分類器的上下文信息,顯著提高性能。

3 GFS-Seg 和 FS-Seg 的 Pipeline 區(qū)別

如下圖所示,GFS-Seg 有三個(gè)階段。分別是:基類的學(xué)習(xí)階段;新類的注冊(cè)階段,其中包含新類的少數(shù) Support set 樣本;對(duì)基類和新類的評(píng)估階段。也就是說(shuō),GFS-Seg 與 FS-Seg 的區(qū)別在于,在評(píng)估階段,GFS-Seg 不需要轉(zhuǎn)發(fā)測(cè)試(Query set)樣本中包含相同目標(biāo)類的 Support set 樣本來(lái)進(jìn)行預(yù)測(cè),因?yàn)?GFS-Seg 在基類學(xué)習(xí)階段和新類注冊(cè)階段應(yīng)該已經(jīng)分別獲得了基類和新類的信息。GFS-Seg 在事先不知道查詢圖像中包含哪些類別的情況下,同時(shí)對(duì)新類進(jìn)行預(yù)測(cè)時(shí),可以在不犧牲基類準(zhǔn)確性的情況下仍表現(xiàn)良好。

9e79c994-32fe-11ed-ba43-dac502259ad0.png

4 Towards GFS-Seg

在經(jīng)典的 Few-Shot Segmentation 任務(wù)中,有兩個(gè)關(guān)鍵標(biāo)準(zhǔn):(1) 模型在訓(xùn)練期間沒(méi)有看到測(cè)試類的樣本。(2) 模型要求其 Support set 樣本包含 Query set 中存在的目標(biāo)類,以做出相應(yīng)的預(yù)測(cè)。

通過(guò)下圖,我們來(lái)看下 GFS-Seg 與經(jīng)典人物有哪些不同。下圖中用相同的 Query 圖像說(shuō)明了 FS-Seg 和 GFS-Seg 的一個(gè) 2-way K-shot 任務(wù),其中牛和摩托車是新的類,人和車是基類。先來(lái)看下 (a),Prototype Network 通過(guò) Embedding Generation 函數(shù),將牛和摩托車的少量訓(xùn)練樣本映射為 2 個(gè)向量,在檢測(cè)分類時(shí)候,將待分割圖像的特征也通過(guò) Embedding Generation 映射為向量,最后計(jì)算待檢測(cè)向量與 2 個(gè)向量的特征差異(假設(shè)是距離),認(rèn)定距離最小的為預(yù)測(cè)類別。(a) 只限于預(yù)測(cè) Support set 中包含的類的二進(jìn)制分割掩碼。右邊的人和上面的車在預(yù)測(cè)中缺失,因?yàn)橹С旨瘺](méi)有提供這些類的信息,即使模型已經(jīng)在這些基類上訓(xùn)練了足夠的 epoch。此外,如果 (a) 的支持集提供了查詢圖像中沒(méi)有的多余的新類(如飛機(jī)),這些類別可能會(huì)影響模型性能,因?yàn)?FS-Seg 有一個(gè)前提條件,即 Query 圖像必須是 Support set 樣本提供的類。

FS-Seg 模型只學(xué)習(xí)并預(yù)測(cè)給定的新類的前景掩碼,所以在我們提出的 GFS-Seg 的通用化設(shè)置中,性能會(huì)大大降低,因?yàn)樗锌赡艿幕惡托骂惗夹枰A(yù)測(cè)。不同的是,(b) 也就是 GFS-Seg,在沒(méi)有 Query 圖像中包含的類的先驗(yàn)知識(shí)的情況下,同時(shí)識(shí)別基類和新類,額外的 Support set(如 (b) 左上角的飛機(jī))應(yīng)該不會(huì)對(duì)模型產(chǎn)生很大影響。在評(píng)估過(guò)程中,GFS-Seg 不需要事先了解 Query 圖像中存在哪些目標(biāo)類別,而是通過(guò)注冊(cè)新的類別,對(duì)所有測(cè)試圖像一次性形成一個(gè)新的分類器((b) 中的藍(lán)色區(qū)域代表新的類別注冊(cè)階段)。

9f47b8e0-32fe-11ed-ba43-dac502259ad0.png


此外,還有更多關(guān)于 GFS-Seg 的 baseline 細(xì)節(jié),這里就不詳細(xì)展開(kāi)了,讀者們可以一遍看代碼一邊看論文中的解釋,不難理解。

5 上下文感知原型學(xué)習(xí)(CAPL)

原型學(xué)習(xí)(PL)適用于小樣本分類和 FS-Seg,但它對(duì) GFS-Seg 的效果較差。在 FS-Seg 的設(shè)置中,查詢樣本的標(biāo)簽只來(lái)自于新的類別。因此,新類和基類之間沒(méi)有必要的聯(lián)系,可以利用它來(lái)進(jìn)一步改進(jìn)。然而,在 GFS-Seg 中,對(duì)每個(gè)測(cè)試圖像中包含的類別沒(méi)有這樣的限制,需要對(duì)所有可能的基類和新穎類進(jìn)行預(yù)測(cè)。

9fa216a0-32fe-11ed-ba43-dac502259ad0.png

如上圖所示,我們不關(guān)注 SCE 和 DQCE 的計(jì)算過(guò)程。SCE 只發(fā)生在新的類注冊(cè)階段,它利用支持 Support set 樣本來(lái)提供先驗(yàn)知識(shí)。然而,在評(píng)估階段,新分類器由所有 Query 圖像共享,因此引入的先驗(yàn)可能會(huì)偏向于有限的 Support set 樣本的內(nèi)容,導(dǎo)致對(duì)不同 Query 圖像的泛化能力較差。為了緩解這個(gè)問(wèn)題,進(jìn)一步提出了動(dòng)態(tài)查詢上下文豐富計(jì)算(DQCE),它通過(guò)動(dòng)態(tài)合并從單個(gè)查詢樣本中挖掘的基本語(yǔ)義信息,使新分類器適應(yīng)不同的上下文。繼續(xù)看上圖,N‘n 個(gè)新類別(例如摩托車和奶牛)的權(quán)重直接由特征平均得出。此外,Support set 中出現(xiàn)的 N’b 個(gè)基類(例如人、汽車、羊和公共汽車)的權(quán)重由 SCE 用原始權(quán)重計(jì)算得出。此外,DQCE 通過(guò)從 Query set 樣本中提取的臨時(shí)上下文特征,動(dòng)態(tài)豐富了分類器中 N'b 個(gè)基類的權(quán)重。綜上,新的分類器結(jié)合了 SCE 和 DQCE 的優(yōu)點(diǎn)。

GFS-Seg 使用 CAPL 的方式完成訓(xùn)練,具體性能表現(xiàn)在下面的實(shí)驗(yàn)部分列出。

6 實(shí)驗(yàn)

如下表所示,CANet、SCL、PFENet 和 PANet 與用 CAPL 實(shí)現(xiàn)的模型相比表現(xiàn)不佳。值得注意的是,下表中的 mIoU 的結(jié)果是在 GFS-Seg 配置下的,因此它們低于這些 FS-Seg 模型的論文中給出的結(jié)果,這種差異是由不同的全局設(shè)置造成的。在 GFS-Seg 中,模型需要在給定的測(cè)試圖像中識(shí)別所有的類,包括基類和新類,而在 FS-Seg 中,模型只需要找到屬于一個(gè)特殊的新類的像素,不會(huì)去分割基類,Support set 的樣本提供了目標(biāo)類是什么的先驗(yàn)知識(shí)。因此,在 GFS-Seg 中,存在基類干擾的情況下,識(shí)別新類要難得多,所以數(shù)值很低。

a093006a-32fe-11ed-ba43-dac502259ad0.png

FS-Seg 是 GFS-Seg 的一個(gè)極端情況。所以為了在 FS-Seg 的中驗(yàn)證提出的 CAPL,在下表中,我們將 CAPL 合并到 PANet 和 PFENet??梢钥闯?, CAPL 對(duì) baseline 實(shí)現(xiàn)了顯著的改進(jìn)。數(shù)據(jù)集是 Pascal-5i 和 COCO-20i ,只需要識(shí)別新類。

a0c715b2-32fe-11ed-ba43-dac502259ad0.png

下圖對(duì)分割結(jié)果進(jìn)行了可視化,其中 SCE 和 DQCE 的組合進(jìn)一步完善了 baseline 的預(yù)測(cè),還有一些消融實(shí)驗(yàn)的效果這里不一一列出了。

a15ad16c-32fe-11ed-ba43-dac502259ad0.png

7 結(jié)論

這篇閱讀筆記僅為個(gè)人理解,文章提出了一個(gè)具有泛化性的小樣本語(yǔ)義分割(GFS-Seg),并提出了一個(gè)新的解決方案:上下文感知原型學(xué)習(xí)(CAPL)。與經(jīng)典的 FS-Seg 不同,GFS-Seg 旨在識(shí)別 FS-Seg 模型所不能識(shí)別的基礎(chǔ)類和新類。提出的 CAPL 通過(guò)動(dòng)態(tài)地豐富上下文信息的適應(yīng)性特征,實(shí)現(xiàn)了性能的顯著提高。CAPL 對(duì)基礎(chǔ)模型沒(méi)有結(jié)構(gòu)上的限制,因此它可以很容易地應(yīng)用于普通的語(yǔ)義分離框架,并且它可以很好地推廣到 FS-Seg。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:CVPR 2022:Generalized Few-shot Semantic Segmentation 解讀

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    手機(jī)板 layout 走線跨分割問(wèn)題

    初學(xué)習(xí)layout時(shí),都在說(shuō)信號(hào)線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對(duì)。 在后續(xù)工作中,跨分割的基礎(chǔ)都是相鄰層有面完整的GND參考,跨
    發(fā)表于 09-16 14:56

    模板驅(qū)動(dòng) 無(wú)需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開(kāi)發(fā)難題

    。但是這個(gè)平臺(tái)不適用于小樣本AI模型開(kāi)發(fā),特別是些特殊行業(yè),數(shù)據(jù)本來(lái)就不多,但又有著需求,因此陷于兩難。面臨這種市場(chǎng)困境,慧視光電推出了個(gè)全新的AI平臺(tái)Sma
    的頭像 發(fā)表于 09-09 17:57 ?1167次閱讀
    模板驅(qū)動(dòng)  無(wú)需訓(xùn)練數(shù)據(jù)  SmartDP解決<b class='flag-5'>小樣本</b>AI算法模型開(kāi)發(fā)難題

    RK3576 yolo11-seg訓(xùn)練部署教程

    1.yolov11-seg簡(jiǎn)介yolov11-seg是YOLO(YouOnlyLookOnce)系列的最新成員,專為實(shí)時(shí)實(shí)例分割任務(wù)設(shè)計(jì)。它在保持YOLO家族高效推理速度的同時(shí),通過(guò)創(chuàng)新的網(wǎng)絡(luò)結(jié)構(gòu)
    的頭像 發(fā)表于 07-25 15:21 ?1244次閱讀
    RK3576 yolo11-<b class='flag-5'>seg</b>訓(xùn)練部署教程

    北京迅為itop-3588開(kāi)發(fā)板NPU例程測(cè)試deeplabv3 語(yǔ)義分割

    北京迅為itop-3588開(kāi)發(fā)板NPU例程測(cè)試deeplabv3 語(yǔ)義分割
    的頭像 發(fā)表于 07-22 15:51 ?818次閱讀
    北京迅為itop-3588開(kāi)發(fā)板NPU例程測(cè)試deeplabv3 <b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>

    EL非監(jiān)督分割白皮書(shū)丨5張OK圖、1分鐘建模、半小時(shí)落地的異常檢測(cè)工具!

    在工業(yè)4.0浪潮下,制造業(yè)對(duì)產(chǎn)品質(zhì)量的要求愈發(fā)嚴(yán)苛。傳統(tǒng)人工質(zhì)檢效率低、成本高,基于規(guī)則算法的視覺(jué)檢測(cè)系統(tǒng)難以應(yīng)對(duì)復(fù)雜場(chǎng)景,而依賴缺陷樣本的有監(jiān)督AI檢測(cè)又面臨樣本不足、化能力弱的難題。在此背景下
    的頭像 發(fā)表于 07-11 15:21 ?481次閱讀
    EL非監(jiān)督<b class='flag-5'>分割</b>白皮書(shū)丨5張OK圖、1分鐘建模、半小時(shí)落地的異常檢測(cè)工具!

    如何將32個(gè)步進(jìn)伺服驅(qū)動(dòng)器塞進(jìn)小型板材分割機(jī)中?

    板材分割機(jī)是工業(yè)制造中常見(jiàn)的裝備。機(jī)器的內(nèi)部空間狹小,如何將多達(dá)32個(gè)步進(jìn)伺服驅(qū)動(dòng)器安裝在其中顯得非常困難。本文將通過(guò)基于EtherCAT總線的插板式步進(jìn)伺服驅(qū)動(dòng)器剖析其破解之法!傳統(tǒng)銑刀式板材分割
    的頭像 發(fā)表于 07-08 11:37 ?355次閱讀
    如何將32<b class='flag-5'>個(gè)</b>步進(jìn)伺服驅(qū)動(dòng)器塞進(jìn)小型板材<b class='flag-5'>分割</b>機(jī)中?

    51Sim利用NVIDIA Cosmos提升輔助駕駛合成數(shù)據(jù)場(chǎng)景的化性

    51Sim 利用 NVIDIA Cosmos 的生成式世界基礎(chǔ)模型,對(duì)現(xiàn)有的合成數(shù)據(jù)進(jìn)行大規(guī)模化,在確保物理真實(shí)性的前提下,大幅提升了數(shù)據(jù)的豐富度。同時(shí)依托 NVIDIA Issac Sim,將
    的頭像 發(fā)表于 06-26 09:09 ?1071次閱讀

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】基于 DeepLab 模型的圖像分割

    是谷歌團(tuán)隊(duì)提出的種用于語(yǔ)義分割的深度學(xué)習(xí)模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語(yǔ)義分割任務(wù)中表現(xiàn)優(yōu)異,能夠高效地捕獲
    發(fā)表于 06-21 21:11

    選態(tài)信號(hào)的 COM 線和 SEG 線,通過(guò)光通過(guò)率變化,實(shí)現(xiàn)液晶線路檢測(cè)和修復(fù)

    方法,對(duì)提升液晶顯示產(chǎn)品質(zhì)量、降低維修成本具有重要意義。 二、COM 線和 SEG 線的工作原理 2.1 線路功能 COM 線作為公共電極,為液晶顯示提供統(tǒng)的電位基準(zhǔn)
    的頭像 發(fā)表于 05-12 10:52 ?768次閱讀
    選態(tài)信號(hào)的 COM 線和 <b class='flag-5'>SEG</b> 線,通過(guò)光通過(guò)率變化,實(shí)現(xiàn)液晶線路檢測(cè)和修復(fù)

    如何修改yolov8分割程序中的kmodel?

    YOLOV8分割示例 seg=SegmentationApp(kmodel_path,labels=labels,model_input_size=model_input_size
    發(fā)表于 04-25 08:22

    RK3576 yolov11-seg訓(xùn)練部署教程

    yolov11-seg 是YOLO(You Only Look Once)系列的最新成員,專為實(shí)時(shí)實(shí)例分割任務(wù)設(shè)計(jì)。它在保持YOLO家族高效推理速度的同時(shí),通過(guò)創(chuàng)新的網(wǎng)絡(luò)結(jié)構(gòu)和分割頭設(shè)計(jì),實(shí)現(xiàn)了像素
    的頭像 發(fā)表于 04-16 09:43 ?1887次閱讀
    RK3576 yolov11-<b class='flag-5'>seg</b>訓(xùn)練部署教程

    西門子伺服電機(jī)簡(jiǎn)明樣本

    西門子伺服電機(jī)簡(jiǎn)明樣本
    發(fā)表于 04-14 15:36 ?2次下載

    中關(guān)村聯(lián)院行來(lái)訪中科馭數(shù)

    中關(guān)村聯(lián)移動(dòng)通信技術(shù)創(chuàng)新應(yīng)用研究院(以下簡(jiǎn)稱“中關(guān)村聯(lián)院”)專職副院長(zhǎng)金毅敦行來(lái)訪中科馭數(shù),雙方探討了6G技術(shù)發(fā)展現(xiàn)狀,以及DPU在6G場(chǎng)景的應(yīng)用機(jī)會(huì)。
    的頭像 發(fā)表于 04-14 10:26 ?1034次閱讀

    SparseViT:以非語(yǔ)義為中心、參數(shù)高效的稀疏化視覺(jué)Transformer

    (IML)都遵循“語(yǔ)義分割主干網(wǎng)絡(luò)”與“精心制作的手工制作非語(yǔ)義特征提取”相結(jié)合的設(shè)計(jì),這種方法嚴(yán)重限制了模型在未知場(chǎng)景的偽影提取能力。 論文標(biāo)題: Can We Get Rid
    的頭像 發(fā)表于 01-15 09:30 ?817次閱讀
    SparseViT:以非<b class='flag-5'>語(yǔ)義</b>為中心、參數(shù)高效的稀疏化視覺(jué)Transformer

    ADS8556和ADS8568采集一個(gè)樣本點(diǎn)最快支持多少nS?

    求教下,有應(yīng)用經(jīng)驗(yàn)的給指導(dǎo)下,ADS8556 和ADS8568 采集一個(gè)樣本點(diǎn)最快支持多少nS,且兩個(gè)相鄰樣本點(diǎn)的數(shù)據(jù)不能相互串?dāng)_。
    發(fā)表于 12-09 07:16