chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TPAMI 2023 | 用于視覺識別的相互對比學(xué)習(xí)在線知識蒸餾

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-09-19 10:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本次文章介紹我們于 TPAMI-2023 發(fā)表的一項(xiàng)用于視覺識別的相互對比學(xué)習(xí)在線知識蒸餾(Online Knowledge Distillation via Mutual Contrastive Learning for Visual Recognition)工作,該工作是我們發(fā)表在 AAAI-2022 論文 Mutual contrastive learning for visual representation learning [1] 的擴(kuò)展版本,論文講解鏈接為:

https://zhuanlan.zhihu.com/p/574701719 摘要:無需教師的在線知識蒸餾聯(lián)合地訓(xùn)練多個學(xué)生模型并且相互地蒸餾知識。雖然現(xiàn)有的在線知識蒸餾方法獲得了很好的性能,但是這些方法通常關(guān)注類別概率作為核心知識類型,忽略了有價值的特征表達(dá)信息。 本文展示了一個相互對比學(xué)習(xí)(Mutual Contrastive Learning,MCL)框架用于在線知識蒸餾。MCL 的核心思想是在一個網(wǎng)絡(luò)群體中利用在線的方式進(jìn)行對比分布的交互和遷移。MCL 可以聚合跨網(wǎng)絡(luò)的嵌入向量信息,同時最大化兩個網(wǎng)絡(luò)互信息的下界。這種做法可以使得每一個網(wǎng)絡(luò)可以從其他網(wǎng)絡(luò)中學(xué)習(xí)到額外的對比知識,從而有利于學(xué)習(xí)到更好的特征表達(dá),提升視覺識別任務(wù)的性能。 相比于會議版本,期刊版本將 MCL 擴(kuò)展到中間特征層并且使用元優(yōu)化來訓(xùn)練自適應(yīng)的層匹配機(jī)制。除了最后一層,MCL 也在中間層進(jìn)行特征對比學(xué)習(xí),因此新方法命名為 Layer-wise MCL(L-MCL)。在圖像分類和其他視覺識別任務(wù)上展示了 L-MCL 相比于先進(jìn)在線知識蒸餾方法獲得了一致的提升。此優(yōu)勢表明了 L-MCL 引導(dǎo)網(wǎng)絡(luò)產(chǎn)生了更好的特征表達(dá)。wKgZomUKAUeABfUfAAJfiDQnJmM755.png

論文地址:

https://arxiv.org/pdf/2207.11518.pdf

代碼地址:

https://github.com/winycg/L-MCL

wKgZomUKAUeAboOzAAAl6LOgh3c565.png

引言

傳統(tǒng)的離線知識蒸餾需要預(yù)訓(xùn)練的教師模型對學(xué)生模型進(jìn)行監(jiān)督。在線知識蒸餾在無需教師的情況下同時聯(lián)合訓(xùn)練兩個以上的學(xué)生模型。深度相互學(xué)習(xí)(Deep Mutual Learning,DML)[2]表明了模型群體可以從相互學(xué)習(xí)類別概率分布(圖像分類任務(wù)最后的輸出預(yù)測)中獲益。每一個模型在同伴教授的模式下相比傳統(tǒng)的單獨(dú)訓(xùn)練效果更好。 現(xiàn)有的在線知識蒸餾方法通常僅僅關(guān)注結(jié)果驅(qū)動的蒸餾,但是忽略了在線蒸餾特征方面的應(yīng)用。雖然先前的 AFD [3]嘗試通過在線的方式在多個網(wǎng)絡(luò)間對齊中間特征圖,Zhang 等人[2]指出這種做法會減少群體多樣性,降低相互學(xué)習(xí)能力。為了學(xué)習(xí)更有意義的特征嵌入,我們認(rèn)為一個更好的方式是從視覺表征學(xué)習(xí)角度的對比學(xué)習(xí)。

wKgaomUOseuAHCKqAAM2USl54_8152.png

▲ 圖1. 相互對比學(xué)習(xí)基本思想示意圖 圖中, 分別表示兩個不同的網(wǎng)絡(luò), 是推理來自網(wǎng)絡(luò) 和輸入樣本 產(chǎn)生的特征向量。虛線和箭頭代表要逼近或者遠(yuǎn)離的方向。從圖中可以看出,MCL 包含了樸素對比學(xué)習(xí)(Vanilla Contrastive Learning,VCL)和交互式對比學(xué)習(xí)(Interactive Contrastive Learning,ICL)。 相比于傳統(tǒng)的 VCL,提出的 ICL 從兩個不同網(wǎng)絡(luò)間建模對比相似度分布。本文證明 ICL 的誤差函數(shù)等價于最大化兩個網(wǎng)絡(luò)互信息的下界,這可以被理解為一個網(wǎng)絡(luò)可以學(xué)習(xí)到另外網(wǎng)絡(luò)額外的知識。 MCL 主要是發(fā)表于 AAAI-2022 的方法,期刊版本將 MCL 從卷積網(wǎng)絡(luò)的最后一層擴(kuò)展到多個模型的中間特征層,命名為 Layer-wise MCL。此外,傳統(tǒng)的中間特征層蒸餾使用手工的匹配,本文則提出一個自適應(yīng)的層匹配機(jī)制,然后通過元優(yōu)化來訓(xùn)練該機(jī)制。

wKgZomUKAUiAUx54AAAuhh9-KLM583.png

方法

2.1. 相互對比學(xué)習(xí)MCL(AAAI-2022)

wKgaomUOsneANvyiAANja2j-FVo357.png

▲ 圖2. 相互對比學(xué)習(xí)整體示意圖

2.1.1 傳統(tǒng)對比學(xué)習(xí)(Vanilla Contrastive Learning,VCL) 為了便于描述,本方法將 anchor 樣本向量表示為 , 正樣本向量表示為 個負(fù)樣本向量表達(dá) 表示向量產(chǎn)生自網(wǎng)絡(luò) 。這里,特征向量通過 標(biāo)準(zhǔn)化進(jìn)行預(yù)處理。使用基于 InfoNCE 的交叉熵作為對比誤差:wKgZomUKAUiAfLcVAABApOxJsHE674.png ?對于總共 個網(wǎng)絡(luò)來說,所有的對比誤差表示為:

wKgZomUKAUiAKCIQAAArDByt5ss241.png

2.1.2 交互式對比學(xué)習(xí)(Interactive Contrastive Learning,ICL) VCL 不能建??缇W(wǎng)絡(luò)的關(guān)系來進(jìn)行聯(lián)合學(xué)習(xí),因?yàn)閷Ρ确植紒碜杂诰W(wǎng)絡(luò)自身的嵌入空間。ICL 的 anchor 樣本與對比樣本產(chǎn)生自不同的網(wǎng)絡(luò),但在誤差形式上依舊與傳統(tǒng)的對比學(xué)習(xí)誤差相同:

wKgZomUKAUmAeXmWAABDzUNsmsE873.png

對于總共 個網(wǎng)絡(luò)來說,所有的對比誤差表示為:wKgZomUKAUmAHottAAA6ziYm6K4293.png理論分析: 相比于誤差 ,最小化 等價于最大化網(wǎng)絡(luò) 互信息 的下界:

wKgZomUKAUmAJPTeAAAyml4f5m0589.png

直覺上,當(dāng)來自 的 anchor 特征向量已知時,互信息 衡量了來自 對比特征向量的不確定性,這可以理解為每一個網(wǎng)絡(luò)可以從其他網(wǎng)絡(luò)中學(xué)習(xí)到對比知識,從而更有利于表征學(xué)習(xí)。

2.1.3 基于在線相互遷移的軟對比學(xué)習(xí) 收到深度相互學(xué)習(xí)(Deep Mutual Learning,DML)[1] 的啟發(fā),本方法利用 KL 散度來對齊網(wǎng)絡(luò)間的對比分布,根據(jù)本文提出的兩種對比學(xué)習(xí)方法 VCL 和 ICL 來進(jìn)行對比分布的雙向遷移:

2.1.3.1 Soft VCL: 對于產(chǎn)生 的分布 來說,其監(jiān)督信號是其他網(wǎng)絡(luò)產(chǎn)生的分利用 KL 散度使得 與其他分布接近:

wKgZomUKAUmATx-zAAA3kjsNkMY187.png

2.1.3.2 Soft ICL 給定兩個網(wǎng)絡(luò) ,可以得到兩個ICL對應(yīng)的對比分布 ,使用 KL 散度的形式使得兩個分布盡可能接近。對于 個網(wǎng)絡(luò)來說,每兩個網(wǎng)絡(luò)進(jìn)行對比分布的遷移:

wKgZomUKAUmARWnNAAA9miXxmxg021.png

2.1.4 MCL的整體誤差 為了盡可能利用聯(lián)合學(xué)習(xí)的優(yōu)勢,本方法將所有的對比誤差項(xiàng)作為一個整體的誤差訓(xùn)練 個網(wǎng)絡(luò):

wKgZomUKAUmAUCrKAABBz-kLkaA478.png

2.2 逐層的相互對比學(xué)習(xí)(Layer-wise MCL)

wKgZomUOspuAVn9JAAFqZvww3EU238.png

▲ 圖3. 一對一匹配和加權(quán)的多對多匹配示意圖 2.2.1 基礎(chǔ)框架 給定網(wǎng)絡(luò)群,每一個網(wǎng)絡(luò)具有 個階段,原始的 MCL 在最后的特征嵌進(jìn)行學(xué)習(xí)。Layer-wise MCL(L-MCL)進(jìn)一步擴(kuò)展相互對比學(xué)習(xí)到中間特征層和最后特征層,并且采用跨層的方式。wKgZomUKAUqAFi2ZAAA-leMt4VM032.png下一個章節(jié),本文展示如何利用元網(wǎng)絡(luò) 來優(yōu)化匹配權(quán)重 。

2.2.2 訓(xùn)練元網(wǎng)絡(luò) 2.2.2.1 交叉熵任務(wù)誤差 使用交叉熵誤差訓(xùn)練 個網(wǎng)絡(luò):wKgZomUKAUqAcww5AABCUHA4NyM973.png ?將基礎(chǔ)的任務(wù)誤差和 L-MCL 誤差相加作為總誤差來進(jìn)行特征層面的在線蒸餾誤差:

wKgZomUKAUqAcLFWAABDIeiIkp4346.png

2.2.2.2 元優(yōu)化 受到元學(xué)習(xí)的啟發(fā),本文采用交替優(yōu)化的方式來訓(xùn)練學(xué)生網(wǎng)絡(luò)和元網(wǎng)絡(luò): (1)更新 次最小化 。 (2)更新 來一次最小化 。 (3)衡量 并且更新 來最小化它。

2.2.2.3 元網(wǎng)絡(luò) 結(jié)構(gòu)元網(wǎng)絡(luò)包含了兩個線性轉(zhuǎn)換 ,來對輸入的特征向量 進(jìn)行轉(zhuǎn)換。轉(zhuǎn)換之后,特征向量通過 正則化 來進(jìn)行標(biāo)準(zhǔn)化。受到自注意力機(jī)制的啟發(fā),本文利用點(diǎn)乘得到匹配特征的相似性,從而衡量匹配層的相關(guān)性,然后引入 sigmoid 激活函數(shù) 來將輸出值縮放到 作為層匹配權(quán)重 。整體的過程被規(guī)則化為:

wKgZomUKAUqAdFh7AABLnhROiyo613.png

wKgZomUKAUuAAB5HAAAtJ0fTuoM713.png

實(shí)驗(yàn)

在 ImageNet 上的實(shí)驗(yàn)結(jié)果如下所示,表 1 和表 2 分別展示了兩個同構(gòu)和異構(gòu)網(wǎng)絡(luò)利用相互對比學(xué)習(xí)的實(shí)驗(yàn)結(jié)果。

wKgZomUKAUuAIbuWAAUoQv-V7W8394.png

▲ 表1. 兩個同構(gòu)網(wǎng)絡(luò)利用相互對比學(xué)習(xí)的實(shí)驗(yàn)結(jié)果wKgZomUKAUuAWyzaAAct8aoAeQw188.png▲表2. 兩個異構(gòu)網(wǎng)絡(luò)利用相互對比學(xué)習(xí)的實(shí)驗(yàn)結(jié)果 實(shí)驗(yàn)結(jié)果表明本文提出的 L-MCL 相比于 baseline 以及先前流行的在線知識蒸餾方法都獲得了顯著的性能提升,表明在多個網(wǎng)絡(luò)之間使用特征層面的對比學(xué)習(xí)蒸餾相比概率分布效果更好。在下游的目標(biāo)檢測和實(shí)例分割實(shí)驗(yàn)上表明了該方法相比先前的蒸餾方法引導(dǎo)網(wǎng)絡(luò)學(xué)習(xí)到了更好的視覺表征,從而提升了視覺識別效果。

wKgZomUKAUyABytXAAD3uYhd4hI895.png

▲ 表3. 通過在線蒸餾的預(yù)訓(xùn)練網(wǎng)絡(luò)遷移到下游的目標(biāo)檢測和與實(shí)例分割的實(shí)驗(yàn)

wKgZomUKAUyAHFsxAAAC0jQz1zo003.jpg

參考文獻(xiàn)

wKgZomUKAUyAHFsxAAAC0jQz1zo003.jpg ?[1] Yang C, An Z, Cai L, et al. Mutual contrastive learning for visual representation learning[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2022, 36(3): 3045-3053.[2] Zhang Y, Xiang T, Hospedales T M, et al. Deep mutual learning[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 4320-4328.[3] Chung I, Park S U, Kim J, et al. Feature-map-level online adversarial knowledge distillation[C]//International Conference on Machine Learning. PMLR, 2020: 2006-2015. ·


原文標(biāo)題:TPAMI 2023 | 用于視覺識別的相互對比學(xué)習(xí)在線知識蒸餾

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:TPAMI 2023 | 用于視覺識別的相互對比學(xué)習(xí)在線知識蒸餾

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    華秋輸出的GERBER別的軟件無法正確識別

    ,卡住了。 這個是華秋識別的,可以看到是正確的。 下面是AD,KICAD、工廠錫膏機(jī)識別的,都一樣的,統(tǒng)一少了太多東東。
    發(fā)表于 12-17 10:46

    電能質(zhì)量在線監(jiān)測裝置是如何實(shí)現(xiàn)對電壓中斷事件的識別的?

    電能質(zhì)量在線監(jiān)測裝置對電壓中斷事件的識別,是基于 **“國標(biāo)定義 + 高保真采樣 + 實(shí)時計(jì)算 + 多維度驗(yàn)證”** 的閉環(huán)技術(shù)體系,核心目標(biāo)是 “無漏判、無誤判”,精準(zhǔn)捕捉符合 GB/T
    的頭像 發(fā)表于 11-27 16:32 ?1017次閱讀
    電能質(zhì)量<b class='flag-5'>在線</b>監(jiān)測裝置是如何實(shí)現(xiàn)對電壓中斷事件的<b class='flag-5'>識別的</b>?

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?162次閱讀

    UV紫外相機(jī)在工業(yè)視覺檢測中的應(yīng)用

    UV紫外相機(jī)通過捕捉紫外信號和激發(fā)熒光反應(yīng),解決常規(guī)相機(jī)無法識別的隱形缺陷和標(biāo)記,廣泛應(yīng)用于工業(yè)視覺檢測。
    的頭像 發(fā)表于 10-21 09:45 ?303次閱讀

    iTOF技術(shù),多樣化的3D視覺應(yīng)用

    (CMOS)產(chǎn)品項(xiàng)目利用其在傳統(tǒng)TOF(CCD)技術(shù)方面的專業(yè)知識,目標(biāo)是在2023年12月之前量產(chǎn)?;诳蛻魳颖掘?yàn)證的初步反饋和溝通表明,與同類產(chǎn)品相比,這兩項(xiàng)指標(biāo)的表現(xiàn)均具有優(yōu)異性,增強(qiáng)了我們對其
    發(fā)表于 09-05 07:24

    基于LockAI視覺識別模塊:C++人臉識別

    基本知識講解 1.1 人臉識別簡介 人臉識別是一種利用人的臉部特征進(jìn)行身份識別的生物識別技術(shù)。它通過檢測圖像或視頻中的人臉,提取如眼睛、鼻
    發(fā)表于 07-01 12:01

    基于LockAI視覺識別模塊:C++人臉識別

    本文基于RV1106做成的LockAI視覺識別模塊,采用LZ-Picodet模型訓(xùn)練的人臉檢測模型LZ-Face,以及ArcFace人臉識別模型,實(shí)現(xiàn)人臉識別系統(tǒng)。
    的頭像 發(fā)表于 07-01 10:09 ?644次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++人臉<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:手寫數(shù)字識別

    1.1 手寫數(shù)字識別簡介 手寫數(shù)字識別是一種利用計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)技術(shù)自動識別手寫數(shù)字的過程。它通過圖像預(yù)處理、特征提取和模型訓(xùn)練來實(shí)現(xiàn)
    發(fā)表于 06-30 16:45

    基于LockAI視覺識別模塊:手寫數(shù)字識別

    手寫數(shù)字識別是一種經(jīng)典的模式識別和圖像處理問題,旨在通過計(jì)算機(jī)自動識別用戶手寫的數(shù)字。本文將教會你如何使用基于RV1106的LockAI視覺識別
    的頭像 發(fā)表于 06-30 15:44 ?978次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:手寫數(shù)字<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:C++條碼識別

    條碼識別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺
    發(fā)表于 05-27 10:26

    基于LockAI視覺識別模塊:C++條碼識別

    條碼識別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺
    的頭像 發(fā)表于 05-27 09:32 ?655次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++條碼<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:C++二維碼識別

    二維碼識別視覺模塊經(jīng)常使用到的功能之一。我們將演示如何使用基于瑞芯微RV1106的LockAI視覺識別模塊進(jìn)行二維碼識別
    的頭像 發(fā)表于 05-26 09:42 ?838次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++二維碼<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:C++同時識別輪廓和色塊

    1.項(xiàng)目簡介1.1色塊識別的重要性顏色特征提?。侯伾且环N重要的視覺特征,尤其在背景較為單一的情況下,能夠快速區(qū)分目標(biāo)區(qū)域。應(yīng)用場景:廣泛應(yīng)用于機(jī)器人導(dǎo)航、工業(yè)自動化、物體跟蹤等領(lǐng)域。HSV顏色空間
    的頭像 發(fā)表于 05-23 16:41 ?882次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++同時<b class='flag-5'>識別</b>輪廓和色塊

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    部署,詳細(xì)介紹了基于顏色閾值和深度學(xué)習(xí)的巡線方法。 二維碼識別則廣泛應(yīng)用于機(jī)器人定位與任務(wù)觸發(fā),例如AGV(自動導(dǎo)引車)的路徑規(guī)劃。 深度學(xué)習(xí)在機(jī)器人
    發(fā)表于 05-03 19:41

    基于LockAI視覺識別模塊:C++圖像采集例程

    本文主要演示如何使用LockAI視覺識別模塊進(jìn)行視頻流的讀取,同時使用Edit模塊進(jìn)行圖像傳輸?;A(chǔ)知識講解1.1OpenCV簡介OpenCV(OpenSourceComputerVisionLibra
    的頭像 發(fā)表于 04-30 18:23 ?667次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++圖像采集例程