chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自步對比學(xué)習(xí)框架及混合記憶模型

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 作者:新機(jī)器視覺 ? 2020-11-03 09:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹一篇我們發(fā)表于NeurIPS-2020的論文《Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID》,該工作提出自步對比學(xué)習(xí)框架及混合記憶模型,旨在解決無監(jiān)督及領(lǐng)域自適應(yīng)表征學(xué)習(xí)中數(shù)據(jù)無法被充分挖掘的問題。

這項工作在無監(jiān)督的目標(biāo)重識別任務(wù)上顯著地超越最先進(jìn)技術(shù)高達(dá)16.7%;領(lǐng)域自適應(yīng)的目標(biāo)重識別任務(wù)中,在無監(jiān)督的目標(biāo)域上超越最先進(jìn)技術(shù)高達(dá)5.0%,同時可以提升有監(jiān)督的源域性能高達(dá)6.6%。實(shí)驗(yàn)結(jié)果充分證明其廣泛的應(yīng)用場景及有效性:可被應(yīng)用于解決無監(jiān)督學(xué)習(xí)任務(wù),也可被應(yīng)用于利用額外無監(jiān)督數(shù)據(jù)提升有監(jiān)督學(xué)習(xí)的任務(wù)。代碼和模型均已公開,方法也被收錄于OpenUnReID代碼庫。

背景簡介

近年來,在無監(jiān)督學(xué)習(xí)的浪潮下,無監(jiān)督及領(lǐng)域自適應(yīng)的目標(biāo)重識別任務(wù)也逐漸受到大家的關(guān)注,在剛剛過去的ECCV2020中這個方向所發(fā)表的論文就有十余篇。

目標(biāo)重識別(Object Re-ID),包括行人重識別、車輛重識別等,旨在跨攝像機(jī)檢索和追蹤目標(biāo)人物或車輛。重識別任務(wù)的關(guān)鍵之一是學(xué)習(xí)具有辨識性的特征,并在多樣的條件變化下保持魯棒性。在如今深度學(xué)習(xí)盛行的時代,大規(guī)模數(shù)據(jù)集推動了目標(biāo)重識別任務(wù)的快速發(fā)展,然而,領(lǐng)域差異及標(biāo)注數(shù)據(jù)的高消耗等都成為了部署重識別算法中無法忽視的問題。

領(lǐng)域自適應(yīng)的目標(biāo)重識別(Domain Adaptive Object Re-ID)旨在通過源域有標(biāo)注的數(shù)據(jù)和目標(biāo)域無標(biāo)注的數(shù)據(jù)進(jìn)行訓(xùn)練,從而在目標(biāo)域上取得較好的性能。這里區(qū)分一下一般分類任務(wù)上的領(lǐng)域自適應(yīng),分類任務(wù)上的兩個領(lǐng)域的類別往往有部分或者全部的重疊,而重識別任務(wù)上的兩個領(lǐng)域,我們一般認(rèn)為類別完全沒有重復(fù)。

這是由于領(lǐng)域自適應(yīng)的重識別任務(wù)一般應(yīng)用在:將城市A訓(xùn)練的重識別模型應(yīng)用于城市B、將虛擬合成數(shù)據(jù)訓(xùn)練的重識別模型應(yīng)用于真實(shí)世界的場景等。在這些場景中,兩個領(lǐng)域間的類別一般很難存在重復(fù)。

無監(jiān)督的目標(biāo)重識別(Unsupervised Object Re-ID)與上述領(lǐng)域自適應(yīng)重識別非常相似,問題設(shè)置上的唯一區(qū)別在于沒有有標(biāo)簽的源域數(shù)據(jù)。這里著重區(qū)分一下目前很受關(guān)注的無監(jiān)督預(yù)訓(xùn)練(Unsupervised Pre-training)任務(wù),存在兩點(diǎn)主要區(qū)別: 1)無監(jiān)督預(yù)訓(xùn)練任務(wù)從網(wǎng)絡(luò)隨機(jī)初始化開始,無監(jiān)督重識別任務(wù)從預(yù)訓(xùn)練好的網(wǎng)絡(luò)開始; 2)無監(jiān)督預(yù)訓(xùn)練的網(wǎng)絡(luò)需要經(jīng)過fine-tune才可以應(yīng)用在下游任務(wù)上,而無監(jiān)督重識別任務(wù)本身可以看作一個無監(jiān)督的下游任務(wù),經(jīng)過訓(xùn)練的網(wǎng)絡(luò)可直接部署。 領(lǐng)域自適應(yīng)重識別任務(wù)的研究歷史較無監(jiān)督重識別任務(wù)而言較長一些,但本質(zhì)上這兩項任務(wù)是非常相似的。正如上文所述,領(lǐng)域自適應(yīng)重識別任務(wù)相較于無監(jiān)督重識別任務(wù)而言,只是在問題設(shè)置上多出了有標(biāo)簽的源域數(shù)據(jù)。 所以,大部分的算法也都可以通用,因?yàn)楹芏囝I(lǐng)域自適應(yīng)重識別算法只需要去除源域預(yù)訓(xùn)練的步驟,即可應(yīng)用于無監(jiān)督重識別任務(wù)上。該論文所介紹的方法在這兩項任務(wù)上也都取得了很不錯的結(jié)果。 下面,將先以領(lǐng)域自適應(yīng)重識別任務(wù)為例介紹方法,再講解如何應(yīng)用于無監(jiān)督重識別任務(wù)。

問題與動機(jī)

解決領(lǐng)域自適應(yīng)重識別任務(wù)的算法可以分為兩類,偽標(biāo)簽類和域轉(zhuǎn)換類,目前偽標(biāo)簽類可以獲得更好的性能,而偽標(biāo)簽類中的基于聚類的偽標(biāo)簽法較為有效,所以本文所基于的baseline是基于聚類的偽標(biāo)簽算法。

目前大部分基于聚類的偽標(biāo)簽算法(如SSG、MMT等)在訓(xùn)練上分為兩步:

第一步,在源域上利用有標(biāo)簽的源域數(shù)據(jù)進(jìn)行有監(jiān)督的預(yù)訓(xùn)練;

第二步,在預(yù)訓(xùn)練的模型基礎(chǔ)上,利用目標(biāo)域無標(biāo)簽的數(shù)據(jù)及其聚類產(chǎn)生的偽標(biāo)簽進(jìn)行fine-tune。

這樣的算法流程目前已經(jīng)可以獲得相對令人滿意的結(jié)果,但他們?nèi)匀淮嬖趦牲c(diǎn)缺陷:

1)在第二步的目標(biāo)域訓(xùn)練中忽略了源域數(shù)據(jù)(僅用于預(yù)訓(xùn)練),但我們認(rèn)為源域的數(shù)據(jù)由于具有真實(shí)準(zhǔn)確的標(biāo)簽,所以應(yīng)當(dāng)被充分利用;

2)在基于聚類的偽標(biāo)簽法中,往往沒有用到全部的目標(biāo)域無標(biāo)簽數(shù)據(jù),因?yàn)榛诿芏鹊木垲悾ㄈ鏒BSCAN等)本身會產(chǎn)生聚類離群值(outlier),這些聚類離群值由于無法分配偽標(biāo)簽,所以被丟棄,不用于訓(xùn)練。

但我們認(rèn)為,這樣的聚類離群值往往正是那些值得挖掘的困難訓(xùn)練樣本。尤其在訓(xùn)練的早期,往往存在大量的聚類離群值,若簡單丟棄它們,訓(xùn)練樣本將大幅減少。

所以如何合理地挖掘所有可用的信息是提升性能的關(guān)鍵。如上圖所示,我們提出在訓(xùn)練中使用全部的源域數(shù)據(jù)和目標(biāo)域數(shù)據(jù),并利用一個混合記憶模型(Hybrid Memory)來提供監(jiān)督: 對于源域數(shù)據(jù)而言,監(jiān)督是他們真實(shí)的標(biāo)簽; 對于目標(biāo)域聚類內(nèi)的數(shù)據(jù)而言,監(jiān)督是他們的聚類標(biāo)簽; 對于目標(biāo)域的聚類離群值而言,他們每張圖本身被看作一個單獨(dú)的類,所以監(jiān)督是實(shí)例級的標(biāo)簽。 我們將所有的源域類、目標(biāo)域聚類、目標(biāo)域每個聚類離群值實(shí)例看成平等的類別。

自步對比學(xué)習(xí)框架

以下是我們所提出自步對比學(xué)習(xí)(Self-paced Contrastive Learning)框架,包括一個圖像特征編碼器(Encoder)和一個混合記憶模型(Hybrid Memory)。 核心是混合記憶模型在動態(tài)變化的類別下所提供的連續(xù)有效的監(jiān)督,以統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)的形式監(jiān)督網(wǎng)絡(luò)更新,實(shí)現(xiàn)起來非常容易,且即插即用。下文將具體介紹。

統(tǒng)一對比損失函數(shù)

類別原型(Class Prototype)可以理解為該類別中較為有標(biāo)志的特征,例如無偏分類器中的權(quán)重(Weights)。在這里,我們 使用源域真實(shí)類別的類質(zhì)心(Class Centroids)作為源域數(shù)據(jù)的類別原型{w}, 使用目標(biāo)域聚類的質(zhì)心(Cluster Centroids)作為聚類內(nèi)的目標(biāo)域數(shù)據(jù)的類別原型{c}, 使用目標(biāo)域聚類離群值的實(shí)例特征(Outlier Instance Features)作為無聚類的目標(biāo)域數(shù)據(jù)的類別原型{v}。 我們所提出的混合記憶模型可以實(shí)時提供這三種類別原型以作訓(xùn)練監(jiān)督,后文將具體介紹這三種類別原型的更新過程。

對于每一組輸入的mini-batch,同時包含源域數(shù)據(jù)和目標(biāo)域數(shù)據(jù)(我們在編碼器中使用Domain-specific BNs來消除不同領(lǐng)域數(shù)據(jù)間的域差異),他們需要與上述三種類別原型進(jìn)行比較。所以我們提出統(tǒng)一對比損失函數(shù)(Unified Contrastive Learning):

該損失函數(shù)可以使得每個訓(xùn)練樣本靠近它所屬于的類別(包含源域真實(shí)類、目標(biāo)域聚類、目標(biāo)域無聚類實(shí)例),而遠(yuǎn)離其他類別。

舉例來說,對于一個來自源域的樣本,其對應(yīng)的正面原型(Positive Prototype)則是它真實(shí)類別所對應(yīng)的質(zhì)心(Class Centroids);對于一個來自目標(biāo)域的樣本,若其在聚類內(nèi),則正面原型為其所對應(yīng)的聚類質(zhì)心(Cluster Centroids)。

反之,若其不在聚類內(nèi),為聚類離群值,則正面原型為該離群值所對應(yīng)的實(shí)例特征(Outlier Instance Features)。

其實(shí),我們所設(shè)計的“混合記憶模型(Hybrid Memory)+統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)”與大家常用的“分類器(Classifier)+交叉熵?fù)p失函數(shù)(Cross-entropy Loss)”在工作機(jī)理上非常相似,可以簡單的認(rèn)為混合記憶模型是非參數(shù)化(Non-parametric)的分類器。

那么,為什么我們不用普通分類器來完成這一任務(wù)呢?

這是由于目標(biāo)域的聚類及聚類離群值在訓(xùn)練過程中動態(tài)變化(一般每個epoch前更新),無法使用固定的聚類ID及離群值實(shí)例ID訓(xùn)練分類器。如若在每次更新完ID后需要重置分類器,分類器由于無法連續(xù)更新,會導(dǎo)致性能較差。

有同學(xué)會問,以前的算法(如MMT),每個epoch重置分類器依然訓(xùn)練效果很好,這是為什么?

這是因?yàn)檫@些算法不使用聚類離群值進(jìn)行訓(xùn)練。試想,將每個聚類離群值也看做單獨(dú)的類加入分類器,而每個epoch只能遍歷到該類對應(yīng)的樣本一次(因?yàn)橐粋€離群值是一個類),那么,在類樣本數(shù)如此不平均的情況下,分類器幾乎得不到有效的訓(xùn)練,便會被重置。

我們所提出的統(tǒng)一對比損失函數(shù)與自監(jiān)督任務(wù)(如MoCo、SimCLR等)中常用的對比損失函數(shù)最主要的區(qū)別在于,我們同時考慮了三種不同的類別原型,而以前的對比損失函數(shù)只考慮實(shí)例級的類別原型。他們將所有樣本看作獨(dú)立的類,進(jìn)行實(shí)例區(qū)分(Instance Discrimination)訓(xùn)練,這樣的算法很大程度上忽略了類內(nèi)(Intra-class)關(guān)系,也就是同一ID的不同圖像間的聯(lián)系,故以前的對比損失函數(shù)不適用于重識別任務(wù)。

混合記憶模型

上文中,我們提到混合記憶模型(Hybrid Memory)實(shí)時提供三種不同的類別原型,那么,這三種類別原型是如何動態(tài)地在混合記憶模型中連續(xù)更新變化的呢? 我們提出使用動量更新(Momentum Update),想必這個詞對大家來說并不陌生,在MoCo、Mean-teacher等模型中常有見到,簡單來說,就是以“參數(shù)= (1-動量)x新參數(shù)+動量x參數(shù)”的形式更新。在這里,我們針對源域和目標(biāo)域采取不同的動量更新算法,以適應(yīng)其不同的特性。

對于源域的數(shù)據(jù)而言,由于具有真實(shí)的類別,我們提出以類為單位進(jìn)行存儲。這樣的操作一方面節(jié)省空間,一方面在實(shí)驗(yàn)中也取得了較好的結(jié)果。我們將當(dāng)前mini-batch內(nèi)的源域特征根據(jù)類別算均值,然后以動量的方式累計到混合記憶模型中對應(yīng)的類質(zhì)心上去,詳見下圖。

對于目標(biāo)域的數(shù)據(jù)而言,我們提出全部以實(shí)例為單位進(jìn)行特征存儲,這是為了讓目標(biāo)域樣本即使在聚類和非聚類離群值不斷變化的情況下,仍然能夠在混合記憶模型中持續(xù)更新(Continuously Update)。

具體而言,我們將當(dāng)前mini-batch內(nèi)的目標(biāo)域特征根據(jù)實(shí)例的index累計到混合記憶模型對應(yīng)的實(shí)例特征上去。

那么,如何獲得目標(biāo)域的聚類質(zhì)心及離群值實(shí)例特征呢?

我們在混合記憶模型中,將同一聚類ID的特征做平均,即可獲得聚類質(zhì)心;而離群值的實(shí)例特征則直接從混合記憶模型中提取剩下的實(shí)例特征即可,如下圖。

由簡入難的自步學(xué)習(xí)

我們發(fā)現(xiàn),由于聚類和聚類離群值都被看作平等且獨(dú)立的類,所以聚類的可靠性對訓(xùn)練的影響至關(guān)重要。由于網(wǎng)絡(luò)在訓(xùn)練的一開始對于圖像的辨別性較差,聚類的噪聲也較大。 所以我們借鑒自步學(xué)習(xí)(Self-paced Learning)的思想,先從最可靠的聚類開始,再逐步增加聚類,由簡入難。我們提出了一個聚類可靠性評價標(biāo)準(zhǔn)(Cluster Reliability Criterion),保留可靠的聚類,而將不可靠的聚類拆解回?zé)o聚類的離群值實(shí)例。我們所提出的聚類可靠性評價標(biāo)準(zhǔn)分為聚類獨(dú)立性(Cluster Independence)和聚類緊湊型(Cluster Compactness)。

聚類獨(dú)立性(Cluster Independence)體現(xiàn)為一個可靠的聚類應(yīng)當(dāng)具有良好的類間距離,通俗點(diǎn)來說,不能和附近的聚類“如膠似漆”。

我們提出,放寬聚類的標(biāo)準(zhǔn),例如DBSCAN中的最小類內(nèi)距離,此時,如果該聚類與周圍的聚類融合成了一個大聚類、或者吸收了附近的離群值,那么我們認(rèn)為,該聚類的獨(dú)立性不太好。

我們使用一個IoU(Intersection over Union)公式來計算聚類的獨(dú)立性。

聚類緊湊型(Cluster Compactness)體現(xiàn)為一個可靠的聚類內(nèi)的樣本應(yīng)該相互靠近,具有良好的類內(nèi)距離。

類似的,我們提出,縮緊聚類的標(biāo)準(zhǔn),此時,如果該聚類被拆解成了多個小聚類、或者拆出了一些聚類離群值,那么我們認(rèn)為,該聚類的緊湊型不太好。

我們使用另一個IoU公式來計算聚類的緊湊型,如上圖所示。

直觀地說,該聚類可靠性評價標(biāo)準(zhǔn)的出發(fā)點(diǎn)在于,一個可靠的聚類應(yīng)當(dāng)在多尺度的聚類環(huán)境下保持穩(wěn)定。從下圖訓(xùn)練的統(tǒng)計中可以看出,使用了聚類可靠性評價標(biāo)準(zhǔn)的模型(紅色線)相比較于未使用的模型(藍(lán)色線),無論是在聚類的數(shù)量還是質(zhì)量上,都離真實(shí)類別更近。

算法流程

以上,我們介紹了核心的模塊,我們梳理一下具體訓(xùn)練流程:

初始化(Initialization):圖像編碼器(Encoder)的初始化一般使用ImageNet Pre-trained Weights,混合記憶模型(Hybrid Memory)的初始化使用初始的編碼器對所有的樣本進(jìn)行一次前向計算。

聚類和聚類離群值:在每個epoch前進(jìn)行聚類,并根據(jù)聚類可靠性評價標(biāo)準(zhǔn)(Cluster Reliability Criterion)進(jìn)行聚類的篩選,僅保留可靠的聚類,其余樣本均視作聚類離群值。

網(wǎng)絡(luò)和混合記憶模型的更新:在每個iteration中,首先利用編碼器對mini-batch的樣本進(jìn)行特征編碼,然后利用統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)進(jìn)行網(wǎng)絡(luò)的反向傳播更新,最后利用編碼的特征以動量更新(Momentum Update)的方式更新混合記憶模型(Hybrid Memory)。

無監(jiān)督重識別上的應(yīng)用

在一開始曾提到,該方法也可以被有效利用在無監(jiān)督重識別任務(wù)上,只需要將混合記憶模型和統(tǒng)一對比損失函數(shù)中有關(guān)源域的部分去掉即可。

無監(jiān)督重識別任務(wù)上的自步對比學(xué)習(xí)框架如下:

對應(yīng)的統(tǒng)一對比損失函數(shù)如下:

實(shí)驗(yàn)

由于自步對比學(xué)習(xí)框架中可以同時訓(xùn)練源域和目標(biāo)域的數(shù)據(jù),所以訓(xùn)練是one-stage的,無需單獨(dú)的源域預(yù)訓(xùn)練步驟。實(shí)驗(yàn)中,我們針對多個真實(shí)及虛擬合成數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn),在行人重識別和車輛重識別任務(wù)上都測試了該方法的有效性。

領(lǐng)域自適應(yīng)任務(wù)中,我們在無監(jiān)督的目標(biāo)域上均超越先前算法,在PersonX->MSMT17的任務(wù)上領(lǐng)先高達(dá)5.0%的mAP,這是由于在“虛擬合成->真實(shí)”的遷移任務(wù)中,由于聚類噪聲較大,產(chǎn)生的聚類離群值較多,所以我們所提出的充分挖掘所有樣本的方案所帶來的優(yōu)勢將更為突出。

除此之外,一項有趣的發(fā)現(xiàn),VehicleID->VeRi-776與VehicleX->VeRi-776在目標(biāo)域上獲得幾乎相似的性能,這說明,在未來,隨著領(lǐng)域自適應(yīng)算法的不斷升級,可能我們再也不需要人為標(biāo)注的源域數(shù)據(jù)來作為輔助了,可以使用虛擬合成的數(shù)據(jù)予以代替。

以前的算法由于在目標(biāo)域的訓(xùn)練中忽視了源域數(shù)據(jù),所以會無法避免地忘記源域的信息,而我們提出的方法對源域和目標(biāo)域數(shù)據(jù)進(jìn)行了聯(lián)合訓(xùn)練,在目標(biāo)域性能提升的同時,也提升了有監(jiān)督的源域性能。

可以看到,在MSMT17-Market-1501的遷移訓(xùn)練中,我們利用Market-1501的無標(biāo)簽數(shù)據(jù)大幅提升了MSMT17上的有監(jiān)督訓(xùn)練性能(+6.6%mAP)。這意味著,我們所提出的算法可以被用于利用無標(biāo)簽數(shù)據(jù)提升有監(jiān)督訓(xùn)練的任務(wù)。

同樣,在無監(jiān)督重識別任務(wù)上,我們大幅領(lǐng)先已有的算法,在Market-1501的benchmark上領(lǐng)先高達(dá)16.7%的mAP。

我們也將MoCo在無監(jiān)督重識別任務(wù)上進(jìn)行了復(fù)現(xiàn),正如我們之前所介紹了,這類無監(jiān)督預(yù)訓(xùn)練任務(wù)的算法并不適用于無監(jiān)督的重識別任務(wù),因?yàn)樗麄儗⑺械臉颖疽曌鳘?dú)立的類,忽視了重識別任務(wù)中最重要的類內(nèi)類間關(guān)系。

再強(qiáng)調(diào)一下,MoCo這類算法適用于無監(jiān)督預(yù)訓(xùn)練任務(wù),在應(yīng)用于下游任務(wù)上時需要fine-tune,而無監(jiān)督重識別任務(wù)本身是一個下游任務(wù)。

有細(xì)心的同學(xué)可能會發(fā)現(xiàn),剛剛展示的結(jié)果中沒有涉及DukeMTMC-reID數(shù)據(jù)集的實(shí)驗(yàn),這是因?yàn)镈ukeMTMC-reID已經(jīng)官方下架,在AC的要求下,我們需要在論文的最終版本中刪去所有有關(guān)DukeMTMC-reID的實(shí)驗(yàn)結(jié)果。

但是DukeMTMC-reID是行人重識別相關(guān)任務(wù)中常用的數(shù)據(jù)集,所以為了方便大家未來進(jìn)行算法的調(diào)試和比較,我在這里也簡單展示一下DukeMTMC-reID相關(guān)的結(jié)果,更多的結(jié)果大家可以在我們arXiv的第一個版本(arxiv.org/abs/2006.0271)中找到。

總結(jié)

該文提出了一個簡單有效的自步對比學(xué)習(xí)框架,核心思想是利用多種不同形式的類別原型提供混合監(jiān)督,以實(shí)現(xiàn)對所有訓(xùn)練數(shù)據(jù)的充分挖掘。雖然本文只在目標(biāo)重識別任務(wù)上進(jìn)行了實(shí)驗(yàn),但是提出的混合記憶模型及統(tǒng)一對比損失函數(shù)是即插即用的,有很大潛力在其他任務(wù)上取得較好的結(jié)果,歡迎大家嘗試。

這次NeurIPS的評審過程相當(dāng)刺激,從初審的7663到終審的5553,reviewers的降分起源對DukeMTMC-reID數(shù)據(jù)集的討論,最終這份工作也經(jīng)歷了NeurIPS今年特有的Ethics Review,起起落落,最終被AC撈起,感恩。可見,目前學(xué)術(shù)界對于數(shù)據(jù)集的隱私保護(hù)規(guī)范要求也越來越嚴(yán)格。

推薦大家在以后領(lǐng)域自適應(yīng)重識別工作中考慮采用合成數(shù)據(jù)集,如PersonX、VehicleX等,不僅可以避免不必要的麻煩,并且由于合成數(shù)據(jù)和真實(shí)數(shù)據(jù)的域差異較大,算法上可以提shua升fen的空間也會較大。分類任務(wù)及分割任務(wù)上的領(lǐng)域自適應(yīng)往往采用合成數(shù)據(jù)作為源域,且這次VisDA-2020的比賽中,源域采用的也是合成數(shù)據(jù)集PersonX,可見合成數(shù)據(jù)到真實(shí)數(shù)據(jù)的自適應(yīng)任務(wù)備受關(guān)注。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91855
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95376
  • 識別
    +關(guān)注

    關(guān)注

    3

    文章

    173

    瀏覽量

    32254

原文標(biāo)題:?自步對比學(xué)習(xí): 充分挖掘無監(jiān)督學(xué)習(xí)樣本

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    模型時代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)
    的頭像 發(fā)表于 04-25 11:43 ?268次閱讀
    大<b class='flag-5'>模型</b>時代的深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>

    《AI Agent 應(yīng)用與項目實(shí)戰(zhàn)》閱讀心得2——客服機(jī)器人、AutoGen框架 、生成式代理

    了分層存儲架構(gòu),將記憶分為短期記憶、工作記憶和長期記憶三個層次,通過注意力機(jī)制和遺忘機(jī)制來管理記憶的存儲和調(diào)用。反思機(jī)制的創(chuàng)新之處在于引入了
    發(fā)表于 02-25 21:59

    模型訓(xùn)練框架(五)之Accelerate

    Hugging Face 的 Accelerate1是一個用于簡化和加速深度學(xué)習(xí)模型訓(xùn)練的庫,它支持在多種硬件配置上進(jìn)行分布式訓(xùn)練,包括 CPU、GPU、TPU 等。Accelerate 允許用戶
    的頭像 發(fā)表于 01-14 14:24 ?713次閱讀

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    在客服領(lǐng)域是大模型落地場景中最多的,也是最容易實(shí)現(xiàn)的。本身客服領(lǐng)域的特點(diǎn)就是問答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書,學(xué)習(xí)模型
    發(fā)表于 12-17 16:53

    大語言模型開發(fā)框架是什么

    大語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言模型開發(fā)框架。
    的頭像 發(fā)表于 12-06 10:28 ?525次閱讀

    Arm成功將Arm KleidiAI軟件庫集成到騰訊研的Angel 機(jī)器學(xué)習(xí)框架

    Arm 與騰訊攜手合作,成功將 Arm KleidiAI 軟件庫集成到騰訊研的 Angel 機(jī)器學(xué)習(xí)框架。 ? 借助 KleidiAI 解鎖卓越性能、能效和可移植性,騰訊混元大模型
    的頭像 發(fā)表于 11-24 15:33 ?1281次閱讀

    基于視覺語言模型的導(dǎo)航框架VLMnav

    本文提出了一種將視覺語言模型(VLM)轉(zhuǎn)換為端到端導(dǎo)航策略的具體框架。不依賴于感知、規(guī)劃和控制之間的分離,而是使用VLM在一中直接選擇動作。驚訝的是,我們發(fā)現(xiàn)VLM可以作為一種無需任何微調(diào)或?qū)Ш綌?shù)據(jù)的端到端策略來使用。這使得該
    的頭像 發(fā)表于 11-22 09:42 ?792次閱讀

    時空引導(dǎo)下的時間序列監(jiān)督學(xué)習(xí)框架

    考慮各個序列之間的關(guān)系。因此,本文提出的方法更適合作為時空預(yù)測領(lǐng)域的預(yù)訓(xùn)練模型。下面為大家詳細(xì)介紹一下這篇文章。 摘要 相關(guān)時間序列分析在許多現(xiàn)實(shí)行業(yè)中扮演著重要的角色。為進(jìn)一的下游任務(wù)學(xué)習(xí)這個大規(guī)模數(shù)據(jù)的有效表示是必要
    的頭像 發(fā)表于 11-15 11:41 ?768次閱讀
    時空引導(dǎo)下的時間序列<b class='flag-5'>自</b>監(jiān)督<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對RNN與LSTM模型的比較分析: 一、基
    的頭像 發(fā)表于 11-15 10:05 ?2222次閱讀

    Llama 3 模型與其他AI工具對比

    Llama 3模型與其他AI工具的對比可以從多個維度進(jìn)行,包括但不限于技術(shù)架構(gòu)、性能表現(xiàn)、應(yīng)用場景、定制化能力、開源與成本等方面。以下是對Llama 3模型與其他一些主流AI工具的對比
    的頭像 發(fā)表于 10-27 14:37 ?1066次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?2884次閱讀

    【「大模型時代的基礎(chǔ)架構(gòu)」閱讀體驗(yàn)】+ 第一、二章學(xué)習(xí)感受

    程分為下圖中的四: 此后引入機(jī)器學(xué)習(xí)開發(fā)框架TensorFlow,該框架下集成了多種“輪子”,但要避免“重復(fù)造輪子”。下一小節(jié)是分布式AI訓(xùn)練,從中知道了訓(xùn)練測略分為
    發(fā)表于 10-10 10:36

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨大潛力,使得
    發(fā)表于 08-12 11:21

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 監(jiān)督學(xué)習(xí)模型采用
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書

    上周收到《大語言模型應(yīng)用指南》一書,非常高興,但工作項目繁忙,今天才品鑒體驗(yàn),感謝作者編寫了一部內(nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個讓我了解大語言模型和機(jī)器學(xué)習(xí)
    發(fā)表于 07-21 13:35