chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用元學(xué)習(xí)進(jìn)行少樣本圖像分類

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-14 23:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

首發(fā):AI公園
作者:Etienne
編譯:ronghuaiyang

導(dǎo)讀

你并不總是有足夠的圖像來訓(xùn)練一個深度神經(jīng)網(wǎng)絡(luò)。下面是教你如何通過幾個樣本讓模型快速學(xué)習(xí)的方法。

我們?yōu)槭裁匆P(guān)心少樣本學(xué)習(xí)?

1980年,Kunihiko Fukushima開發(fā)了第一個卷積神經(jīng)網(wǎng)絡(luò)。自那以后,由于計(jì)算能力的不斷增強(qiáng)和機(jī)器學(xué)習(xí)社區(qū)的巨大努力,深度學(xué)習(xí)算法從未停止提高其在與計(jì)算機(jī)視覺相關(guān)的任務(wù)上的性能。2015年,Kaiming He和他的微軟的團(tuán)隊(duì)報(bào)告說,他們的模型在從ImageNet分類圖像時比人類表現(xiàn)更好。那時,我們可以說計(jì)算機(jī)在處理數(shù)十億張圖像來解決特定任務(wù)方面比我們做得更好。

但是,如果你不是谷歌或Facebook,你不可能總是能夠構(gòu)建具有那么多圖像的數(shù)據(jù)集。當(dāng)你在計(jì)算機(jī)視覺領(lǐng)域工作時,你有時不得不對圖像進(jìn)行分類,每個標(biāo)簽只有一個或兩個樣本。在這場比賽中,人類還是要被打敗的。只要給嬰兒看一張大象的照片,他們從此以后就可以認(rèn)出大象了。如果你用Resnet50做同樣的事情,你可能會對結(jié)果感到失望。這種從少量樣本中學(xué)習(xí)的問題叫做少樣本學(xué)習(xí)。

近年來,少樣本學(xué)習(xí)問題在研究界引起了極大的關(guān)注,并且已經(jīng)開發(fā)出了許多優(yōu)雅的解決方案。目前最流行的解決方案是使用元學(xué)習(xí),或者用三個詞來概括:learning to learn。如果你想知道元學(xué)習(xí)是什么以及它是如何工作的,請繼續(xù)閱讀。

少樣本圖像分類任務(wù)

首先,我們需要定義N-way K-shot圖像分類任務(wù)。給定:

一個由N個標(biāo)簽組成的支持集,每個標(biāo)簽對應(yīng)K個有標(biāo)簽的圖像

由Q個查詢圖像組成的查詢集

任務(wù)是對查詢圖像進(jìn)行分類。當(dāng)K很小(通常是K<10)時,我們討論的是少樣本圖像分類(在K=1的情況下,是單樣本圖像分類)。


一個少樣本分類任務(wù)的例子:對于支持集中N=3個類中的每個類,給定K=2個樣本,我們希望將查詢集中的Q=4只狗標(biāo)記為Labrador, saint bernard或Pug。即使你從沒見過Labrador、saint bernard或Pug,這對你來說也很容易。但要用人工智能解決這個問題,我們需要元學(xué)習(xí)。

元學(xué)習(xí)范式

1998年,Thrun & Pratt說,要解決一個任務(wù),一個算法學(xué)習(xí)“如果性能可以隨著經(jīng)驗(yàn)提升”,同時,給定一族需要解決的問題,一個算法學(xué)習(xí)”性能隨著經(jīng)驗(yàn)和任務(wù)數(shù)量提升”。我們將后者稱為元學(xué)習(xí)算法。它不是去學(xué)習(xí)如何解決一個特定的任務(wù)。它可以學(xué)會解決許多任務(wù)。每學(xué)習(xí)一項(xiàng)新任務(wù),它就能更好地學(xué)習(xí)新任務(wù):它學(xué)會去學(xué)習(xí)。

正式的描述一下,如果我們想要解決一個任務(wù)T,元學(xué)習(xí)算法訓(xùn)練一批任務(wù){(diào)T?}。算法通過嘗試解決這些任務(wù)來得到學(xué)習(xí)的經(jīng)驗(yàn),最終去解決終極任務(wù)T。

例如,考慮上圖中顯示的任務(wù)_T_。它包括有標(biāo)簽圖像,如Labrador,Saint-Bernard或Pug,使用3x2=6個有標(biāo)簽圖像。一個訓(xùn)練任務(wù)T?可能是利用6個有標(biāo)簽圖像把圖像標(biāo)記為Boxer, Labradoodle或者Rottweiler。meta-training過程是一連串的這些任務(wù)T?,每一次都是不同品種的狗。我們期望元學(xué)習(xí)模型“隨著經(jīng)驗(yàn)和任務(wù)數(shù)量的增加”變得更好。最后,我們在_T_上對模型進(jìn)行評價。

我們評估了Labradors、Saint-Bernards和Pugs的元學(xué)習(xí)模型,但我們只在其他品種上訓(xùn)練。

怎么做呢?假設(shè)你想要解決這個任務(wù)(Labrador,Saint-Bernard 和Pug)。你需要一個元訓(xùn)練數(shù)據(jù)集,里面有很多不同品種的狗。例如,你可以使用Stanford Dogs數(shù)據(jù)集,其中包含從ImageNet提取的超過20k只狗。我們將此數(shù)據(jù)集稱為_D_。注意,_D_不需要包含任何Labrador,Saint-Bernard或Pug。

我們從_D_中抽取batch組成episodes。每個episodes 對應(yīng)于一個N-way K-shot分類任務(wù)T?,(通常我們使用相同的N和K)。模型解決了batch中的所有的episodes后(對查詢集中的所有圖像打標(biāo)簽),它的參數(shù)被更新。這通常是通過對查詢集上的分類不準(zhǔn)確造成的損失進(jìn)行反向傳播來實(shí)現(xiàn)的。

這樣,模型跨任務(wù)學(xué)習(xí),以準(zhǔn)確地解決一個新的,看不見的少樣本分類任務(wù)。標(biāo)準(zhǔn)學(xué)習(xí)分類算法學(xué)習(xí)一個映射_圖像→標(biāo)簽_,元學(xué)習(xí)算法學(xué)習(xí)一個映射:support-set→c(.),其中c是一個映射:query→label。

元學(xué)習(xí)算法

既然我們知道了算法元訓(xùn)練意味著什么,一個謎仍然存在:元學(xué)習(xí)模型是如何解決一個少樣本的分類任務(wù)的?當(dāng)然,解決方案不止一種。我們聚焦在最流行的方案上。

元學(xué)習(xí)

度量學(xué)習(xí)的基本思想是學(xué)習(xí)數(shù)據(jù)點(diǎn)(如圖像)之間的距離函數(shù)。它已經(jīng)被證明對于解決較少樣本的分類任務(wù)是非常有用的:度量學(xué)習(xí)算法不需要對支持集(少量標(biāo)記圖像)進(jìn)行微調(diào),而是通過與標(biāo)記圖像進(jìn)行比較來對查詢圖像進(jìn)行分類。

查詢(右側(cè))與支持集的每個圖像進(jìn)行比較。它的標(biāo)簽取決于哪些圖像最接近。

當(dāng)然,你不能逐像素地比較圖像,所以你要做的是在相關(guān)的特征空間中比較圖像。為了更清楚一些,讓我們詳細(xì)說明度量學(xué)習(xí)算法如何解決一個少樣本的分類任務(wù)(上面定義為一個標(biāo)簽樣本的支持集,和一個我們想要分類的圖像的查詢集):

1、我們從支持和查詢集的所有圖像中提取嵌入(通常使用卷積神經(jīng)網(wǎng)絡(luò))?,F(xiàn)在,我們在少樣本分類任務(wù)中必須考慮的每一幅圖像都可以用一維向量表示。

2、每個查詢根據(jù)其支持圖像集的距離進(jìn)行分類。距離函數(shù)和分類策略都有很多可能的設(shè)計(jì)選擇。一個例子就是歐氏距離和k近鄰。

3、在元訓(xùn)練期間,在episode結(jié)束時,通過反向傳播查詢集上分類錯誤造成的損失(通常是交叉熵?fù)p失)來更新CNN的參數(shù)。

每年都會發(fā)布幾種度量學(xué)習(xí)算法來解決少樣本圖像分類的兩個原因是:

1、它們在經(jīng)驗(yàn)上很有效;

2、唯一的限制是你的想象力。有許多方法可以提取特征,甚至有更多的方法可以比較這些特征?,F(xiàn)在我們將回顧一些現(xiàn)有的解決方案。

匹配網(wǎng)絡(luò)的算法。特征提取器對于支持集圖像和查詢圖像是不同的。使用余弦相似度將查詢的嵌入與支持集中的每幅圖像進(jìn)行比較。然后用softmax對其進(jìn)行分類。

匹配網(wǎng)絡(luò)(見上圖)是第一個使用元學(xué)習(xí)的度量學(xué)習(xí)算法。在這種方法中,我們不以同樣的方式提取支持圖像和查詢圖像的特征。來自谷歌DeepMind的Oriol Vinyals和他的團(tuán)隊(duì)提出了使用LSTM networks在特征提取期間使所有圖像進(jìn)行交互的想法。稱為全上下文嵌入,因?yàn)槟阍试S網(wǎng)絡(luò)找到最合適的嵌入,不僅知道需要嵌入的圖像,而且還知道支持集中的所有其他圖像。這讓他們的模型表現(xiàn)的更好,因?yàn)樗械膱D像都通過了這個簡單的CNN,但它也需要更多的時間和更大的GPU。

在最近的研究中,我們沒有將查詢圖像與支持集中的每一張圖像進(jìn)行比較。多倫多大學(xué)的研究人員提出了Prototypical Networks。在它們的度量學(xué)習(xí)算法中,在從圖像中提取特征后,我們計(jì)算每個類的原型。為此,他們使用類中每個圖像嵌入的平均值。(但是你可以想象數(shù)以千計(jì)的方法來計(jì)算這些嵌入。為了反向傳播,函數(shù)只需是可微的即可)一旦原型被計(jì)算出來,查詢將使用到原型的歐式距離進(jìn)行分類(見下圖)。

在原型網(wǎng)絡(luò)中,我們將查詢X標(biāo)記為最接近原型的標(biāo)簽。

盡管簡單,原型網(wǎng)絡(luò)仍然能產(chǎn)生最先進(jìn)的結(jié)果。更復(fù)雜的度量學(xué)習(xí)架構(gòu)后來被開發(fā)出來,比如一個神經(jīng)網(wǎng)絡(luò)來表示距離函數(shù)(而不是歐氏距離)。這略微提高了精確度,但我相信時至今日,原型的想法是在用于少樣本圖像分類的度量學(xué)習(xí)算法領(lǐng)域中最有價值的想法(如果你不同意,請留下憤怒的評論)。

模型無關(guān)元學(xué)習(xí)

我們將以模型無關(guān)元學(xué)習(xí) (MAML)來結(jié)束這次回顧,這是目前最優(yōu)雅、最有前途的元學(xué)習(xí)算法之一。它基本上是最純粹的元學(xué)習(xí),通過神經(jīng)網(wǎng)絡(luò)有兩個層次的反向傳播。

該算法的核心思想是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的參數(shù),可以適應(yīng)快速和較少的例子,以新的分類任務(wù)。下面我將為你提供一個關(guān)于MAML如何在一個episode中進(jìn)行元訓(xùn)練的可視化例子(例如,在從D中采樣得到的T?上進(jìn)行few-shot分類任務(wù))。假設(shè)你有一個神經(jīng)網(wǎng)絡(luò)M參數(shù)為

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    97

    瀏覽量

    12499
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124426
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)特征工程:分類變量的數(shù)值化處理方法

    編碼是機(jī)器學(xué)習(xí)流程里最容易被低估的環(huán)節(jié)之一,模型沒辦法直接處理文本形式的分類數(shù)據(jù),尺寸(Small/Medium/Large)、顏色(Red/Blue/Green)、城市、支付方式等都是典型的分類
    的頭像 發(fā)表于 02-10 15:58 ?350次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>特征工程:<b class='flag-5'>分類</b>變量的數(shù)值化處理方法

    圖像采集卡分類、接口與性能指標(biāo)詳解

    圖像采集卡是機(jī)器視覺、工業(yè)檢測、安防監(jiān)控、醫(yī)療影像等領(lǐng)域的核心硬件,核心作用是將相機(jī)等圖像源輸出的模擬/數(shù)字信號轉(zhuǎn)化為計(jì)算機(jī)可識別、處理的數(shù)字圖像數(shù)據(jù),同時完成信號同步、緩存、傳輸?shù)汝P(guān)鍵操作,其
    的頭像 發(fā)表于 01-29 16:55 ?495次閱讀
    <b class='flag-5'>圖像</b>采集卡<b class='flag-5'>分類</b>、接口與性能指標(biāo)詳解

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于
    的頭像 發(fā)表于 11-27 10:19 ?231次閱讀

    發(fā)布服務(wù)配置內(nèi)容分級

    ”。 8.如果您最終選擇的年齡分級為3、8或者12,點(diǎn)擊“提交”后,您還需再次確認(rèn)您的服務(wù)是否僅面向兒童。 選擇“是”:如果服務(wù)分類是兒童類,點(diǎn)擊“確認(rèn)”成功提交分級;如果服務(wù)
    發(fā)表于 11-21 11:29

    發(fā)布服務(wù)配置應(yīng)用分類、標(biāo)簽和資質(zhì)信息(僅分發(fā)手表設(shè)備)

    進(jìn)行篩選。 說明 運(yùn)動手表設(shè)備只需設(shè)置分類,暫不支持設(shè)置標(biāo)簽。 配置版權(quán)信息 登錄AppGallery Connect,點(diǎn)擊“APP與服務(wù)”。 選擇要發(fā)布的服務(wù)。 左側(cè)導(dǎo)航選擇“應(yīng)
    發(fā)表于 10-30 17:47

    基于級聯(lián)分類器的人臉檢測基本原理

    關(guān)系來檢測人臉?;诮y(tǒng)計(jì)的方法將人臉看成統(tǒng)一的二維像素矩陣,通過大量的樣本構(gòu)建人臉子空間,通過相似度的大小來判斷人臉是否存在。 2) 基于灰度特征的人臉級聯(lián)分類器 基于灰度特征的人臉檢測級聯(lián)分類器屬于
    發(fā)表于 10-30 06:14

    發(fā)布服務(wù)配置應(yīng)用分類、標(biāo)簽和資質(zhì)信息

    分類標(biāo)簽和資質(zhì)管理”菜單選擇服務(wù)歸屬的類別和標(biāo)簽,同時將所需的資質(zhì)文件提交給華為運(yùn)營人員審核。資質(zhì)文件審核通過后,您選擇的標(biāo)簽才能生效,之后才可選擇生效標(biāo)簽進(jìn)行配置。關(guān)于資質(zhì)文件的具體要求,請
    發(fā)表于 10-29 16:47

    如何對電能質(zhì)量在線監(jiān)測裝置的應(yīng)用場景進(jìn)行分類?

    、功能配置、數(shù)據(jù)精度要求差異顯著,分類結(jié)果可直接指導(dǎo)裝置選型、校準(zhǔn)頻率設(shè)定及運(yùn)維策略制定。以下從 4 個核心維度進(jìn)行詳細(xì)分類: 一、按電力系統(tǒng) “發(fā) - 輸 - 配 - 用” 層級分類
    的頭像 發(fā)表于 09-02 17:48 ?804次閱讀
    如何對電能質(zhì)量在線監(jiān)測裝置的應(yīng)用場景<b class='flag-5'>進(jìn)行</b><b class='flag-5'>分類</b>?

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識。
    的頭像 發(fā)表于 05-16 14:48 ?1466次閱讀
    使用MATLAB<b class='flag-5'>進(jìn)行</b>無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    在友晶LabCloud平臺上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是通過使用多個卷積層來從輸入數(shù)據(jù)中提取特征,最后通過分類層做決策來識別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?1098次閱讀
    在友晶LabCloud平臺上使用PipeCNN實(shí)現(xiàn)ImageNet<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>

    基于RV1126開發(fā)板實(shí)現(xiàn)自學(xué)習(xí)圖像分類方案

    在RV1126開發(fā)板上實(shí)現(xiàn)自學(xué)習(xí):在識別前對物體圖片進(jìn)行模型學(xué)習(xí),訓(xùn)練完成后通過算法分類得出圖像的模型ID。 方案設(shè)計(jì)邏輯流程
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)自<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>圖像</b><b class='flag-5'>分類</b>方案

    電子元器件的分類方式

    電子元器件可以按照不同的分類標(biāo)準(zhǔn)進(jìn)行分類,以下是一些常見的分類方式。
    的頭像 發(fā)表于 04-16 14:52 ?3047次閱讀

    西門子伺服電機(jī)簡明樣本

    西門子伺服電機(jī)簡明樣本
    發(fā)表于 04-14 15:36 ?2次下載

    快速部署!米爾全志T527開發(fā)板的OpenCV行人檢測方案指南

    ,計(jì)算HOG特征。HOG特征是一個一維向量,其中每個元素表示圖像中特定位置和方向的梯度強(qiáng)度。 訓(xùn)練SVM分類器:使用HOG特征作為輸入,訓(xùn)練SVM分類器。SVM分類器將
    發(fā)表于 04-11 18:14

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用深度學(xué)習(xí)幾乎可以描述
    的頭像 發(fā)表于 04-02 18:21 ?1530次閱讀