chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新的表示學習方法——對比預測編碼

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-07-14 09:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

DeepMind的最新研究提出一種新的表示學習方法——對比預測編碼。研究人員在多個領(lǐng)域進行實驗:音頻、圖像、自然語言和強化學習,證明了相同的機制能夠在所有這些領(lǐng)域中學習到有意義的高級信息,并且優(yōu)于其他方法。

2013年,Bengio等人發(fā)表了關(guān)于表示學習( representation learning)的綜述,將表示學習定義為“學習數(shù)據(jù)的表征,以便在構(gòu)建分類器或其他預測器時更容易提取有用的信息”,并將無監(jiān)督特征學習和深度學習的諸多進展納入表示學習的范疇。

今天,DeepMind在最新論文Representation Learning with Contrastive Predictive Coding中,提出一種新的表示學習方法——對比預測編碼(Contrastive Predictive Coding, CPC),將其應(yīng)用于各種不同的數(shù)據(jù)模態(tài)、圖像、語音、自然語言和強化學習,證明了相同的機制能夠在所有這些領(lǐng)域中學習到有意義的高級信息,并且優(yōu)于其他方法。

預測編碼思想

使用分層的可微模型以端到端的方式從標記數(shù)據(jù)中學習高級表示,這是人工智能迄今為止最大的成功之一。這些技術(shù)使得人工指定的特性在很大程度上變得多余,并且在一些真實世界的應(yīng)用中極大地改進了當前最優(yōu)的技術(shù)。但是,這些技術(shù)仍存在許多挑戰(zhàn),例如數(shù)據(jù)效率、穩(wěn)健性或泛化能力。

改進表示學習需要一些不是專門解決單一監(jiān)督任務(wù)的特征。例如,當預訓練一個模型以進行圖像分類時,特征可以相當好地轉(zhuǎn)移到其他圖像分類域,但也缺少某些信息,例如顏色或計數(shù)的能力,因為這些信息與分類無關(guān),但可能與其他任務(wù)相關(guān),例如圖像描述生成(image captioning)。類似地,用于轉(zhuǎn)錄人類語音的特征可能不太適合于說話者識別或音樂類型預測。因此,無監(jiān)督學習是實現(xiàn)強健的、通用的表示學習的重要基石。

盡管無監(jiān)督學習很重要,但無監(jiān)督學習尚未得到類似監(jiān)督學習的突破:從原始觀察中建模高級表示仍然難以實現(xiàn)。此外,并不總是很清楚理想的表示是什么,以及是否可以在沒有對特定的數(shù)據(jù)模態(tài)進行額外的監(jiān)督學習或?qū)iT化的情況下學習這樣的表示。

無監(jiān)督學習最常見的策略之一是預測未來、缺失信息或上下文信息。這種預測編碼(predictive coding)的思想是數(shù)據(jù)壓縮信號處理中最古老的技術(shù)之一。在神經(jīng)科學中,預測編碼理論表明,大腦可以預測不同抽象層次的觀察。

最近在無監(jiān)督學習方面的一些工作已經(jīng)成功地利用這些概念,通過預測鄰近的單詞來學習單詞表示。對于圖像來說,從灰度或image patches的相對位置來預測顏色,也被證明是有用的。我們假設(shè)這些方法卓有成效,部分原因是我們預測相關(guān)值的上下文通常是有條件地依賴于相同的共享高級潛在信息之上。通過將其作為一個預測問題,我們可以自動推斷出這些特征與表示學習相關(guān)。

本文有以下貢獻:

首先,我們將高維數(shù)據(jù)壓縮成一個更緊湊的潛在嵌入空間,在這個空間中,條件預測更容易建模。

其次,我們在這個潛在空間中使用強大的自回歸模型來預測未來。

最后,我們依賴噪聲對比估計(Noise-Contrastive Estimation)損失函數(shù),與在自然語言模型中學習詞嵌入的方法類似,允許對整個模型進行端到端的訓練。

對比預測編碼

圖1:對比預測編碼的概覽,即我們提出的表示學習方法。雖然圖中將音頻作為輸入,但是我們對圖像、文本和強化學習使用的是相同的設(shè)置。

圖1顯示了對比預測編碼模型的架構(gòu)。首先,非線性編碼器將輸入的觀察序列映射到潛在表示序列,可能具有較低的時間分辨率。接下來,自回歸模型概括潛在空間中所有,并生成一個上下文潛在表示。

我們不是直接用生成模型來預測未來的觀察。 相反,我們對密度比建模,保留了之間的交互信息,公式如下:

其中代表“成正比”。

在我們的實驗中,我們使用線性變換對每個步驟k進行不同的預測,也可以使用非線性網(wǎng)絡(luò)或遞歸神經(jīng)網(wǎng)絡(luò)。

4個不同領(lǐng)域的實驗:語音、圖像、NLP和強化學習

我們提出四個不同應(yīng)用領(lǐng)域的benchmark:語音、圖像、自然語言和強化學習。對于每個領(lǐng)域,我們訓練CPC模型,并通過線性分類任務(wù)或定性評估來探討“表示”(representations)所包含的內(nèi)容;在強化學習中,我們測量了輔助的CPC loss如何加速agent的學習。

語音(Audio)

對于語音,我們使用了公開的LibriSpeech數(shù)據(jù)集中100小時的子數(shù)據(jù)集。雖然數(shù)據(jù)集不提供原始文本以外的標簽,但我們使用Kaldi工具包獲得了強制對齊的通話序列,并在Librispeech上預訓練模型。該數(shù)據(jù)集包含來自251個不同說話者的語音。

圖2:10個說話者子集的音頻表示的t-SNE可視化。每種顏色代表不同的說話者。

圖3:在語音波形中預測未來1到20個潛在步驟的對比損失,正樣本預測的平均精度。該模型最多預測未來200 ms,因為每一步包含10ms的音頻。

圖像(Vision)

在視覺表示實驗中,我們使用ImageNet數(shù)據(jù)集。我們使用ResNet v2 101架構(gòu)作為圖像編碼器來提取CPC表示(該編碼器沒有經(jīng)過預訓練)。在無監(jiān)督訓練后,訓練一個線性層以測量ImageNet標簽的分類精度。

圖4:圖像實驗中對比預測編碼的可視化

圖5:每一行都顯示了激活CPC架構(gòu)的某個神經(jīng)元的image patches

表3:ImageNet top-1無監(jiān)督分類結(jié)果。

表4:ImageNet top-5無監(jiān)督分類結(jié)果。

表3和表4顯示了與state-of-the-art相比,CPC模型在ImageNet top-1和top-5的分類精度。盡管相對領(lǐng)域不可知,但CPC模型在top-1相比當前最優(yōu)模型的精度提高了9%,在top-5的精度提高了4%。

自然語言

在自然語言實驗中,我們首先在BookCorpus 數(shù)據(jù)集上學習我們的無監(jiān)督模型,并通過對一組分類任務(wù)使用CPC表示來評估模型作為通用特征提取器的能力。

對于分類任務(wù),我們使用了以下數(shù)據(jù)集:我們使用以下數(shù)據(jù)集:電影評論情緒(MR),客戶產(chǎn)品評論(CR),主觀性/客觀性,意見極性(MPQA)和問題類型分類 (TREC)。

表5:五種常見NLP基準的分類精度。

評估任務(wù)的結(jié)果如表5所示。

強化學習

最后,我們評估了DeepMind Lab 在3D環(huán)境下的五種強化學習的無監(jiān)督學習方法:rooms_watermaze,explore_goal_locations_small,seekavoid_arena_01,lasertag_three_opponents_small和rooms_keys_doors_puzzle。

在這里,我們采用標準的batched A2C agent作為基本模型,并添加CPC作為輔助損失。 學習的表示對其未來觀察的分布進行編碼。

圖6:五個DeepMind Lab任務(wù)的強化學習結(jié)果。黑色:batched A2C基線,紅色:添加輔助對比損失

如圖6所示,在10億幀的訓練后,對于5個游戲中的4個,agent的表現(xiàn)有明顯提高。

結(jié)論

在本文中,我們提出了對比預測編碼(CPC),這是一種用于提取緊湊潛在表示以對未來觀測進行編碼的框架。CPC將自回歸建模和噪聲對比估計與預測編碼的直覺相結(jié)合,以一種無監(jiān)督的方式學習抽象表示。

我們在多個領(lǐng)域測試了這些表現(xiàn)形式:音頻、圖像、自然語言和強化學習,并在用作獨立特征時實現(xiàn)了強大的或最優(yōu)的性能。訓練模型的簡單性和低計算要求,以及在強化學習領(lǐng)域與主要損失一起使用時令人鼓舞的結(jié)果,都展現(xiàn)了無監(jiān)督學習令人興奮的發(fā)展,并且這種學習普遍適用于更多數(shù)據(jù)模態(tài)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3799

    瀏覽量

    138041
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25446
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標題:DeepMind無監(jiān)督表示學習重大突破:語音、圖像、文本、強化學習全能冠軍!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    一種實用的混沌保密編碼方法

    一種實用的混沌保密編碼方法 基于實用符號動力學的基礎(chǔ)理論,提出了一種實用的混沌保密編碼方法,該方法借助于單峰的logistic映射處于混沌
    發(fā)表于 11-18 10:55 ?10次下載

    一種隨機的人工神經(jīng)網(wǎng)絡(luò)學習方法

    針對復雜網(wǎng)絡(luò)環(huán)境下網(wǎng)絡(luò)流監(jiān)測(分類)問題,為實現(xiàn)多個類別直接分類以及提高學習方法的訓練速度,提出了一種隨機的人工神經(jīng)網(wǎng)絡(luò)學習方法。該方法借鑒平面高斯(PG)神經(jīng)網(wǎng)絡(luò)模型,引入隨機投影思
    發(fā)表于 12-05 15:26 ?0次下載

    一種融合節(jié)點先驗信息的圖表示學習方法

    基于深度學習提出了融合節(jié)點先驗信息的圖表示學習方法,該方法將節(jié)點特征作為先驗知識。要求學習到的表示
    發(fā)表于 12-18 16:53 ?0次下載
    <b class='flag-5'>一種</b>融合節(jié)點先驗信息的圖<b class='flag-5'>表示</b><b class='flag-5'>學習方法</b>

    基于概率校準的集成學習方法

    針對原有集成學習多樣性不足而導致的集成效果不夠顯著的問題,提出一種基于概率校準的集成學習方法以及兩降低多重共線性影響的方法。首先,通過使用
    發(fā)表于 12-22 11:02 ?0次下載
    基于概率校準的集成<b class='flag-5'>學習方法</b>

    機器學習和線性隨機效應(yīng)混合模型在縱向數(shù)據(jù)預測上的對比

    本文針對牛奶中所含蛋白質(zhì)的縱向數(shù)據(jù),利用R軟件,運用機器學習方法中的決策樹、boost、bagging、隨機森林、神經(jīng)網(wǎng)絡(luò)、支持向量機和傳統(tǒng)處理縱向數(shù)據(jù)的線性隨機效應(yīng)混合模型做預測對比。變化訓練集
    發(fā)表于 01-02 18:51 ?0次下載

    一種模糊森林學習方法

    針對隨機森林學習方法訓練數(shù)據(jù)時存在的過擬合問題,通過改進各決策節(jié)點的決策函數(shù)設(shè)計一種模糊森林學習方法。利用高斯隸屬度函數(shù)構(gòu)建決策樹上各節(jié)點的決策函數(shù),將確定決策路徑轉(zhuǎn)換為模糊決策路徑。根據(jù)樣本從根
    發(fā)表于 02-23 11:09 ?1次下載

    一種結(jié)合屬性信息的二分網(wǎng)絡(luò)表示學習方法

    現(xiàn)有的網(wǎng)絡(luò)表示學習算法主要是針對同質(zhì)網(wǎng)絡(luò)或異質(zhì)網(wǎng)絡(luò)設(shè)計的,而忽略了在推薦系統(tǒng)、搜索引擎和答系統(tǒng)等領(lǐng)域出現(xiàn)的二分網(wǎng)絡(luò)的特殊特征以及這類網(wǎng)絡(luò)所攜帶著的非常豐富的屬性信息。為了解決上述題,提出了一種結(jié)合
    發(fā)表于 03-26 14:44 ?13次下載
    <b class='flag-5'>一種</b>結(jié)合屬性信息的二分網(wǎng)絡(luò)<b class='flag-5'>表示</b><b class='flag-5'>學習方法</b>

    基于異質(zhì)網(wǎng)絡(luò)層次的基因節(jié)點表示學習方法

    基因組測序技術(shù)的快速發(fā)展使得生物數(shù)據(jù)庫中的基因和基因組序列數(shù)據(jù)數(shù)量迅速增加,但其中仍有大量基因功能是未知的。為此,提出基于異質(zhì)網(wǎng)絡(luò)層次注意力機制的基因節(jié)點表示學習方法HAGE,用以預測基因功能。結(jié)合
    發(fā)表于 03-26 16:15 ?5次下載
    基于異質(zhì)網(wǎng)絡(luò)層次的基因節(jié)點<b class='flag-5'>表示</b><b class='flag-5'>學習方法</b>

    一種多通道自編碼器深度學習的入侵檢測方法

      針對現(xiàn)有的入侵檢測方法在檢測準確率和誤報率方面存在的不足,提岀了一種多通道自編碼器深度學習的入侵檢測方法。該
    發(fā)表于 04-07 15:23 ?7次下載
    <b class='flag-5'>一種</b>多通道自<b class='flag-5'>編碼</b>器深度<b class='flag-5'>學習</b>的入侵檢測<b class='flag-5'>方法</b>

    一種針對有向網(wǎng)絡(luò)表示學習的優(yōu)化方法

    的影響,増強模型對全局結(jié)構(gòu)信息的感知,文中提出了一種針對有向網(wǎng)絡(luò)表示學習的優(yōu)化方法。該方法借助 Trueskill
    發(fā)表于 04-13 15:20 ?10次下載
    <b class='flag-5'>一種</b>針對有向網(wǎng)絡(luò)<b class='flag-5'>表示</b><b class='flag-5'>學習</b>的優(yōu)化<b class='flag-5'>方法</b>

    一種基于塊對角化表示的多視角字典對學習方法

    考慮一種合成型宇典或解析型字典的學習算法不能同時滿足處理速度、可解釋性以及應(yīng)用范圍的要求。針對上述問題,提岀了一種基于塊對角化表示的多視角字典對學習
    發(fā)表于 04-20 14:04 ?1次下載

    基于變分自編碼器的網(wǎng)絡(luò)表示學習方法

    ,將這些信息融入到網(wǎng)絡(luò)表示學習過程中,有助于提升下游任務(wù)的性能。但是針對不同的應(yīng)用場景,結(jié)構(gòu)和屬性信息并不總是線性相關(guān),而且它們都是高度非線性的數(shù)據(jù)。提岀一種基于變分自編碼器的網(wǎng)絡(luò)
    發(fā)表于 05-12 14:50 ?27次下載

    面向異質(zhì)信息的網(wǎng)絡(luò)表示學習方法綜述

    面向異質(zhì)信息的網(wǎng)絡(luò)表示學習方法綜述
    發(fā)表于 06-09 14:12 ?13次下載

    基于圖嵌入的兵棋聯(lián)合作戰(zhàn)態(tài)勢實體知識表示學習方法

    合作戰(zhàn)態(tài)勢實體知識的特點,提出一種基于圖嵌入的兵棋聯(lián)合作戰(zhàn)態(tài)勢實體知識表示學習方法。該方法采用基于元路徑的多層異構(gòu)圖嵌入模型,對想定場景中的兵棋聯(lián)合作戰(zhàn)態(tài)勢實體及其關(guān)系知識進行
    發(fā)表于 01-11 08:34 ?1090次閱讀

    一種創(chuàng)新的動態(tài)軌跡預測方法

    本文提出了一種動態(tài)軌跡預測方法,通過結(jié)合歷史幀和歷史預測結(jié)果來提高預測的穩(wěn)定性和準確性。它引入了歷史預測
    的頭像 發(fā)表于 10-28 14:34 ?1094次閱讀
    <b class='flag-5'>一種</b>創(chuàng)新的動態(tài)軌跡<b class='flag-5'>預測</b><b class='flag-5'>方法</b>