chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是遷移學(xué)習(xí)?NLP遷移學(xué)習(xí)的未來(lái)

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-08-17 09:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:關(guān)于NLP領(lǐng)域的遷移學(xué)習(xí)我們已經(jīng)介紹過(guò)了,fast.ai也有很多相應(yīng)的討論。今天給大家展示一個(gè)在亞馬遜評(píng)論數(shù)據(jù)集上實(shí)現(xiàn)的任務(wù),即將評(píng)論分為積極或消極兩類(lèi)。


什么是遷移學(xué)習(xí)?

得益于遷移學(xué)習(xí),計(jì)算機(jī)視覺(jué)領(lǐng)域的發(fā)展非常迅速。有著幾百萬(wàn)個(gè)參數(shù)的高度非線(xiàn)性模型通常需要大型數(shù)據(jù)集的訓(xùn)練,經(jīng)過(guò)幾天甚至幾周的訓(xùn)練,也只能分辨貓狗。

有了ImageNet挑戰(zhàn)賽后,每年各種隊(duì)伍都會(huì)設(shè)計(jì)出不同的圖像分類(lèi)器。我們發(fā)現(xiàn)這類(lèi)模型的隱藏層可以捕捉圖像的通用特征(例如線(xiàn)條、形式、風(fēng)格等)。于是,這樣就不用每次都為新的任務(wù)重建模型了。

以VGG-16模型為例:

它的結(jié)構(gòu)相對(duì)復(fù)雜,圖層較多,同時(shí)參數(shù)也很多。論文作者稱(chēng)需要用四個(gè)GPU訓(xùn)練三周。

而遷移學(xué)習(xí)的理念是,由于中間的圖層是學(xué)習(xí)圖像一般特征的,所以我們可以將其用作一個(gè)大型“特征生成器”!我們可以先下載一個(gè)預(yù)訓(xùn)練模型(在ImageNet任務(wù)上訓(xùn)練了好幾周),刪去網(wǎng)絡(luò)的最后一層(全連接層),根據(jù)我們的任務(wù)進(jìn)行調(diào)整,最后只訓(xùn)練我們的分類(lèi)器圖層。由于使用的數(shù)據(jù)可能和之前訓(xùn)練的模型所用數(shù)據(jù)不同,我們也可以花點(diǎn)時(shí)間訓(xùn)練所有圖層。

由于只在最后一層進(jìn)行訓(xùn)練,遷移學(xué)習(xí)會(huì)用到更少的標(biāo)記數(shù)據(jù)。對(duì)數(shù)據(jù)進(jìn)行標(biāo)注非常費(fèi)時(shí),所以創(chuàng)建不需要大量數(shù)據(jù)的高質(zhì)量模型就非常受歡迎了。

NLP中的遷移學(xué)習(xí)

說(shuō)實(shí)話(huà),遷移學(xué)習(xí)在自然語(yǔ)言處理中的發(fā)展并不像在機(jī)器視覺(jué)里那樣受重視。讓機(jī)器學(xué)習(xí)線(xiàn)條、圓圈、方塊,然后再用于分析還是比較容易設(shè)計(jì)的。但是用來(lái)處理文本數(shù)據(jù)似乎不那么容易。

最初用來(lái)處理NLP中的遷移學(xué)習(xí)問(wèn)題的是詞嵌入模型(常見(jiàn)的是word2vec和GloVe),這些詞嵌入表示利用詞語(yǔ)所在的語(yǔ)境來(lái)用向量表示它們,所以相似的詞語(yǔ)有相似的詞語(yǔ)表示。

然而,詞嵌入只能表示大多數(shù)NLP模型的第一個(gè)圖層,之后我們?nèi)孕枰獜牧汩_(kāi)始訓(xùn)練所有的RNN/CNN等圖層。

對(duì)語(yǔ)言模型進(jìn)行微調(diào)

今年年初,Jeremy Howard和Sebastian Ruder提出了ULMFiT模型,這也是對(duì)NLP領(lǐng)域遷移學(xué)習(xí)的深入嘗試。具體可參考論智此前報(bào)道的:《用遷移學(xué)習(xí)創(chuàng)造的通用語(yǔ)言模型ULMFiT,達(dá)到了文本分類(lèi)的最佳水平》。

他們所研究的問(wèn)題基于語(yǔ)言模型。語(yǔ)言模型是能夠基于已知單詞預(yù)測(cè)下一個(gè)單詞的模型(例如手機(jī)上的智能拼寫(xiě))。就像圖像分類(lèi)器一樣,如果NLP模型能準(zhǔn)確預(yù)測(cè)下一個(gè)單詞,那就可以認(rèn)為該模型學(xué)了很多自然語(yǔ)言組合的規(guī)則了。這一模型可以作為初始化,能夠針對(duì)不同任務(wù)進(jìn)行訓(xùn)練。

ULMFiT提出要在大型語(yǔ)料上訓(xùn)練語(yǔ)言模型(例如維基百科),然后創(chuàng)建分類(lèi)器。由于你的文本數(shù)據(jù)可能和維基百科的語(yǔ)言風(fēng)格不同,你就需要對(duì)參數(shù)進(jìn)行微調(diào),把這些差異考慮進(jìn)去。然后,我們會(huì)在語(yǔ)言模型的頂層添加一個(gè)分類(lèi)圖層,并且只訓(xùn)練這個(gè)圖層!論文建議逐漸解鎖各個(gè)圖層進(jìn)行訓(xùn)練。

ULMFiT論文中的收獲

這篇論文最讓人驚喜之處就是用非常少的標(biāo)記數(shù)據(jù)訓(xùn)練分類(lèi)器。雖然未經(jīng)標(biāo)記過(guò)的數(shù)據(jù)隨處可見(jiàn),但是標(biāo)記過(guò)的數(shù)據(jù)獲取的成本是很高的。下面是對(duì)IMDb進(jìn)行情感分析之后的結(jié)果:

只用了100個(gè)案例,他們就達(dá)到了和用2萬(wàn)個(gè)案例訓(xùn)練出的模型同樣的錯(cuò)誤率水平。除此之外,他們還提供了對(duì)模型進(jìn)行預(yù)訓(xùn)練的代碼,因?yàn)榫S基百科有多種語(yǔ)言,這使得我們能快速地進(jìn)行語(yǔ)言轉(zhuǎn)換。除英語(yǔ)之外,其他語(yǔ)種并沒(méi)有很多經(jīng)過(guò)標(biāo)記的公開(kāi)數(shù)據(jù)集,所以你可以在語(yǔ)言模型上對(duì)自己的數(shù)據(jù)進(jìn)行微調(diào)。

處理亞馬遜評(píng)論

為了加深對(duì)這種方法的理解,我們?cè)诹硪粋€(gè)公開(kāi)數(shù)據(jù)集上試了試。在Kaggle上發(fā)現(xiàn)了這個(gè)“亞馬遜評(píng)論情感分析數(shù)據(jù)集”(地址:www.kaggle.com/bittlingmayer/amazonreviews/home)。它含有400萬(wàn)條商品評(píng)論已經(jīng)相關(guān)的情感標(biāo)簽(積極或消極)。我們用fast.ai提出的ULMFiT對(duì)亞馬遜的評(píng)價(jià)進(jìn)行分類(lèi)。我們發(fā)現(xiàn),僅用1000個(gè)案例,模型就達(dá)到了在全部數(shù)據(jù)上訓(xùn)練的FastText模型的表現(xiàn)成果。而用100個(gè)案例進(jìn)行訓(xùn)練,模型也能表現(xiàn)出不錯(cuò)的性能。

如果你想復(fù)現(xiàn)這個(gè)實(shí)驗(yàn),可以參考notebook:github.com/feedly/ml-demos/blob/master/source/TransferLearningNLP.ipynb,在微調(diào)和分類(lèi)過(guò)程中有一個(gè)GPU還是很高效的。

NLP中非監(jiān)督 vs 監(jiān)督學(xué)習(xí)

在使用ULMFiT的過(guò)程中,我們用到了非監(jiān)督和監(jiān)督學(xué)習(xí)兩種方法。訓(xùn)練一個(gè)非監(jiān)督式語(yǔ)言模型很“便宜”,因?yàn)槟憧梢詮木W(wǎng)上找到很多文本數(shù)據(jù)。但是,監(jiān)督式模型的成本就很高了,因?yàn)樾枰獦?biāo)記數(shù)據(jù)。

雖然語(yǔ)言模型可以捕捉到很多有關(guān)自然語(yǔ)言組織的信息,但是仍不能確定模型能否捕捉到文本的含義,即它們能否了解說(shuō)話(huà)者想傳達(dá)的信息。

Emily Bender在推特上曾提出了一個(gè)有趣的“泰語(yǔ)實(shí)驗(yàn)”:“假設(shè)給你所有泰語(yǔ)書(shū)籍,沒(méi)有譯文。假如你一點(diǎn)都不懂泰語(yǔ),你永遠(yuǎn)不會(huì)從中學(xué)會(huì)什么?!?/p>

所以,我們認(rèn)為語(yǔ)言模型更多的是學(xué)習(xí)語(yǔ)法規(guī)則,而不是含義。而語(yǔ)言模型能做的不僅僅是預(yù)測(cè)在語(yǔ)法規(guī)則上相近的句子。例如“I ate this computer”和“I hate this computer”兩句話(huà)結(jié)構(gòu)相同,但是一個(gè)良好的模型應(yīng)該會(huì)將后者看作是“更正確”的句子。所以我們可以將語(yǔ)言模型看作是學(xué)習(xí)自然語(yǔ)言句子的架構(gòu)的工具,從而幫助我們了解句子含義。

想了解更多這方面的話(huà)題,可以觀看ACL 2018上Yejin Choi的演講:sites.google.com/site/repl4nlp2018/home?authuser=0

NLP遷移學(xué)習(xí)的未來(lái)

ULMFiT的出現(xiàn)推動(dòng)了遷移學(xué)習(xí)在自然語(yǔ)言處理中的發(fā)展,同時(shí)也出現(xiàn)了其他的微調(diào)工具,例如FineTune Transformer LM。我們注意到隨著更多更好地語(yǔ)言模型的出現(xiàn),遷移的效率也在不斷提高。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)視覺(jué)

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47623
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23280
  • 遷移學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5850

原文標(biāo)題:僅訓(xùn)練了1000個(gè)樣本,我完成了400萬(wàn)條評(píng)論分類(lèi)

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    遷移學(xué)習(xí)的原理,基于Keras實(shí)現(xiàn)遷移學(xué)習(xí)

    我面對(duì)的大多數(shù)計(jì)算機(jī)視覺(jué)問(wèn)題沒(méi)有非常大的數(shù)據(jù)集(5000-40000圖像)。即使使用極端的數(shù)據(jù)增強(qiáng)策略,也很難達(dá)到像樣的精確度。而在少量數(shù)據(jù)集上訓(xùn)練數(shù)百萬(wàn)參數(shù)的網(wǎng)絡(luò)通常會(huì)導(dǎo)致過(guò)擬合。所以遷移學(xué)習(xí)是我的救星。
    的頭像 發(fā)表于 05-09 03:44 ?1.6w次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的原理,基于Keras實(shí)現(xiàn)<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>

    什么是遷移學(xué)習(xí)?遷移學(xué)習(xí)的實(shí)現(xiàn)方法與工具分析

    向于不要求海量數(shù)據(jù)也能達(dá)到應(yīng)用的精準(zhǔn)要求,因此“小數(shù)據(jù)學(xué)習(xí)”正在成為新的熱點(diǎn),以遷移學(xué)習(xí),強(qiáng)化學(xué)習(xí)為代表的小數(shù)據(jù)學(xué)習(xí)技術(shù),更能體現(xiàn)人工智能的
    發(fā)表于 05-11 09:12 ?1.3w次閱讀

    遷移學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)

    keras 之 遷移學(xué)習(xí),改變VGG16輸出層,用imagenet權(quán)重retrain
    發(fā)表于 09-09 11:02

    遷移學(xué)習(xí)

    經(jīng)典機(jī)器學(xué)習(xí)算法介紹章節(jié)目標(biāo):機(jī)器學(xué)習(xí)是人工智能的重要技術(shù)之一,詳細(xì)了解機(jī)器學(xué)習(xí)的原理、機(jī)制和方法,為學(xué)習(xí)深度學(xué)習(xí)
    發(fā)表于 04-21 15:15

    遷移學(xué)習(xí)與模型預(yù)訓(xùn)練:何去何從

    把我們當(dāng)前要處理的NLP任務(wù)叫做T(T稱(chēng)為目標(biāo)任務(wù)),遷移學(xué)習(xí)技術(shù)做的事是利用另一個(gè)任務(wù)S(S稱(chēng)為源任務(wù))來(lái)提升任務(wù)T的效果,也即把S的信息遷移到T中。至于怎么
    的頭像 發(fā)表于 07-18 11:29 ?8712次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>與模型預(yù)訓(xùn)練:何去何從

    NLP遷移學(xué)習(xí)面臨的問(wèn)題和解決

    自然語(yǔ)言處理(NLP)最近取得了巨大的進(jìn)步,每隔幾天就會(huì)發(fā)布最新的結(jié)果。排行榜瘋狂是指最常見(jiàn)的NLP基準(zhǔn),如GLUE和SUPERGLUE,它們的得分越來(lái)越接近人類(lèi)的水平。這些結(jié)果大多是通過(guò)超大(數(shù)十億個(gè)參數(shù))模型從大規(guī)模數(shù)據(jù)集中遷移
    的頭像 發(fā)表于 05-04 12:03 ?3659次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>面臨的問(wèn)題和解決

    機(jī)器學(xué)習(xí)方法遷移學(xué)習(xí)的發(fā)展和研究資料說(shuō)明

    近年來(lái),遷移學(xué)習(xí)已經(jīng)引起了廣泛的關(guān)注和研究。遷移學(xué)習(xí)是運(yùn)用已存有的知識(shí)對(duì)不同但相關(guān)領(lǐng)域問(wèn)題進(jìn)行求解的一種新的機(jī)器學(xué)習(xí)方法。它放寬了傳統(tǒng)機(jī)器
    發(fā)表于 07-17 08:00 ?0次下載
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>方法<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的發(fā)展和研究資料說(shuō)明

    基于脈沖神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)算法

    使用脈沖序列進(jìn)行數(shù)據(jù)處理的脈沖神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的低功耗特性,但由于學(xué)習(xí)算法不成熟,多層網(wǎng)絡(luò)練存在收斂困難的問(wèn)題。利用反向傳播網(wǎng)絡(luò)具有學(xué)習(xí)算法成熟和訓(xùn)練速度快的特點(diǎn),設(shè)計(jì)一種遷移學(xué)習(xí)算法
    發(fā)表于 05-24 16:03 ?15次下載

    基于遷移深度學(xué)習(xí)的雷達(dá)信號(hào)分選識(shí)別

    基于遷移深度學(xué)習(xí)的雷達(dá)信號(hào)分選識(shí)別 ? 來(lái)源:《軟件學(xué)報(bào)》?,作者王功明等 ? 摘要:? 針對(duì)當(dāng)前雷達(dá)信號(hào)分選識(shí)別算法普遍存在的低信噪比下識(shí)別能力差、特征參數(shù)提取困難、分類(lèi)器模型參數(shù)復(fù)雜等問(wèn)題,提出
    發(fā)表于 03-02 17:35 ?2383次閱讀

    遷移學(xué)習(xí)Finetune的四種類(lèi)型招式

    遷移學(xué)習(xí)廣泛地應(yīng)用于NLP、CV等各種領(lǐng)域,通過(guò)在源域數(shù)據(jù)上學(xué)習(xí)知識(shí),再遷移到下游其他目標(biāo)任務(wù)上,提升目標(biāo)任務(wù)上的效果。其中,Pretrai
    的頭像 發(fā)表于 04-02 17:35 ?4236次閱讀

    NLP中的遷移學(xué)習(xí):利用預(yù)訓(xùn)練模型進(jìn)行文本分類(lèi)

    遷移學(xué)習(xí)徹底改變了自然語(yǔ)言處理(NLP)領(lǐng)域,允許從業(yè)者利用預(yù)先訓(xùn)練的模型來(lái)完成自己的任務(wù),從而大大減少了訓(xùn)練時(shí)間和計(jì)算資源。在本文中,我們將討論遷移
    發(fā)表于 06-14 09:30 ?756次閱讀

    一文詳解遷移學(xué)習(xí)

    遷移學(xué)習(xí)需要將預(yù)訓(xùn)練好的模型適應(yīng)新的下游任務(wù)。然而,作者觀察到,當(dāng)前的遷移學(xué)習(xí)方法通常無(wú)法關(guān)注與任務(wù)相關(guān)的特征。在這項(xiàng)工作中,作者探索了重新聚焦模型注意力以進(jìn)行
    的頭像 發(fā)表于 08-11 16:56 ?7894次閱讀
    一文詳解<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>

    視覺(jué)深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺(jué)深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架,當(dāng)前支持的圖像分類(lèi)、對(duì)象檢測(cè)、實(shí)例分割、語(yǔ)義分割、姿態(tài)評(píng)估模型的遷移學(xué)習(xí)
    的頭像 發(fā)表于 09-22 09:49 ?2020次閱讀
    視覺(jué)深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練框架Torchvision介紹

    遷移學(xué)習(xí)的基本概念和實(shí)現(xiàn)方法

    遷移學(xué)習(xí)(Transfer Learning)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,其核心思想是利用在一個(gè)任務(wù)或領(lǐng)域中學(xué)到的知識(shí)來(lái)加速或改進(jìn)另一個(gè)相關(guān)任務(wù)或領(lǐng)域的學(xué)習(xí)過(guò)程。這種方法在數(shù)據(jù)稀缺
    的頭像 發(fā)表于 07-04 17:30 ?4728次閱讀

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們?cè)谔岣吣P托阅?、減少訓(xùn)練時(shí)間和降低對(duì)數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定義、原理、應(yīng)用、區(qū)別和聯(lián)系等方面詳細(xì)探討預(yù)訓(xùn)
    的頭像 發(fā)表于 07-11 10:12 ?2885次閱讀