chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是遷移學習?NLP遷移學習的未來

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-08-17 09:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:關于NLP領域的遷移學習我們已經介紹過了,fast.ai也有很多相應的討論。今天給大家展示一個在亞馬遜評論數(shù)據(jù)集上實現(xiàn)的任務,即將評論分為積極或消極兩類。


什么是遷移學習?

得益于遷移學習,計算機視覺領域的發(fā)展非常迅速。有著幾百萬個參數(shù)的高度非線性模型通常需要大型數(shù)據(jù)集的訓練,經過幾天甚至幾周的訓練,也只能分辨貓狗。

有了ImageNet挑戰(zhàn)賽后,每年各種隊伍都會設計出不同的圖像分類器。我們發(fā)現(xiàn)這類模型的隱藏層可以捕捉圖像的通用特征(例如線條、形式、風格等)。于是,這樣就不用每次都為新的任務重建模型了。

以VGG-16模型為例:

它的結構相對復雜,圖層較多,同時參數(shù)也很多。論文作者稱需要用四個GPU訓練三周。

而遷移學習的理念是,由于中間的圖層是學習圖像一般特征的,所以我們可以將其用作一個大型“特征生成器”!我們可以先下載一個預訓練模型(在ImageNet任務上訓練了好幾周),刪去網(wǎng)絡的最后一層(全連接層),根據(jù)我們的任務進行調整,最后只訓練我們的分類器圖層。由于使用的數(shù)據(jù)可能和之前訓練的模型所用數(shù)據(jù)不同,我們也可以花點時間訓練所有圖層。

由于只在最后一層進行訓練,遷移學習會用到更少的標記數(shù)據(jù)。對數(shù)據(jù)進行標注非常費時,所以創(chuàng)建不需要大量數(shù)據(jù)的高質量模型就非常受歡迎了。

NLP中的遷移學習

說實話,遷移學習在自然語言處理中的發(fā)展并不像在機器視覺里那樣受重視。讓機器學習線條、圓圈、方塊,然后再用于分析還是比較容易設計的。但是用來處理文本數(shù)據(jù)似乎不那么容易。

最初用來處理NLP中的遷移學習問題的是詞嵌入模型(常見的是word2vec和GloVe),這些詞嵌入表示利用詞語所在的語境來用向量表示它們,所以相似的詞語有相似的詞語表示。

然而,詞嵌入只能表示大多數(shù)NLP模型的第一個圖層,之后我們仍需要從零開始訓練所有的RNN/CNN等圖層。

對語言模型進行微調

今年年初,Jeremy Howard和Sebastian Ruder提出了ULMFiT模型,這也是對NLP領域遷移學習的深入嘗試。具體可參考論智此前報道的:《用遷移學習創(chuàng)造的通用語言模型ULMFiT,達到了文本分類的最佳水平》。

他們所研究的問題基于語言模型。語言模型是能夠基于已知單詞預測下一個單詞的模型(例如手機上的智能拼寫)。就像圖像分類器一樣,如果NLP模型能準確預測下一個單詞,那就可以認為該模型學了很多自然語言組合的規(guī)則了。這一模型可以作為初始化,能夠針對不同任務進行訓練。

ULMFiT提出要在大型語料上訓練語言模型(例如維基百科),然后創(chuàng)建分類器。由于你的文本數(shù)據(jù)可能和維基百科的語言風格不同,你就需要對參數(shù)進行微調,把這些差異考慮進去。然后,我們會在語言模型的頂層添加一個分類圖層,并且只訓練這個圖層!論文建議逐漸解鎖各個圖層進行訓練。

ULMFiT論文中的收獲

這篇論文最讓人驚喜之處就是用非常少的標記數(shù)據(jù)訓練分類器。雖然未經標記過的數(shù)據(jù)隨處可見,但是標記過的數(shù)據(jù)獲取的成本是很高的。下面是對IMDb進行情感分析之后的結果:

只用了100個案例,他們就達到了和用2萬個案例訓練出的模型同樣的錯誤率水平。除此之外,他們還提供了對模型進行預訓練的代碼,因為維基百科有多種語言,這使得我們能快速地進行語言轉換。除英語之外,其他語種并沒有很多經過標記的公開數(shù)據(jù)集,所以你可以在語言模型上對自己的數(shù)據(jù)進行微調。

處理亞馬遜評論

為了加深對這種方法的理解,我們在另一個公開數(shù)據(jù)集上試了試。在Kaggle上發(fā)現(xiàn)了這個“亞馬遜評論情感分析數(shù)據(jù)集”(地址:www.kaggle.com/bittlingmayer/amazonreviews/home)。它含有400萬條商品評論已經相關的情感標簽(積極或消極)。我們用fast.ai提出的ULMFiT對亞馬遜的評價進行分類。我們發(fā)現(xiàn),僅用1000個案例,模型就達到了在全部數(shù)據(jù)上訓練的FastText模型的表現(xiàn)成果。而用100個案例進行訓練,模型也能表現(xiàn)出不錯的性能。

如果你想復現(xiàn)這個實驗,可以參考notebook:github.com/feedly/ml-demos/blob/master/source/TransferLearningNLP.ipynb,在微調和分類過程中有一個GPU還是很高效的。

NLP中非監(jiān)督 vs 監(jiān)督學習

在使用ULMFiT的過程中,我們用到了非監(jiān)督和監(jiān)督學習兩種方法。訓練一個非監(jiān)督式語言模型很“便宜”,因為你可以從網(wǎng)上找到很多文本數(shù)據(jù)。但是,監(jiān)督式模型的成本就很高了,因為需要標記數(shù)據(jù)。

雖然語言模型可以捕捉到很多有關自然語言組織的信息,但是仍不能確定模型能否捕捉到文本的含義,即它們能否了解說話者想傳達的信息。

Emily Bender在推特上曾提出了一個有趣的“泰語實驗”:“假設給你所有泰語書籍,沒有譯文。假如你一點都不懂泰語,你永遠不會從中學會什么?!?/p>

所以,我們認為語言模型更多的是學習語法規(guī)則,而不是含義。而語言模型能做的不僅僅是預測在語法規(guī)則上相近的句子。例如“I ate this computer”和“I hate this computer”兩句話結構相同,但是一個良好的模型應該會將后者看作是“更正確”的句子。所以我們可以將語言模型看作是學習自然語言句子的架構的工具,從而幫助我們了解句子含義。

想了解更多這方面的話題,可以觀看ACL 2018上Yejin Choi的演講:sites.google.com/site/repl4nlp2018/home?authuser=0

NLP遷移學習的未來

ULMFiT的出現(xiàn)推動了遷移學習在自然語言處理中的發(fā)展,同時也出現(xiàn)了其他的微調工具,例如FineTune Transformer LM。我們注意到隨著更多更好地語言模型的出現(xiàn),遷移的效率也在不斷提高。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關注

    關注

    9

    文章

    1709

    瀏覽量

    46784
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22629
  • 遷移學習
    +關注

    關注

    0

    文章

    74

    瀏覽量

    5733

原文標題:僅訓練了1000個樣本,我完成了400萬條評論分類

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    遷移學習的原理,基于Keras實現(xiàn)遷移學習

    我面對的大多數(shù)計算機視覺問題沒有非常大的數(shù)據(jù)集(5000-40000圖像)。即使使用極端的數(shù)據(jù)增強策略,也很難達到像樣的精確度。而在少量數(shù)據(jù)集上訓練數(shù)百萬參數(shù)的網(wǎng)絡通常會導致過擬合。所以遷移學習是我的救星。
    的頭像 發(fā)表于 05-09 03:44 ?1.5w次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學習</b>的原理,基于Keras實現(xiàn)<b class='flag-5'>遷移</b><b class='flag-5'>學習</b>

    什么是遷移學習?遷移學習的實現(xiàn)方法與工具分析

    向于不要求海量數(shù)據(jù)也能達到應用的精準要求,因此“小數(shù)據(jù)學習”正在成為新的熱點,以遷移學習,強化學習為代表的小數(shù)據(jù)學習技術,更能體現(xiàn)人工智能的
    發(fā)表于 05-11 09:12 ?1.3w次閱讀

    遷移學習訓練網(wǎng)絡

    keras 之 遷移學習,改變VGG16輸出層,用imagenet權重retrain
    發(fā)表于 09-09 11:02

    遷移學習

    經典機器學習算法介紹章節(jié)目標:機器學習是人工智能的重要技術之一,詳細了解機器學習的原理、機制和方法,為學習深度學習
    發(fā)表于 04-21 15:15

    遷移學習與模型預訓練:何去何從

    把我們當前要處理的NLP任務叫做T(T稱為目標任務),遷移學習技術做的事是利用另一個任務S(S稱為源任務)來提升任務T的效果,也即把S的信息遷移到T中。至于怎么
    的頭像 發(fā)表于 07-18 11:29 ?8241次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學習</b>與模型預訓練:何去何從

    NLP遷移學習面臨的問題和解決

    自然語言處理(NLP)最近取得了巨大的進步,每隔幾天就會發(fā)布最新的結果。排行榜瘋狂是指最常見的NLP基準,如GLUE和SUPERGLUE,它們的得分越來越接近人類的水平。這些結果大多是通過超大(數(shù)十億個參數(shù))模型從大規(guī)模數(shù)據(jù)集中遷移
    的頭像 發(fā)表于 05-04 12:03 ?3390次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>遷移</b><b class='flag-5'>學習</b>面臨的問題和解決

    機器學習方法遷移學習的發(fā)展和研究資料說明

    近年來,遷移學習已經引起了廣泛的關注和研究。遷移學習是運用已存有的知識對不同但相關領域問題進行求解的一種新的機器學習方法。它放寬了傳統(tǒng)機器
    發(fā)表于 07-17 08:00 ?0次下載
    機器<b class='flag-5'>學習</b>方法<b class='flag-5'>遷移</b><b class='flag-5'>學習</b>的發(fā)展和研究資料說明

    基于脈沖神經網(wǎng)絡的遷移學習算法

    使用脈沖序列進行數(shù)據(jù)處理的脈沖神經網(wǎng)絡具有優(yōu)異的低功耗特性,但由于學習算法不成熟,多層網(wǎng)絡練存在收斂困難的問題。利用反向傳播網(wǎng)絡具有學習算法成熟和訓練速度快的特點,設計一種遷移學習算法
    發(fā)表于 05-24 16:03 ?15次下載

    基于遷移深度學習的雷達信號分選識別

    基于遷移深度學習的雷達信號分選識別 ? 來源:《軟件學報》?,作者王功明等 ? 摘要:? 針對當前雷達信號分選識別算法普遍存在的低信噪比下識別能力差、特征參數(shù)提取困難、分類器模型參數(shù)復雜等問題,提出
    發(fā)表于 03-02 17:35 ?1912次閱讀

    遷移學習Finetune的四種類型招式

    遷移學習廣泛地應用于NLP、CV等各種領域,通過在源域數(shù)據(jù)上學習知識,再遷移到下游其他目標任務上,提升目標任務上的效果。其中,Pretrai
    的頭像 發(fā)表于 04-02 17:35 ?3630次閱讀

    NLP中的遷移學習:利用預訓練模型進行文本分類

    遷移學習徹底改變了自然語言處理(NLP)領域,允許從業(yè)者利用預先訓練的模型來完成自己的任務,從而大大減少了訓練時間和計算資源。在本文中,我們將討論遷移
    發(fā)表于 06-14 09:30 ?583次閱讀

    一文詳解遷移學習

    遷移學習需要將預訓練好的模型適應新的下游任務。然而,作者觀察到,當前的遷移學習方法通常無法關注與任務相關的特征。在這項工作中,作者探索了重新聚焦模型注意力以進行
    的頭像 發(fā)表于 08-11 16:56 ?7129次閱讀
    一文詳解<b class='flag-5'>遷移</b><b class='flag-5'>學習</b>

    視覺深度學習遷移學習訓練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺深度學習遷移學習訓練框架,當前支持的圖像分類、對象檢測、實例分割、語義分割、姿態(tài)評估模型的遷移學習
    的頭像 發(fā)表于 09-22 09:49 ?1304次閱讀
    視覺深度<b class='flag-5'>學習</b><b class='flag-5'>遷移</b><b class='flag-5'>學習</b>訓練框架Torchvision介紹

    遷移學習的基本概念和實現(xiàn)方法

    遷移學習(Transfer Learning)是機器學習領域中的一個重要概念,其核心思想是利用在一個任務或領域中學到的知識來加速或改進另一個相關任務或領域的學習過程。這種方法在數(shù)據(jù)稀缺
    的頭像 發(fā)表于 07-04 17:30 ?3532次閱讀

    預訓練和遷移學習的區(qū)別和聯(lián)系

    預訓練和遷移學習是深度學習和機器學習領域中的兩個重要概念,它們在提高模型性能、減少訓練時間和降低對數(shù)據(jù)量的需求方面發(fā)揮著關鍵作用。本文將從定義、原理、應用、區(qū)別和聯(lián)系等方面詳細探討預訓
    的頭像 發(fā)表于 07-11 10:12 ?2066次閱讀