chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NLP中的自監(jiān)督表示學習

深度學習自然語言處理 ? 來源:AI公園 ? 作者:amitness ? 2020-11-24 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

其實在自監(jiān)督學習的概念提出之前,NLP中就已經運用到了這一思想。

雖然計算機視覺在自監(jiān)督學習方面取得了驚人的進展,但在很長一段時間內,自監(jiān)督學習一直是NLP研究領域的一等公民。語言模型早在90年代就已經存在,甚至在“自我監(jiān)督學習”這個術語出現之前。2013年的Word2Vec論文推廣了這一模式,在許多問題上應用這些自監(jiān)督的方法,這個領域得到了迅速的發(fā)展。

這些自監(jiān)督的方法的核心是一個叫做 “pretext task” 的框架,它允許我們使用數據本身來生成標簽,并使用監(jiān)督的方法來解決非監(jiān)督的問題。這些也被稱為“auxiliary task”或“pre-training task“。通過執(zhí)行此任務獲得的表示可以用作我們的下游監(jiān)督任務的起點。

在這篇文章中,我將概述研究人員在沒有明確的數據標注的情況下從文本語料庫中學習表示的各種pretext tasks。本文的重點是任務的制定,而不是實現它們的架構。

自監(jiān)督的方案

1. 預測中心

在這個公式中,我們取一定窗口大小的一小塊文本,我們的目標是根據周圍的單詞預測中心單詞。

例如,在下面的圖中,我們有一個大小為1的窗口,因此我們在中間單詞的兩邊各有一個單詞。使用這些相鄰的詞,我們需要預測中心詞。

這個方案已經在著名的Word2Vec論文的“Continuous Bag of Words”方法中使用過。

2. 預測鄰居詞

在這個公式中,我們取一定窗口大小的文本張成的空間,我們的目標是在給定中心詞的情況下預測周圍的詞。

這個方案已經在著名的Word2Vec論文的“skip-gram”方法中實現。

3. 相鄰句子的預測

在這個公式中,我們取三個連續(xù)的句子,設計一個任務,其中給定中心句,我們需要生成前一個句子和下一個句子。它類似于之前的skip-gram方法,但適用于句子而不是單詞。

這個方案已經在Skip-Thought Vectors的論文中使用過。

4. 自回歸語言建模

在這個公式中,我們取大量未標注的文本,并設置一個任務,根據前面的單詞預測下一個單詞。因為我們已經知道下一個來自語料庫的單詞是什么,所以我們不需要手工標注的標簽。

例如,我們可以通過預測給定前一個單詞的下一個單詞來將任務設置為從左到右的語言建模。

我們也可以用這個方案來通給定未來的單詞預測之前的單詞,方向是從右到左。

這個方案已經使用在許多論文中,從n-gram模型到神經網絡模型比如神經概率語言模型 (GPT) 。

5. 掩碼語言建模

在這個方案中,文本中的單詞是隨機掩碼的,任務是預測它們。與自回歸公式相比,我們在預測掩碼單詞時可以同時使用前一個詞和下一個詞的上下文。

這個方案已經在BERT、RoBERTa和ALBERT的論文中使用過。與自回歸相比,在這個任務中,我們只預測了一小部分掩碼詞,因此從每句話中學到的東西更少。

6. 下一個句子預測

在這個方案中,我們取文件中出現的兩個連續(xù)的句子,以及同一文件或不同文件中隨機出現的另一個句子。

然后,任務是區(qū)分兩個句子是否是連貫的。

在BERT的論文中,它被用于提高下游任務的性能,這些任務需要理解句子之間的關系,比如自然語言推理(NLI)和問題回答。然而,后來的研究對其有效性提出了質疑。

7. 句子順序的預測

在這個方案中,我們從文檔中提取成對的連續(xù)句子。然后互換這兩個句子的位置,創(chuàng)建出另外一對句子。

我們的目標是對一對句子進行分類,看它們的順序是否正確。

在ALBERT的論文中,它被用來取代“下一個句子預測”任務。

8. 句子重排

在這個方案中,我們從語料庫中取出一個連續(xù)的文本,并破開的句子。然后,對句子的位置進行隨機打亂,任務是恢復句子的原始順序。

它已經在BART的論文中被用作預訓練的任務之一。

9. 文檔旋轉

在這個方案中,文檔中的一個隨機token被選擇為旋轉點。然后,對文檔進行旋轉,使得這個token成為開始詞。任務是從這個旋轉的版本中恢復原來的句子。

它已經在BART的論文中被用作預訓練的任務之一。直覺上,這將訓練模型開始識別文檔。

10. 表情符號預測

這個方案被用在了DeepMoji的論文中,并利用了我們使用表情符號來表達我們所發(fā)推文的情感這一想法。如下所示,我們可以使用推特上的表情符號作為標簽,并制定一個監(jiān)督任務,在給出文本時預測表情符號。

DeepMoji的作者們使用這個概念對一個模型進行了12億條推文的預訓練,然后在情緒分析、仇恨語言檢測和侮辱檢測等與情緒相關的下游任務上對其進行微調。

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4814

    瀏覽量

    103586
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22621

原文標題:NLP中的自監(jiān)督表示學習,全是動圖,很過癮的

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    機器學習異常檢測實戰(zhàn):用Isolation Forest快速構建無標簽異常檢測系統(tǒng)

    本文轉:DeepHubIMBA無監(jiān)督異常檢測作為機器學習領域的重要分支,專門用于在缺乏標記數據的環(huán)境識別異常事件。本文深入探討異常檢測技術的理論基礎與實踐應用,通過Isolatio
    的頭像 發(fā)表于 06-24 11:40 ?632次閱讀
    機器<b class='flag-5'>學習</b>異常檢測實戰(zhàn):用Isolation Forest快速構建無標簽異常檢測系統(tǒng)

    使用MATLAB進行無監(jiān)督學習

    監(jiān)督學習是一種根據未標注數據進行推斷的機器學習方法。無監(jiān)督學習旨在識別數據隱藏的模式和關系,無需任何監(jiān)督或關于結果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?682次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學習</b>

    深度學習工作負載GPU與LPU的主要差異

    ,一個新的競爭力量——LPU(Language Processing Unit,語言處理單元)已悄然登場,LPU專注于解決自然語言處理(NLP)任務的順序性問題,是構建AI應用不可或缺的一環(huán)。 本文旨在探討深度學習工作負載
    的頭像 發(fā)表于 12-09 11:01 ?3363次閱讀
    深度<b class='flag-5'>學習</b>工作負載<b class='flag-5'>中</b>GPU與LPU的主要差異

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它致力于研究如何讓計算機能夠理解、解釋和生成人類語言。機器學習(Machine
    的頭像 發(fā)表于 12-05 15:21 ?1981次閱讀

    Arm成功將Arm KleidiAI軟件庫集成到騰訊研的Angel 機器學習框架

    Arm 與騰訊攜手合作,成功將 Arm KleidiAI 軟件庫集成到騰訊研的 Angel 機器學習框架。 ? 借助 KleidiAI 解鎖卓越性能、能效和可移植性,騰訊混元大模型能夠實現更快
    的頭像 發(fā)表于 11-24 15:33 ?1279次閱讀

    什么是LLM?LLM在自然語言處理的應用

    所未有的精度和效率處理和生成自然語言。 LLM的基本原理 LLM基于深度學習技術,尤其是變換器(Transformer)架構。變換器模型因其注意力(Self-Attention)機制而聞名,這種機制使得模型能夠捕捉文本的長距
    的頭像 發(fā)表于 11-19 15:32 ?3644次閱讀

    時空引導下的時間序列監(jiān)督學習框架

    【導讀】最近,香港科技大學、上海AI Lab等多個組織聯合發(fā)布了一篇時間序列無監(jiān)督預訓練的文章,相比原來的TS2Vec等時間序列表示學習工作,核心在于提出了將空間信息融入到預訓練階段,即在預訓練階段
    的頭像 發(fā)表于 11-15 11:41 ?763次閱讀
    時空引導下的時間序列<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學習</b>框架

    深度學習RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經網絡(RNN)是深度學習領域中處理序列數據的基石。它們通過在每個時間步長上循環(huán)傳遞信息,使得網絡能夠捕捉時間序列數據的長期依賴關系。然而,盡管RNN在某些任務上表現出色,它們也面臨著一些
    的頭像 發(fā)表于 11-15 09:55 ?1321次閱讀

    NLP技術在聊天機器人中的作用

    聊天機器人,也稱為聊天AI,是一種通過文本或語音與人類進行交流的軟件。它們廣泛應用于客戶服務、在線購物、個人助理等領域。NLP技術是實現聊天機器人智能對話能力的關鍵。 1. 理解用戶意圖 NLP技術
    的頭像 發(fā)表于 11-11 10:33 ?1025次閱讀

    Llama 3 在自然語言處理的優(yōu)勢

    在自然語言處理(NLP)的快速發(fā)展,我們見證了從基于規(guī)則的系統(tǒng)到基于機器學習的模型的轉變。隨著深度學習技術的興起,NLP領域迎來了新的突破
    的頭像 發(fā)表于 10-27 14:22 ?729次閱讀

    GPU深度學習應用案例

    GPU在深度學習的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是深度學習的核心應用領域之一,GPU在加速圖像識別模型訓練方面發(fā)揮著關鍵作用。通過利用GP
    的頭像 發(fā)表于 10-27 11:13 ?1353次閱讀

    AI大模型在自然語言處理的應用

    AI大模型在自然語言處理(NLP的應用廣泛且深入,其強大的語義理解和生成能力為NLP任務帶來了顯著的性能提升。以下是對AI大模型在NLP
    的頭像 發(fā)表于 10-23 14:38 ?1540次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數據作為訓練材料。這些數據集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 監(jiān)督學習:模型采用
    發(fā)表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    章節(jié)最后總結了機器學習的分類:有監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習、監(jiān)督學習和強化
    發(fā)表于 07-25 14:33

    旗晟機器人人員行為監(jiān)督AI智慧算法

    ,以實現對工業(yè)場景巡檢運維的高效化目標。那么,下面我們來談談旗晟機器人AI智慧算法之一——人員行為監(jiān)督AI智慧算法。 旗晟人員行為監(jiān)督AI智慧算法是通過各類采集設備與AI服務器,結合行業(yè)大數據庫積累以及研AI深度
    的頭像 發(fā)表于 07-24 17:05 ?528次閱讀
    旗晟機器人人員行為<b class='flag-5'>監(jiān)督</b>AI智慧算法