chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)又是從哪個層面深刻影響了NLP呢?

倩倩 ? 來源:機器之心 ? 2020-04-17 15:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)正在給自然語言處理帶來巨大的變革。但是,作為一個初學(xué)者,要從哪里起步才好呢?深度學(xué)習(xí)和自然語言處理都是很寬泛的領(lǐng)域。哪些方面才是最重要的,還有,深度學(xué)習(xí)又是從哪個層面深刻影響了 NLP 呢?

1. 關(guān)于這篇論文

這篇論文的標題是「基于神經(jīng)網(wǎng)絡(luò)模型的自然語言處理入門」(A Primer on Neural Network Models for Natural Language Processing)。

對應(yīng)的論文 2015 年發(fā)表在 ArXiv 上。與其說是論文,不如說是一篇技術(shù)報告或者說是教程,面向研究員和學(xué)生,對基于深度學(xué)習(xí)方法的自然語言處理(NLP)作了綜合性的介紹。

這篇教程審視了針對自然語言處理的研究的幾個深度學(xué)習(xí)模型,以求自然語言的研究能加快神經(jīng)網(wǎng)絡(luò)技術(shù)的發(fā)展。

入門教程由曾是 Google Research 科學(xué)家和 NLP 研究員的 Yoav Goldberg (https://www.cs.bgu.ac.il/~yoavg/uni/) 編寫。這是一篇技術(shù)報告,有大約 62 頁以及 13 頁的參考文獻。

這對于初學(xué)者來說是很理想的教材,因為:

它對讀者的基礎(chǔ)要求不高,不需要對先了解機器學(xué)習(xí)和語言處理的相關(guān)知識;

涉及領(lǐng)域?qū)挿?,包括了很多深度學(xué)習(xí)方法和自然語言處理的問題。

在這篇教程中,我希望能為 NLP 開發(fā)者和新手介紹一些基礎(chǔ)背景知識,術(shù)語,實用工具以及方法論,從而明白其背后的神經(jīng)網(wǎng)絡(luò)模型的理論,應(yīng)用到他們自己的工作中。.. 面向的是那些有志于利用已有的,有價值的技術(shù),并創(chuàng)造新方法去解決他們最感興趣的 NLP 的人。

通常情況下,在語言學(xué)和自然語言處理中,關(guān)鍵的深度學(xué)習(xí)方法需要翻模(重命名)以建立有用的溝通橋梁。

最后,這篇 2015 年的入門教程在 2017 年出書了,書名為「Neural Network Methods for Natural Language Processing (http://amzn.to/2tXn2dZ)」。

2. 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

這一小節(jié)將介紹神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的不同類型,作為后面章節(jié)的參照。

全連接前饋神經(jīng)網(wǎng)絡(luò)是非線性學(xué)習(xí)器,因此在極大程度上可以隨意取代線性學(xué)習(xí)器。

這里介紹 4 種類型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),這里著重介紹其應(yīng)用案例和參考文獻:

全連接前饋神經(jīng)網(wǎng)絡(luò),例如多層感知網(wǎng)絡(luò);

帶有卷積和池化層的網(wǎng)絡(luò),例如卷積神經(jīng)網(wǎng)絡(luò);

循環(huán)神經(jīng)網(wǎng)絡(luò),例如長短時記憶網(wǎng)絡(luò);

遞歸神經(jīng)網(wǎng)絡(luò)。

如果你只對應(yīng)用感興趣,以上內(nèi)容將為你提供直接尋找更多資源的線索。

3. 特征表示

這一節(jié)著重介紹深度學(xué)習(xí)模型訓(xùn)練稀疏或者密集型表示的各種方法。

也許,從稀疏輸入(sparse-input)線性模型到神經(jīng)網(wǎng)絡(luò)模型最大的飛躍,就是放棄將每一個特征作為一個維度的表示方式(所謂的 one-hot 表示),而使用密集型向量的表示方式。

NLP 分類系統(tǒng)的一般結(jié)構(gòu)總結(jié)如下:

提取核心語言特征的集合;

為每一個向量檢索關(guān)聯(lián)向量;

組合特征向量;

將組合向量反饋給非線性分類器。

這個結(jié)構(gòu)的關(guān)鍵在于使用密集型特征向量而不是稀疏特征向量,使用核心特征而不是特征組合。

需要注意在特征提取階段中,神經(jīng)網(wǎng)絡(luò)只有提取核心特征。這和傳統(tǒng)的基于線性模型的 NLP 不同,傳統(tǒng)的 NLP 的特征設(shè)計必須手動設(shè)置以明確規(guī)定核心特征和其中的相互作用。

4. 前饋神經(jīng)網(wǎng)絡(luò)

這一節(jié)將提供前饋人工神經(jīng)網(wǎng)絡(luò)的速成課程。

以「A Primer on Neural Network Models for Natural Language Processing」中含兩個隱藏層的前饋神經(jīng)網(wǎng)絡(luò)為例。這些神經(jīng)網(wǎng)絡(luò)都是使用數(shù)學(xué)概念和腦啟發(fā)的形式而表示出來的。通常神經(jīng)網(wǎng)絡(luò)的研究論題包括如下幾個:

表示能力(e.g. 一般近似);

一般非線性特征(e.g. 變換函數(shù));

輸出的變換(e.g. softmax);

詞匯嵌入(e.g. 嵌入式學(xué)習(xí)的密集型表征);

損失函數(shù)(e.g. 折葉(ReLU)和對數(shù)損失函數(shù))。

5. 詞嵌入

對于自然語言處理的神經(jīng)網(wǎng)絡(luò)方法來說,詞嵌入表征是很重要的論題。這一節(jié)將展開這一論題并舉幾個關(guān)鍵方法的例子。神經(jīng)網(wǎng)絡(luò)在 NLP 中的流行一個重要原因是嵌入方法的使用,在低維空間中將每一個特征表征為一個向量。我們將回顧以下幾個關(guān)于嵌入的論題:

隨機初始化(e.g. 以統(tǒng)一的隨機向量啟動);

有監(jiān)督特定任務(wù)的預(yù)訓(xùn)練(e.g. 遷移學(xué)習(xí));

無監(jiān)督預(yù)訓(xùn)練(e.g. 統(tǒng)計方法,如 word2vec 和 GloVe);

訓(xùn)練目標(e.g. 目標對輸出向量的影響);

上下文的選擇(e.g. 每一個詞受到的周圍的詞的影響)。

神經(jīng)詞嵌入方法源于語言模型化方法,即訓(xùn)練網(wǎng)絡(luò)以通過上文序列預(yù)測下一個詞。

6. 神經(jīng)網(wǎng)絡(luò)訓(xùn)練

這一節(jié)篇幅較大,著重介紹神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方式,面向?qū)ι窠?jīng)網(wǎng)絡(luò)范式不熟悉的讀者。神經(jīng)網(wǎng)絡(luò)的訓(xùn)練是通過梯度方法,嘗試在一個訓(xùn)練數(shù)據(jù)集內(nèi)最小化損失函數(shù)的過程。

這一節(jié)重點關(guān)注隨機梯度下降(以及類似的 mini-batch)以及訓(xùn)練過程中的正則化方法。

有趣的是,神經(jīng)網(wǎng)絡(luò)的計算圖觀點的提出為一些實現(xiàn)深度學(xué)習(xí)模型的符號化數(shù)值程序庫(symbolic numerical libraries),如 Theano 和 TensorFlow 提供了很好的入門方法。

只要圖被建立起來,就能很直觀的理解前向計算(計算輸出結(jié)果)或者方向計算(計算梯度)。

7. 級聯(lián)(Cascading)和多任務(wù)學(xué)習(xí)

這一節(jié)將在前一節(jié)的基礎(chǔ)上,我們將總結(jié)級聯(lián) NLP 模型和多語言任務(wù)的學(xué)習(xí)模型。

級聯(lián)模型:利用神經(jīng)網(wǎng)絡(luò)模型的計算圖定義加入中間表征(編碼)以建立更加復(fù)雜的模型。例如,我們可以通過近鄰詞匯,以及/或者其組成特征建立一個前饋網(wǎng)絡(luò)來預(yù)測詞匯。

多任務(wù)學(xué)習(xí):各種相關(guān)的語言預(yù)測任務(wù),并不互相反饋,但會在任務(wù)中分享信息。

預(yù)測命名實體的邊界,以及語句的下一個詞匯,都依賴于一些潛在的句法-語義表征上。這些高級概念都是在神經(jīng)網(wǎng)絡(luò)語境中描述的,以在模型之間建立關(guān)聯(lián)的理解,或者在訓(xùn)練過程(誤差反向傳播)和預(yù)測過程中,共享信息。

8. 結(jié)構(gòu)化輸出的預(yù)測

這一節(jié)關(guān)注使用深度學(xué)習(xí)方法進行結(jié)構(gòu)化預(yù)測的幾個自然語言處理任務(wù)的例子,比如,序列、決策樹和計算圖。

典型例子有序列標注(e.g. 詞性標注)的序列分割(分組,NER(命名實體識別)),以及句法分析。本節(jié)內(nèi)容包括基于貪婪算法的和以搜索為核心的結(jié)構(gòu)化預(yù)測,而主要集中討論后者。

以搜索為核心是自然語言結(jié)構(gòu)化預(yù)測的一般方法。

9. 卷積層

這一節(jié)提供了卷積神經(jīng)網(wǎng)絡(luò)的速成課程,以及討論卷積網(wǎng)絡(luò)對自然語言處理研究帶來的變革。CNN 被證明在自然語言處理的分類任務(wù)上表現(xiàn)出色,比如情緒分析,e.g. 在文中尋找特定的子序列或者結(jié)構(gòu)進行預(yù)測。

卷積神經(jīng)網(wǎng)絡(luò)一般被設(shè)計成在大型結(jié)構(gòu)中用以識別 indicative local predictors,并將其組合以生成結(jié)構(gòu)的固定大小的向量表征,捕捉這些 local aspects 對于預(yù)測任務(wù)來說是很有用的。

10. 循環(huán)神經(jīng)網(wǎng)絡(luò)

正如前一節(jié)一樣,這一節(jié)也將介紹一種特定的網(wǎng)絡(luò)和其在 NLP 中的應(yīng)用。比如,應(yīng)用 RNN 的序列建模。

循環(huán)神經(jīng)網(wǎng)絡(luò)允許在一個固定大小的向量中表示任意大小的結(jié)構(gòu)化輸入,而只關(guān)心輸入的結(jié)構(gòu)化性質(zhì)。

由于 RNNs 在 NLP 中很受歡迎,尤其是 LSTM,這一節(jié)將討論如下幾個關(guān)于循環(huán)的論題和模型:

RNN 抽象概念(e.g. 網(wǎng)絡(luò)圖中的循環(huán)連接);

RNN 訓(xùn)練過程(e.g. 沿時間的反向傳播);

多層(堆疊)RNN(e.g. 深度學(xué)習(xí)的「深」的解釋);

BI-RNN(e.g. 前向和反向序列作為輸入);

用于表示的 RNN 堆疊。

我們將集中討論 RNN 模型結(jié)構(gòu)或者結(jié)構(gòu)元素中,特別是:

接收器(acceptor):在完整輸入序列之后的輸出的損失計算;

編碼器(encoder):最后的向量作為輸入序列的編碼器;

變換器(transducer):在輸入序列中,每一次觀測生成一個輸出;

編碼器-譯碼器(encoder-decoder):輸入序列在被譯碼成輸出序列之前,編碼成一個固定長度的向量。

11. 具體的 RNN 結(jié)構(gòu)

這一節(jié)將在上一節(jié)的基礎(chǔ)上討論特定的 RNN 算法。比如:

簡單 RNN(SRNN);

長短時記憶(LSTM);

門控循環(huán)單元(GRU)。

12. 模型建模

最后一節(jié)著重討論一種更加復(fù)雜的網(wǎng)絡(luò),學(xué)習(xí)樹型建模的遞歸神經(jīng)網(wǎng)絡(luò)。所謂的樹包括了句法樹,話語樹,甚至是表示(由一句話的幾個部分表達的)情緒的樹。我們希望在特定的樹節(jié)點上預(yù)測價值,價值預(yù)測以根節(jié)點為基礎(chǔ),或者為整棵樹或者部分樹指定一個預(yù)測值。

正如循環(huán)神經(jīng)網(wǎng)絡(luò)保持輸入序列的狀態(tài),遞歸神經(jīng)網(wǎng)絡(luò)保持樹節(jié)點的狀態(tài)。

這里有一個遞歸神經(jīng)網(wǎng)絡(luò)的例子,取自「A Primer on Neural Network Models for Natural Language Processing.」

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122792
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14155
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22621
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢 ? ? 近年來,人工智能(AI)技術(shù)迅猛發(fā)展,深刻影響著各行各業(yè)。計算機視覺到自然語言處理,自動駕駛到醫(yī)療診斷,AI的應(yīng)用場景不斷擴展,推動社會向智能化方向邁進
    的頭像 發(fā)表于 07-16 15:01 ?86次閱讀

    東芝24TB超大容量CMR硬盤評測

    大模型的橫空出世不僅改變了計算行業(yè),也深刻影響了存儲行業(yè)。
    的頭像 發(fā)表于 07-10 09:46 ?529次閱讀
    東芝24TB超大容量CMR硬盤評測

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變
    的頭像 發(fā)表于 02-14 11:15 ?536次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?851次閱讀

    深度學(xué)習(xí)中RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過在每個時間步長上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時間序列數(shù)據(jù)中的長期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們也面臨著一些
    的頭像 發(fā)表于 11-15 09:55 ?1321次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1903次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?651次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識別模型的訓(xùn)練速度和準確性。例如,在人臉識別、自動駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過程。 二、自然語言處理 自然語言處理(NLP)是深度
    的頭像 發(fā)表于 10-27 11:13 ?1353次閱讀

    激光雷達技術(shù)的基于深度學(xué)習(xí)的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1063次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1221次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2879次閱讀

    FPGA做深度學(xué)習(xí)能走多遠?

    并行計算的能力,可以在硬件層面并行處理大量數(shù)據(jù)。這種并行處理能力使得 FPGA 在執(zhí)行深度學(xué)習(xí)算法時速度遠超傳統(tǒng)處理器,能夠提供更低的延遲和更高的吞吐量,從而加速模型訓(xùn)練和推理過程,滿足實時性要求較高
    發(fā)表于 09-27 20:53

    射頻天線的發(fā)展歷史

    射頻天線,作為無線通信系統(tǒng)的關(guān)鍵組成部分,其發(fā)展歷程充滿了探索與創(chuàng)新。最初的簡單形態(tài)到如今的復(fù)雜多樣,天線技術(shù)不僅見證了無線通信技術(shù)的飛速發(fā)展,也深刻影響了人類社會的方方面面。以下是對射頻天線發(fā)展歷史的詳細回顧。
    的頭像 發(fā)表于 08-13 10:50 ?1838次閱讀

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2523次閱讀

    ESP8266上運行AT命令固件,通過發(fā)送命令A(yù)T GSLP使其進入深度睡眠狀態(tài),ESP8266如何深度睡眠中醒來?

    我正在ESP8266上運行 AT 命令固件。我可以通過發(fā)送命令 AT GSLP 使其進入深度睡眠狀態(tài)。但是我如何深度睡眠中醒來ESP8266?是否可以發(fā)送另一個 AT 命令來喚醒它
    發(fā)表于 07-16 07:32