曰本美女∴一区二区特级A级黄色大片, 国产亚洲精品美女久久久久久2025, 页岩实心砖-高密市宏伟建材有限公司, 午夜小视频在线观看欧美日韩手机在线,国产人妻奶水一区二区,国产玉足,妺妺窝人体色WWW网站孕妇,色综合天天综合网中文伊,成人在线麻豆网观看

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

RNN以及LSTM

新機器視覺 ? 來源:機器學習算法那些事 ? 作者:機器學習算法那些 ? 2022-03-15 10:44 ? 次閱讀

熟悉深度學習的朋友知道,LSTM是一種RNN模型,可以方便地處理時間序列數(shù)據(jù),在NLP等領域有廣泛應用。

在看了臺大李宏毅教授的深度學習視頻后,特別是介紹的第一部分RNN以及LSTM,整個人醍醐灌頂。

0. 從RNN說起

循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡。相比一般的神經(jīng)網(wǎng)絡來說,他能夠處理序列變化的數(shù)據(jù)。比如某個單詞的意思會因為上文提到的內容不同而有不同的含義,RNN就能夠很好地解決這類問題。

1. 普通RNN

先簡單介紹一下一般的RNN。其主要形式如下圖所示(圖片均來自臺大李宏毅教授的PPT):

ba5cb7b8-a355-11ec-952b-dac502259ad0.png

這里:

為當前狀態(tài)下數(shù)據(jù)的輸入,表示接收到的上一個節(jié)點的輸入。

為當前節(jié)點狀態(tài)下的輸出,而為傳遞到下一個節(jié)點的輸出。

通過上圖的公式可以看到,輸出 h'與 x 和 h 的值都相關。

而 y 則常常使用 h'投入到一個線性層(主要是進行維度映射)然后使用softmax進行分類得到需要的數(shù)據(jù)。

對這里的y如何通過 h'計算得到往往看具體模型的使用方式。

通過序列形式的輸入,我們能夠得到如下形式的RNN。

ba767a90-a355-11ec-952b-dac502259ad0.png

2. LSTM

2.1 什么是LSTM

長短期記憶(Long short-term memory, LSTM)是一種特殊的RNN,主要是為了解決長序列訓練過程中的梯度消失和梯度爆炸問題。簡單來說,就是相比普通的RNN,LSTM能夠在更長的序列中有更好的表現(xiàn)。

LSTM結構(圖右)和普通RNN的主要輸入輸出區(qū)別如下所示。

ba9e1884-a355-11ec-952b-dac502259ad0.png

相比RNN只有一個傳遞狀態(tài),LSTM有兩個傳輸狀態(tài),一個(cell state),和一個(hidden state)。RNN中的等價于LSTM中的。

其中對于傳遞下去的改變得很慢,通常輸出的是上一個狀態(tài)傳過來的加上一些數(shù)值。

而則在不同節(jié)點下往往會有很大的區(qū)別。

2.2 深入LSTM結構

下面具體對LSTM的內部結構來進行剖析。

首先使用LSTM的當前輸入和上一個狀態(tài)傳遞下來的拼接訓練得到四個狀態(tài)。

baaf8b0a-a355-11ec-952b-dac502259ad0.png

其中,,是由拼接向量乘以權重矩陣之后,再通過一個 sigmoid激活函數(shù)轉換成0到1之間的數(shù)值,來作為一種門控狀態(tài)。而則是將結果通過一個 tanh激活函數(shù)將轉換成-1到1之間的值(這里使用 tanh是因為這里是將其做為輸入數(shù)據(jù),而不是門控信號)。

下面開始進一步介紹這四個狀態(tài)在LSTM內部的使用(敲黑板)

bac692d2-a355-11ec-952b-dac502259ad0.png

是Hadamard Product,也就是操作矩陣中對應的元素相乘,因此要求兩個相乘矩陣是同型的。則代表進行矩陣加法。

LSTM內部主要有三個階段:

1. 忘記階段。這個階段主要是對上一個節(jié)點傳進來的輸入進行選擇性忘記。簡單來說就是會 “忘記不重要的,記住重要的”。

具體來說是通過計算得到的(f表示forget)來作為忘記門控,來控制上一個狀態(tài)的哪些需要留哪些需要忘。

2. 選擇記憶階段。這個階段將這個階段的輸入有選擇性地進行“記憶”。主要是會對輸入進行選擇記憶。哪些重要則著重記錄下來,哪些不重要,則少記一些。當前的輸入內容由前面計算得到的表示。而選擇的門控信號則是由(i代表information)來進行控制。

將上面兩步得到的結果相加,即可得到傳輸給下一個狀態(tài)的。也就是上圖中的第一個公式。

3. 輸出階段。這個階段將決定哪些將會被當成當前狀態(tài)的輸出。主要是通過來進行控制的。并且還對上一階段得到的進行了放縮(通過一個tanh激活函數(shù)進行變化)。

與普通RNN類似,輸出往往最終也是通過變化得到。

3. 總結

以上,就是LSTM的內部結構。通過門控狀態(tài)來控制傳輸狀態(tài),記住需要長時間記憶的,忘記不重要的信息;而不像普通的RNN那樣只能夠“呆萌”地僅有一種記憶疊加方式。對很多需要“長期記憶”的任務來說,尤其好用。

但也因為引入了很多內容,導致參數(shù)變多,也使得訓練難度加大了很多。因此很多時候我們往往會使用效果和LSTM相當?shù)珔?shù)更少的GRU來構建大訓練量的模型。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4798

    瀏覽量

    102473
  • LSTM
    +關注

    關注

    0

    文章

    60

    瀏覽量

    3951

原文標題:人人都能看懂的LSTM

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    FPGA也能做RNN

    ,GPU只能提供有限的并行性。針對這個問題,普渡大學的研究人員提出了一種LSTM在Zynq 7020 FPGA的硬件實現(xiàn)方案,該方案在FPGA中實現(xiàn)了2層128個隱藏單元的RNN,并且使用字符級語言模型
    發(fā)表于 07-31 10:11

    放棄 RNNLSTM 吧,它們真的不好用

    2014 年 RNN/LSTM 起死回生。自此,RNN/LSTM 及其變種逐漸被廣大用戶接受和認可。起初,LSTM
    的頭像 發(fā)表于 04-25 09:43 ?2.1w次閱讀

    RNN及其變體LSTM和GRU

    下圖為一個雙層LSTM對三個不同的單詞的反應分布。該LSTM每層有600個細胞狀態(tài)單元,基于Penn Tree Bank(PTB)數(shù)據(jù)集訓練。我們可以看到,模型對介詞(“for”)和代詞(“he”、“she”)的反應模式大不相同。
    的頭像 發(fā)表于 06-30 11:11 ?1.7w次閱讀
    <b class='flag-5'>RNN</b>及其變體<b class='flag-5'>LSTM</b>和GRU

    循環(huán)神經(jīng)網(wǎng)絡(RNN)和(LSTM)初學者指南

    最近,有一篇入門文章引發(fā)了不少關注。文章中詳細介紹了循環(huán)神經(jīng)網(wǎng)絡(RNN),及其變體長短期記憶(LSTM)背后的原理。
    發(fā)表于 02-05 13:43 ?1085次閱讀

    一種具有強記憶力的 E3D-LSTM網(wǎng)絡,強化了LSTM的長時記憶能力

    標準 LSTM 單元結構 首先簡要介紹一下標準 LSTM 結構,和 RNN 相比 LSTM 增加了更復雜的門結構(圖中黃色模塊),主要解決 RN
    的頭像 發(fā)表于 09-01 07:35 ?1.1w次閱讀
    一種具有強記憶力的 E3D-<b class='flag-5'>LSTM</b>網(wǎng)絡,強化了<b class='flag-5'>LSTM</b>的長時記憶能力

    循環(huán)神經(jīng)網(wǎng)絡LSTM為何如此有效?

    長短期記憶網(wǎng)絡(LSTM),作為一種改進之后的循環(huán)神經(jīng)網(wǎng)絡,不僅能夠解決 RNN無法處理長距離的依賴的問題,還能夠解決神經(jīng)網(wǎng)絡中常見的梯度爆炸或梯度消失等問題,在處理序列數(shù)據(jù)方面非常有效。 有效背后
    的頭像 發(fā)表于 03-19 11:22 ?3071次閱讀
    循環(huán)神經(jīng)網(wǎng)絡<b class='flag-5'>LSTM</b>為何如此有效?

    深度分析RNN的模型結構,優(yōu)缺點以及RNN模型的幾種應用

    強大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強的。 這篇文章,闡述了RNN的方方面面,包括模型結構,優(yōu)缺點,RNN模型的幾種應用,RNN常使用的激活函數(shù),
    的頭像 發(fā)表于 05-13 10:47 ?2.5w次閱讀
    深度分析<b class='flag-5'>RNN</b>的模型結構,優(yōu)缺點<b class='flag-5'>以及</b><b class='flag-5'>RNN</b>模型的幾種應用

    如何理解RNNLSTM神經(jīng)網(wǎng)絡

    在深入探討RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡)與LSTM(Long Short-Term Memory,長短期記憶網(wǎng)絡)神經(jīng)網(wǎng)絡之前,我們首先需要明確它們
    的頭像 發(fā)表于 07-09 11:12 ?1035次閱讀

    LSTM模型的基本組成

    長短期記憶網(wǎng)絡(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN)架構,它在處理序列數(shù)據(jù)時能夠捕捉長期依賴關系,有效解決了傳統(tǒng)RNN在處理長序列時容易出現(xiàn)
    的頭像 發(fā)表于 07-10 17:01 ?2608次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1246次閱讀

    使用LSTM神經(jīng)網(wǎng)絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(RNN)及其變體——長短期記憶(LSTM)網(wǎng)絡的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?916次閱讀

    LSTM神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    長短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發(fā)表于 11-13 09:57 ?4177次閱讀

    LSTM神經(jīng)網(wǎng)絡與傳統(tǒng)RNN的區(qū)別

    在深度學習領域,循環(huán)神經(jīng)網(wǎng)絡(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡應運而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?957次閱讀

    LSTM神經(jīng)網(wǎng)絡的調參技巧

    長短時記憶網(wǎng)絡(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在實際應用中,LSTM網(wǎng)絡的調參是一個復雜且關鍵的過程,直接影響
    的頭像 發(fā)表于 11-13 10:01 ?1529次閱讀

    RNNLSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡)與LSTM(長短期記憶網(wǎng)絡)模型在深度學習領域都具有處理序列數(shù)據(jù)的能力,但它們在結構、功能和應用上存在顯著的差異。以下是對RNNLSTM模型的比較分析: 一、基
    的頭像 發(fā)表于 11-15 10:05 ?1823次閱讀