好的,我們來(lái)用中文詳細(xì)解釋一下循環(huán)神經(jīng)網(wǎng)絡(luò)。
循環(huán)神經(jīng)網(wǎng)絡(luò)(英文:Recurrent Neural Network,簡(jiǎn)稱 RNN)是一種專門設(shè)計(jì)用來(lái)處理序列數(shù)據(jù)的人工神經(jīng)網(wǎng)絡(luò)。
核心思想與為什么需要 RNN?
-
序列數(shù)據(jù)的特性: 很多數(shù)據(jù)天然具有順序或時(shí)間依賴性,例如:
- 文本:句子中的單詞是一個(gè)接一個(gè)出現(xiàn)的(“我” -> “愛(ài)” -> “自然語(yǔ)言處理”),后一個(gè)詞的含義依賴于前面的詞。
- 語(yǔ)音:聲音信號(hào)是隨時(shí)間連續(xù)變化的波形。
- 時(shí)間序列:股票價(jià)格、傳感器讀數(shù)、天氣預(yù)報(bào)數(shù)據(jù)等,當(dāng)前的值往往與過(guò)去的值相關(guān)。
- 視頻:一系列按時(shí)間順序排列的幀。
-
傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的不足: 像全連接網(wǎng)絡(luò)(FCN)或卷積神經(jīng)網(wǎng)絡(luò)(CNN)通常假設(shè)輸入數(shù)據(jù)是獨(dú)立同分布的,并且輸入大小是固定的。它們很難有效地處理:
- 輸入長(zhǎng)度可變的數(shù)據(jù)(句子有長(zhǎng)有短)。
- 數(shù)據(jù)點(diǎn)之間存在強(qiáng)烈依賴關(guān)系(序列中前面信息對(duì)后面至關(guān)重要)。
RNN 的核心創(chuàng)新在于引入了“循環(huán)”或“記憶”的概念。
關(guān)鍵結(jié)構(gòu):隱藏狀態(tài) (Hidden State)
- RNN 的核心組件是一個(gè)隱藏狀態(tài)。
- 這個(gè)隱藏狀態(tài)可以看作網(wǎng)絡(luò)對(duì)“到目前為止看到的信息”的總結(jié)或記憶。
- 關(guān)鍵在于,在處理序列中的每一個(gè)元素(時(shí)刻
t)時(shí):- 它不僅僅考慮當(dāng)前的輸入
X_t。 - 它還考慮之前時(shí)刻
t-1的隱藏狀態(tài)h_{t-1}。 - 網(wǎng)絡(luò)將當(dāng)前輸入
X_t和之前的隱藏狀態(tài)h_{t-1}結(jié)合起來(lái),計(jì)算出新的隱藏狀態(tài)h_t。 - 這個(gè)新的隱藏狀態(tài)
h_t會(huì)被傳遞到下一個(gè)時(shí)刻t+1使用,同時(shí)也可能用于產(chǎn)生當(dāng)前時(shí)刻的輸出Y_t(如果需要輸出的話)。
- 它不僅僅考慮當(dāng)前的輸入
- 公式化的表示(簡(jiǎn)化版):
h_t = f(W_{xh} * X_t + W_{hh} * h_{t-1} + b_h)Y_t = g(W_{hy} * h_t + b_y)f和g是非線性激活函數(shù)(如 tanh, ReLU, softmax)。W_{xh},W_{hh},W_{hy}是需要學(xué)習(xí)的權(quán)重矩陣。b_h,b_y是偏置項(xiàng)。h_t是時(shí)刻t的隱藏狀態(tài)。X_t是時(shí)刻t的輸入。Y_t是時(shí)刻t的輸出(可選)。
形象化理解
可以把 RNN 想象成一條傳送帶:
- 傳送帶經(jīng)過(guò)一個(gè)處理站(RNN單元)。
- 每個(gè)時(shí)間點(diǎn)
t,一個(gè)新的包裹(輸入X_t)到達(dá)處理站。 - 處理站不僅查看當(dāng)前的包裹 (
X_t),還會(huì)查看傳送帶上留下的關(guān)于之前所有包裹的“筆記”(隱藏狀態(tài)h_{t-1})。 - 處理站根據(jù)當(dāng)前包裹和之前的筆記,更新筆記(生成新的隱藏狀態(tài)
h_t),并將更新后的筆記留在傳送帶上給下一個(gè)處理站(時(shí)刻t+1)看。 - 如果需要,處理站還會(huì)根據(jù)新的筆記生成一份報(bào)告(輸出
Y_t)。 - 這個(gè)過(guò)程對(duì)序列中的每個(gè)元素(包裹)重復(fù)進(jìn)行。
RNN 的主要特點(diǎn)
- 參數(shù)共享: 同一個(gè)權(quán)重矩陣(
W_{xh},W_{hh},W_{hy})在序列的每個(gè)時(shí)間步上都被重復(fù)使用。這使得網(wǎng)絡(luò)可以用相對(duì)較少的參數(shù)處理任意長(zhǎng)度的序列(理論上),并且能學(xué)習(xí)到適用于序列不同位置的模式。 - 時(shí)序依賴建模: 通過(guò)隱藏狀態(tài)的傳遞,RNN 能夠捕獲序列數(shù)據(jù)中的時(shí)間動(dòng)態(tài)特性和長(zhǎng)期依賴關(guān)系(至少在理論設(shè)計(jì)上如此)。
- 輸入/輸出靈活性:
- 一對(duì)一: 單輸入 -> 單輸出(非典型)。
- 多對(duì)一: 整個(gè)序列輸入 -> 單個(gè)輸出(如文本分類、情感分析)。
- 一對(duì)多: 單個(gè)輸入 -> 序列輸出(如圖像生成描述)。
- 多對(duì)多(同步): 輸入序列和輸出序列長(zhǎng)度相同且同步(如幀級(jí)視頻標(biāo)注)。
- 多對(duì)多(異步): 輸入序列和輸出序列長(zhǎng)度不同且不同步(如機(jī)器翻譯)。
RNN 的挑戰(zhàn):長(zhǎng)程依賴問(wèn)題
- 問(wèn)題: 理論上 RNN 能記住所有歷史信息,但實(shí)踐中,標(biāo)準(zhǔn)的 RNN (常被稱為 Vanilla RNN) 在訓(xùn)練時(shí)難以學(xué)習(xí)到長(zhǎng)期依賴(序列中相隔很遠(yuǎn)的信息之間的關(guān)系)。
- 例如,“The cat ... ... ... is hungry.”(貓餓了)中判斷“is hungry”的單復(fù)數(shù)形式依賴于開(kāi)頭出現(xiàn)的“cat”,但如果中間間隔很長(zhǎng)(...),標(biāo)準(zhǔn) RNN 很難維持這個(gè)信息。
- 原因:
- 梯度消失: 訓(xùn)練 RNN 通常使用隨時(shí)間反向傳播算法。當(dāng)序列很長(zhǎng)時(shí),梯度(用于更新權(quán)重的信號(hào))在反向傳播時(shí)會(huì)連續(xù)相乘。如果梯度值小于1(常見(jiàn)情況),多次相乘后梯度會(huì)變得極其微小(消失),導(dǎo)致網(wǎng)絡(luò)無(wú)法有效更新早期層的權(quán)重來(lái)學(xué)習(xí)長(zhǎng)期依賴。
- 梯度爆炸: 如果梯度值大于1,多次相乘后梯度會(huì)變得巨大(爆炸),導(dǎo)致訓(xùn)練不穩(wěn)定。
- 梯度爆炸可以通過(guò)梯度裁剪等技術(shù)緩解,但梯度消失是更根本性的挑戰(zhàn)。
RNN 的改進(jìn):LSTM 和 GRU
為了解決梯度消失和長(zhǎng)程依賴問(wèn)題,研究者提出了更復(fù)雜的 RNN 單元結(jié)構(gòu),最著名的是:
-
長(zhǎng)短期記憶網(wǎng)絡(luò):
- 通過(guò)引入門控機(jī)制(輸入門、遺忘門、輸出門)和細(xì)胞狀態(tài)(相對(duì)穩(wěn)定的“記憶線”),有選擇地記住重要信息、忘記無(wú)關(guān)信息、輸出相關(guān)信息。
- 極大地提高了捕獲長(zhǎng)期依賴的能力,成為 RNN 領(lǐng)域最重要的突破之一。
-
門控循環(huán)單元:
- 是 LSTM 的一個(gè)簡(jiǎn)化變種,它將輸入門和遺忘門合并為“更新門”,并合并了細(xì)胞狀態(tài)和隱藏狀態(tài)。
- 參數(shù)比 LSTM 少,計(jì)算效率更高,效果通常與 LSTM 接近甚至相當(dāng),也很常用。
RNN 的主要應(yīng)用
- 自然語(yǔ)言處理:
- 語(yǔ)言建模(預(yù)測(cè)下一個(gè)詞)
- 機(jī)器翻譯
- 文本生成(寫詩(shī)、寫故事、生成代碼)
- 情感分析
- 命名實(shí)體識(shí)別
- 語(yǔ)音識(shí)別
- 時(shí)間序列分析與預(yù)測(cè):
- 股票預(yù)測(cè)
- 天氣預(yù)測(cè)
- 異常檢測(cè)
- 語(yǔ)音處理:
- 語(yǔ)音識(shí)別
- 語(yǔ)音合成
- 音樂(lè)生成
- 視頻分析
總結(jié)
循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 通過(guò)引入“循環(huán)”結(jié)構(gòu)(主要是隱藏狀態(tài))和參數(shù)共享,專門用于處理序列數(shù)據(jù)。它能利用歷史信息來(lái)理解當(dāng)前輸入和預(yù)測(cè)未來(lái)。標(biāo)準(zhǔn)的 Vanilla RNN 存在難以學(xué)習(xí)長(zhǎng)程依賴的問(wèn)題(梯度消失/爆炸),由此發(fā)展出了更強(qiáng)大的 LSTM 和 GRU 單元。盡管 Transformer 架構(gòu)在 NLP 等許多領(lǐng)域取得了巨大成功并部分取代了 RNN,但 RNN(尤其是 LSTM/GRU)因其在建模序列動(dòng)態(tài)方面的直觀性和有效性,仍然是序列建模工具箱中的一個(gè)重要組成部分,并在特定任務(wù)(尤其是需要有序狀態(tài)建模的任務(wù))中發(fā)揮著作用。理解 RNN 是理解序列建模和深度學(xué)習(xí)發(fā)展歷程的關(guān)鍵一步。
rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)
RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)的介紹
2024-07-05 09:52:36
循環(huán)神經(jīng)網(wǎng)絡(luò)是如何工作的
關(guān)于時(shí)間展開(kāi)的循環(huán)神經(jīng)網(wǎng)絡(luò),在序列結(jié)束時(shí)具有單個(gè)輸出。
2019-07-05 14:44:50
循環(huán)神經(jīng)網(wǎng)絡(luò)算法原理及特點(diǎn)
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有記憶功能的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù)。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network
2024-07-04 14:49:17
循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),其核心思想是將前一個(gè)時(shí)間步的輸出作為下一個(gè)時(shí)間步的輸入,從而實(shí)現(xiàn)對(duì)序列數(shù)據(jù)的建模。本文將從
2024-07-04 14:31:48
什么是RNN (循環(huán)神經(jīng)網(wǎng)絡(luò))?
循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 是一種深度學(xué)習(xí)結(jié)構(gòu),它使用過(guò)去的信息來(lái)提高網(wǎng)絡(luò)處理當(dāng)前和將來(lái)輸入的性能。RNN 的獨(dú)特之處在于該網(wǎng)絡(luò)包含隱藏狀態(tài)和循環(huán)。
2024-02-29 14:56:10
循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
2024-07-04 14:24:51
循環(huán)神經(jīng)網(wǎng)絡(luò)算法有哪幾種
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡(jiǎn)稱RNN)是一種適合于處理序列數(shù)據(jù)的深度學(xué)習(xí)算法。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,RNN具有記憶功能,可以處理時(shí)間序列中的信息。以下是對(duì)循環(huán)
2024-07-04 14:46:14
循環(huán)神經(jīng)網(wǎng)絡(luò)的基本原理是什么
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有短期記憶功能的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),如時(shí)間序列、文本序列等。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)不同,RNN的網(wǎng)絡(luò)
2024-07-04 14:26:27
循環(huán)神經(jīng)網(wǎng)絡(luò)有哪些基本模型
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡(jiǎn)稱RNN)是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且能夠捕捉序列數(shù)據(jù)中的時(shí)序信息。RNN的基本模型有很多,下面將介紹
2024-07-04 14:43:52
循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用場(chǎng)景有哪些
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有記憶功能的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),廣泛應(yīng)用于自然語(yǔ)言處理、語(yǔ)音識(shí)別、時(shí)間序列預(yù)測(cè)等領(lǐng)域。 自然語(yǔ)言處理
2024-07-04 14:39:19
循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)的區(qū)別
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,簡(jiǎn)稱RvNN)是深度學(xué)習(xí)中兩種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它們?cè)?
2024-07-04 14:19:20
循環(huán)神經(jīng)網(wǎng)絡(luò)處理什么數(shù)據(jù)
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有記憶功能的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),即數(shù)據(jù)具有時(shí)間或空間上的連續(xù)性。RNN在自然語(yǔ)言處理、語(yǔ)音識(shí)別、時(shí)間序列
2024-07-04 14:34:47
循環(huán)神經(jīng)網(wǎng)絡(luò)模型與前向反向傳播算法
本文將討論:循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks ,以下簡(jiǎn)稱RNN),它廣泛的用于自然語(yǔ)言處理中的語(yǔ)音識(shí)別,手寫書別以及機(jī)器翻譯等領(lǐng)域。
2019-05-10 08:48:32
卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別
在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)是兩種極其重要
2024-07-03 16:12:24
循環(huán)神經(jīng)網(wǎng)絡(luò)的優(yōu)化技巧
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡(jiǎn)稱RNN)是一種用于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型,它能夠捕捉時(shí)間序列中的動(dòng)態(tài)特征。然而,RNN在訓(xùn)練過(guò)程中可能會(huì)遇到梯度消失或梯度
2024-11-15 09:51:55
遞歸神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)一樣嗎
遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,RvNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是兩種不同類型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它們?cè)谔幚硇蛄袛?shù)據(jù)
2024-07-05 09:28:47
循環(huán)神經(jīng)網(wǎng)絡(luò)的常見(jiàn)調(diào)參技巧
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡(jiǎn)稱RNN)是一種用于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型,它能夠捕捉時(shí)間序列中的動(dòng)態(tài)特征。然而,RNN的訓(xùn)練往往比傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)更具
2024-11-15 10:13:20
循環(huán)神經(jīng)網(wǎng)絡(luò)的缺點(diǎn)是存在什么問(wèn)題
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡(jiǎn)稱RNN)是一種具有記憶功能的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),如文本、語(yǔ)音和時(shí)間序列等。 梯度消失和梯度爆炸問(wèn)題 RNN在訓(xùn)練
2024-07-04 14:41:54
遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)嗎
遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
2024-07-04 14:54:59
循環(huán)神經(jīng)網(wǎng)絡(luò)LSTM為何如此有效?
長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM),作為一種改進(jìn)之后的循環(huán)神經(jīng)網(wǎng)絡(luò),不僅能夠解決 RNN無(wú)法處理長(zhǎng)距離的依賴的問(wèn)題,還能夠解決神經(jīng)網(wǎng)絡(luò)中常見(jiàn)的梯度爆炸或梯度消失等問(wèn)題,在處理序列數(shù)據(jù)方面非常有效。 有效背后
2021-03-19 11:22:58
什么是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))?RNN的基本原理和優(yōu)缺點(diǎn)
RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種專門用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它能夠在序列的演進(jìn)方向上進(jìn)行遞歸,并通過(guò)所有節(jié)點(diǎn)(循環(huán)單元)的鏈?zhǔn)竭B接來(lái)捕捉序列中
2024-07-04 11:48:51
人工智能工程師高頻面試題匯總:循環(huán)神經(jīng)網(wǎng)絡(luò)篇(題目+答案)
后臺(tái)私信雯雯老師,備注:循環(huán)神經(jīng)網(wǎng)絡(luò),領(lǐng)取更多相關(guān)面試題隨著人工智能技術(shù)的突飛猛進(jìn),AI工程師成為了眾多求職者夢(mèng)寐以求的職業(yè)。想要拿下這份工作,面試的時(shí)候得展示出你不僅技術(shù)過(guò)硬,還得能解決問(wèn)題。所以
2025-10-17 16:36:30
循環(huán)神經(jīng)網(wǎng)絡(luò)在端到端語(yǔ)音識(shí)別中的應(yīng)用
語(yǔ)音識(shí)別技術(shù)作為人工智能領(lǐng)域的關(guān)鍵應(yīng)用之一,已經(jīng)深刻地改變了人們的日常生活和工作方式。從智能手機(jī)中的語(yǔ)音助手到智能家居系統(tǒng)的語(yǔ)音控制,語(yǔ)音識(shí)別技術(shù)無(wú)處不在。隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)
2024-07-08 11:09:43
循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用
自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而在NLP中扮演了重要
2024-11-15 09:41:16
PyTorch教程-9.4. 循環(huán)神經(jīng)網(wǎng)絡(luò)
9.4. 循環(huán)神經(jīng)網(wǎng)絡(luò)? Colab [火炬]在 Colab 中打開(kāi)筆記本 Colab [mxnet] Open the notebook in Colab Colab [jax
2023-06-05 15:44:24
如何使用numpy庫(kù)從零開(kāi)始創(chuàng)建循環(huán)神經(jīng)網(wǎng)絡(luò)模型
定義為記憶力。 算法可以復(fù)制這種模式嗎?神經(jīng)網(wǎng)絡(luò)(NN)是最先被想到的技術(shù)。但令人遺憾的是傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)還無(wú)法做到這一點(diǎn)。 舉個(gè)例子,如果讓傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)一個(gè)視頻中接下來(lái)會(huì)發(fā)生什么,它很難有精確的結(jié)果。 這就是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)發(fā)揮作用的
2020-12-10 17:10:30
循環(huán)神經(jīng)網(wǎng)絡(luò)小案例探討
案例:Slot Filling Feedforward Network Input: word vectorOutput: word屬于每個(gè)slot的概率問(wèn)題:無(wú)法使用前文的信息,可能造成誤判解決:在NN中引入Memory,使NN能夠記住前文的信息,即RNNword -> vector 1-of-N encoding OtherWord hashing
wangke2010
2020-10-27 07:38:01
循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)注意力文本生成變換器編碼器序列表征
序列表征循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)注意力文本生成變換器編碼器自注意力解碼器自注意力殘差的重要性圖像生成概率圖像生成結(jié)合注意力和局部性音樂(lè)變換器音樂(lè)的原始表征音樂(lè)的語(yǔ)言模型音樂(lè)生成示例音樂(lè)中的自相
2019-07-19 14:40:29
長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)介紹
循環(huán)神經(jīng)網(wǎng)絡(luò)很難訓(xùn)練的原因?qū)е滤膶?shí)際應(yīng)用中很處理長(zhǎng)距離的依賴。本文將介紹改進(jìn)后的循環(huán)神經(jīng)網(wǎng)絡(luò):長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long Short Term Memory Network, LSTM),
2022-02-14 14:40:21