chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度分析RNN的模型結(jié)構(gòu),優(yōu)缺點以及RNN模型的幾種應(yīng)用

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:人工智能與算法學(xué)習(xí) ? 作者:人工智能與算法學(xué) ? 2021-05-13 10:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的載體,而神經(jīng)網(wǎng)絡(luò)模型中,最經(jīng)典非RNN模型所屬,盡管它不完美,但它具有學(xué)習(xí)歷史信息的能力。后面不管是encode-decode 框架,還是注意力模型,以及自注意力模型,以及更加強大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強的。

這篇文章,闡述了RNN的方方面面,包括模型結(jié)構(gòu),優(yōu)缺點,RNN模型的幾種應(yīng)用,RNN常使用的激活函數(shù),RNN的缺陷,以及GRU,LSTM是如何試圖解決這些問題,RNN變體等。

這篇文章最大特點是圖解版本,其次語言簡練,總結(jié)全面。

概述

傳統(tǒng)RNN的體系結(jié)構(gòu)。Recurrent neural networks,也稱為RNNs,是一類允許先前的輸出用作輸入,同時具有隱藏狀態(tài)的神經(jīng)網(wǎng)絡(luò)。它們通常如下所示:

e2923ba4-b364-11eb-bf61-12bb97331649.png

對于每一時步 , 激活函數(shù) ,輸出 被表達(dá)為:

這里是時間維度網(wǎng)絡(luò)的共享權(quán)重系數(shù)

是激活函數(shù)

e2a0bf26-b364-11eb-bf61-12bb97331649.png

下表總結(jié)了典型RNN架構(gòu)的優(yōu)缺點:

處理任意長度的輸入 計算速度慢
模型形狀不隨輸入長度增加 難以獲取很久以前的信息
計算考慮了歷史信息 無法考慮當(dāng)前狀態(tài)的任何未來輸入
權(quán)重隨時間共享
優(yōu)點 缺點

RNNs應(yīng)用

RNN模型主要應(yīng)用于自然語言處理和語音識別領(lǐng)域。下表總結(jié)了不同的應(yīng)用:

一對一

e2d8925c-b364-11eb-bf61-12bb97331649.png

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)

一對多

e2e514fa-b364-11eb-bf61-12bb97331649.png

音樂生成

多對一

e2f52660-b364-11eb-bf61-12bb97331649.png

e303047e-b364-11eb-bf61-12bb97331649.png

機(jī)器翻譯e31699da-b364-11eb-bf61-12bb97331649.png

RNN 類型圖解例子

對于RNN網(wǎng)絡(luò),所有時間步的損失函數(shù) 是根據(jù)每個時間步的損失定義的,如下所示:損失函數(shù)

時間反向傳播

在每個時間點進(jìn)行反向傳播。在時間步,損失相對于權(quán)重矩陣的偏導(dǎo)數(shù)表示如下:

處理長短依賴

常用激活函數(shù)

RNN模塊中最常用的激活函數(shù)描述如下:

5e33166de-b364-11eb-bf61-12bb97331649.png

e33ef948-b364-11eb-bf61-12bb97331649.png

e3539de4-b364-11eb-bf61-12bb97331649.png

SigmoidTanhRELU

梯度消失/爆炸

在RNN中經(jīng)常遇到梯度消失和爆炸現(xiàn)象。之所以會發(fā)生這種情況,是因為很難捕捉到長期的依賴關(guān)系,因為乘法梯度可以隨著層的數(shù)量呈指數(shù)遞減/遞增。

梯度修剪

梯度修剪是一種技術(shù),用于執(zhí)行反向傳播時,有時遇到的梯度爆炸問題。通過限制梯度的最大值,這種現(xiàn)象在實踐中得以控制。

e367c954-b364-11eb-bf61-12bb97331649.png

門的類型

為了解決消失梯度問題,在某些類型的RNN中使用特定的門,并且通常有明確的目的。它們通常標(biāo)注為,等于:

其中,是特定于門的系數(shù),是sigmoid函數(shù)。主要內(nèi)容總結(jié)如下表:

Gated Recurrent Unit(GRU)和長-短期記憶單元(LSTM)處理傳統(tǒng)RNNs遇到的消失梯度問題,LSTM是GRU的推廣。下表總結(jié)了每種結(jié)構(gòu)的特征方程:GRU/LSTM

e3730e68-b364-11eb-bf61-12bb97331649.png

注:符號表示兩個向量之間按元素相乘。

RNN的變體

下表總結(jié)了其他常用的RNN模型:

e3a643e6-b364-11eb-bf61-12bb97331649.png

e3e31410-b364-11eb-bf61-12bb97331649.png

Bidirectional (BRNN)Deep (DRNN)

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4405

    瀏覽量

    66789
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    91

    瀏覽量

    7289

原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)RNN圖解!

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    正確的連接電機(jī)傳動軸的幾種常見連接方式及其優(yōu)缺點

    方式及其優(yōu)缺點分析。 1. 聯(lián)軸器連接 ? 聯(lián)軸器是電機(jī)與傳動軸之間最常用的連接方式之一,其核心功能是傳遞扭矩并補償兩軸之間的偏差(如徑向、軸向或角向偏差)。根據(jù)結(jié)構(gòu)不同,聯(lián)軸器可分為以下幾類: ? (1)剛性聯(lián)軸器 ?
    的頭像 發(fā)表于 09-10 07:41 ?1643次閱讀

    模型推理顯存和計算量估計方法研究

    、顯存估計方法 基于模型結(jié)構(gòu)的顯存估計 根據(jù)深度學(xué)習(xí)模型的層次結(jié)構(gòu)和參數(shù)數(shù)量,可以估算模型在推理
    發(fā)表于 07-03 19:43

    PCBA 表面處理:優(yōu)缺點大揭秘,應(yīng)用場景全解析

    的表面處理工藝,不僅能提升PCBA板的焊接質(zhì)量,還能延長其使用壽命。以下將詳細(xì)介紹幾種常見的PCBA表面處理工藝,分析它們的優(yōu)缺點及應(yīng)用場景,幫助您做出最佳的工藝選擇。 PCBA表面處理優(yōu)缺點
    的頭像 發(fā)表于 05-05 09:39 ?1117次閱讀
    PCBA 表面處理:<b class='flag-5'>優(yōu)缺點</b>大揭秘,應(yīng)用場景全解析

    深度學(xué)習(xí)模型在傳感器數(shù)據(jù)處理中的應(yīng)用(二):LSTM

    序列數(shù)據(jù)時遇到的梯度消失或梯度爆炸問題。標(biāo)準(zhǔn) RNN 在反向傳播過程中,由于鏈?zhǔn)椒▌t的應(yīng)用,梯度可能會在多層傳播中指數(shù)級地減?。ㄌ荻认В┗蛟龃螅ㄌ荻缺ǎ?,這使得網(wǎng)絡(luò)難以學(xué)習(xí)和記住長時間步的依賴關(guān)系。 ? ? 1.?遞歸神經(jīng)網(wǎng)絡(luò)(RNN
    的頭像 發(fā)表于 02-20 10:48 ?1419次閱讀
    <b class='flag-5'>深度</b>學(xué)習(xí)<b class='flag-5'>模型</b>在傳感器數(shù)據(jù)處理中的應(yīng)用(二):LSTM

    惠斯通電橋的優(yōu)缺點分析

    惠斯通電橋作為一種經(jīng)典的電阻測量工具,具有其獨特的優(yōu)缺點。以下是對惠斯通電橋優(yōu)缺點的詳細(xì)分析: 優(yōu)點 高精度 : 惠斯通電橋通過比較電壓差來精確測量電阻值,對于微小的電阻變化也能迅速作出反應(yīng),因此
    的頭像 發(fā)表于 02-13 15:26 ?1956次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點分析
    的頭像 發(fā)表于 02-12 15:36 ?1520次閱讀

    硅谷物理服務(wù)器的優(yōu)缺點分析

    硅谷物理服務(wù)器因其高性能、高質(zhì)量和先進(jìn)的技術(shù)支持而在全球范圍內(nèi)享有很高的聲譽。硅谷物理服務(wù)器的優(yōu)缺點分析如下,主機(jī)推薦小編為您整理發(fā)布硅谷物理服務(wù)器的優(yōu)缺點分析。
    的頭像 發(fā)表于 02-12 09:30 ?558次閱讀

    吉利星睿大模型與DeepSeek完成深度融合

    2 月 6 日,吉利汽車宣布其自研睿大模型已與 DeepSeek 完成深度融合。 在智能化浪潮下,AI 大模型成為車企競爭的關(guān)鍵技術(shù)。吉利此次與 DeepSeek 合作,是其在智能汽車領(lǐng)域的又一
    的頭像 發(fā)表于 02-07 18:13 ?1106次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗】營銷領(lǐng)域大模型的應(yīng)用

    使企業(yè)能夠提前洞察市場動向,制定前瞻性的市場策略,從而在競爭中占據(jù)有利地位。 通過分析廣告投放的效果數(shù)據(jù),大模型可以幫助企業(yè)優(yōu)化廣告內(nèi)容和投放策略。這包括確定最佳的廣告渠道、投放時間和目標(biāo)受眾,以及
    發(fā)表于 12-24 12:48

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    以及邊緣計算能力的增強,越來越多的目標(biāo)檢測應(yīng)用開始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶隱私,同時也減輕了云端服務(wù)器的壓力。然而,在邊緣端部署高效且準(zhǔn)確的目標(biāo)檢測模型
    發(fā)表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應(yīng)用大模型

    地選擇適合的模型。不同的模型具有不同的特點和優(yōu)勢。在客服領(lǐng)域,常用的模型包括循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、長短時記憶網(wǎng)絡(luò)(LSTM)、門控循環(huán)單元(GRU)、Transformer等,
    發(fā)表于 12-17 16:53

    SSM框架的優(yōu)缺點分析 SSM在移動端開發(fā)中的應(yīng)用

    SSM框架的優(yōu)缺點分析 SSM框架,即Spring、Spring MVC和MyBatis的整合,是當(dāng)前比較流行的Java開源框架之一。以下是對SSM框架優(yōu)缺點的詳細(xì)分析: 優(yōu)點 成本低
    的頭像 發(fā)表于 12-16 18:18 ?2966次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實現(xiàn)手寫數(shù)字識別

    的空間結(jié)構(gòu)信息。 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN):適用于處理序列數(shù)據(jù),比如自然語言處理中的句子或是時間序列分析中的股票價格走勢。RNN具備記憶功能,允許當(dāng)前時刻的狀態(tài)依賴于之前時刻的狀態(tài)。 長
    發(fā)表于 12-06 17:20

    CNN, RNN, GNN和Transformer模型的統(tǒng)一表示和泛化誤差理論分析

    背景介紹 本文是基于我們之前的 RPN(Reconciled Polynomial Network)研究的后續(xù)工作。在此前的研究中,我們提出了 RPN 這一通用模型架構(gòu),其包含三個組件函數(shù):數(shù)據(jù)擴(kuò)展
    的頭像 發(fā)表于 12-06 11:31 ?2125次閱讀
    CNN, <b class='flag-5'>RNN</b>, GNN和Transformer<b class='flag-5'>模型</b>的統(tǒng)一表示和泛化誤差理論<b class='flag-5'>分析</b>