曰本美女∴一区二区特级A级黄色大片, 国产亚洲精品美女久久久久久2025, 页岩实心砖-高密市宏伟建材有限公司, 午夜小视频在线观看欧美日韩手机在线,国产人妻奶水一区二区,国产玉足,妺妺窝人体色WWW网站孕妇,色综合天天综合网中文伊,成人在线麻豆网观看

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)模型在傳感器數(shù)據(jù)處理中的應(yīng)用(二):LSTM

MATLAB ? 來源:MATLAB ? 2025-02-20 10:48 ? 次閱讀

長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)是遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的一個變種,專門設(shè)計用來解決標(biāo)準(zhǔn) RNN 在處理長序列數(shù)據(jù)時遇到的梯度消失或梯度爆炸問題。標(biāo)準(zhǔn) RNN 在反向傳播過程中,由于鏈?zhǔn)椒▌t的應(yīng)用,梯度可能會在多層傳播中指數(shù)級地減?。ㄌ荻认В┗蛟龃螅ㄌ荻缺ǎ?,這使得網(wǎng)絡(luò)難以學(xué)習(xí)和記住長時間步的依賴關(guān)系。

1.遞歸神經(jīng)網(wǎng)絡(luò)(RNN)

RNN 的核心是其循環(huán)結(jié)構(gòu)。在每個時間步,RNN 不僅接收當(dāng)前輸入數(shù)據(jù),還接收前一時間步的隱藏狀態(tài),正是隱藏狀態(tài)的設(shè)計,使得網(wǎng)絡(luò)能夠記住和利用之前的信息。

e896fa42-eea9-11ef-9310-92fbcf53809c.png

圖 1 RNN 單元結(jié)構(gòu)

圖1顯示了標(biāo)準(zhǔn) RNN 的單元結(jié)構(gòu),其中輸入向量xt,輸出向量ot,隱藏狀態(tài)向量ht-1。當(dāng)前隱藏狀態(tài)向量ht的計算如下,其輸入當(dāng)前時間步向量xt和前一時間段步的隱藏狀態(tài)向量ht-1:

e89f0246-eea9-11ef-9310-92fbcf53809c.png

其中 σ 表示激活函數(shù),Wh 和 Wx 是隱藏狀態(tài)變換參數(shù)和輸入變換參數(shù),隱藏狀態(tài)負(fù)責(zé)記憶之前時間步上的信息。RNN 的輸出向量ot是對隱藏狀態(tài)做線性變換:

e8b103e2-eea9-11ef-9310-92fbcf53809c.png 其中 σ 表示激活函數(shù),Wo?輸出變換。Wh 、Wx 和 Wo 是 RNN 要學(xué)習(xí)的參數(shù)。標(biāo)準(zhǔn)的 RNN 結(jié)構(gòu)存在兩個主要問題:梯度消失(或增大);長期信息丟失。

梯度消失(或增大)在長時間序列中,梯度是消失還是增大,與選擇的激活函數(shù)有關(guān),這里我們解釋梯度消失問題。假設(shè)損失函數(shù)為 L,在反向傳播過程中,針對參數(shù) Wh的梯度計算為:

e8c27ffa-eea9-11ef-9310-92fbcf53809c.png

而?h1/?wh是通過激活函數(shù)做梯度計算,激活函數(shù)的取值范圍是[-1,1](tanh函數(shù))或[0,1](sigmod函數(shù)),因此,連續(xù)相乘會產(chǎn)生梯度消失,

長期信息丟失對當(dāng)前隱藏狀態(tài)向量產(chǎn)生影響的是當(dāng)前時間步的輸入向量和前一個時間步的隱藏狀態(tài)向量。當(dāng)前輸入數(shù)據(jù)往往是會攜帶大量信息,而隱藏狀態(tài)變量是遞歸生成的,隨著遞歸次數(shù)的增加其變化量也會較少,因此 Wx × xt 的值會大于 Wh × ht-1。

2.長短期記憶(LSTM)

LSTM 是一種新的 RNN 結(jié)構(gòu),能夠有效地保留長期信息并緩解梯度消失問題。LSTM 引入了一個記憶單元(也是單元狀態(tài)向量),用于存儲長期信息。記憶單元通過直接的線性連接在時間步之間傳遞信息,避免了梯度消失問題。LSTM 通過三個門(遺忘門、輸入門和輸出門)來控制信息在時間步間的流動量。

遺忘門: 決定記憶單元中哪些信息需要丟棄。

輸入門: 決定哪些新的信息會被加入記憶單元。

輸出門: 控制記憶單元的輸出部分如何影響最終的輸出。

LSTM 的單元結(jié)構(gòu)如圖2所示。其中,f、i、o分別是遺忘門、輸入門和輸出門,g表示候選進(jìn)入單元狀態(tài)的信息;σg 和σc表示激活函數(shù),e8cf5fa4-eea9-11ef-9310-92fbcf53809c.png?表示向量對應(yīng)元素相乘。

e8d6a7be-eea9-11ef-9310-92fbcf53809c.png

圖 2 LSTM 單元結(jié)構(gòu) 每個門對輸入數(shù)據(jù)和前一時刻的隱藏狀態(tài)向量的轉(zhuǎn)換過程可以表示為:

遺忘門:

e8ecb1c6-eea9-11ef-9310-92fbcf53809c.png

輸入門:

e8ff8594-eea9-11ef-9310-92fbcf53809c.png

輸出門:

e90bb6de-eea9-11ef-9310-92fbcf53809c.png

候選狀態(tài)單元:

e912d8ce-eea9-11ef-9310-92fbcf53809c.png

進(jìn)一步,單元狀態(tài)(cellstate)表示為:

e9235578-eea9-11ef-9310-92fbcf53809c.png

隱藏狀態(tài)(hidden state)表示為:

e9345fd0-eea9-11ef-9310-92fbcf53809c.png

一般情況下,激活函數(shù)σg 和σc分別采用tanh函數(shù)和sigmod函數(shù)。正如公式(5)所示,t時刻的單元狀態(tài)ct,是對前一時刻的單元狀態(tài)做部分遺忘,遺忘的比例由遺忘門ft 決定;并增加部分輸入數(shù)據(jù),增加的比例由輸入門決定it。而公式(6)表明,每個時間步的隱藏狀態(tài)是部分單元狀態(tài),比例部分由輸出門ot 決定。

正是由于單元狀態(tài)的引入,可以通過一條直接的路徑記住每個時間步的輸入數(shù)據(jù),也就是長期依賴關(guān)系;而輸入數(shù)據(jù)通過加法(類似于殘差)引入單元狀態(tài)中,使得反向傳播過程的梯度消失得到緩解。 ▼

3.MATLAB 對 LSTM的支持

在 MATLAB 中,lstmLayer 層實現(xiàn)了 LSTM,其提供了多個屬性用于設(shè)置和初始化 LSTM 的相關(guān)參數(shù)。

e9415596-eea9-11ef-9310-92fbcf53809c.png

MATLAB 中的 lstmLayer 及其屬性

例如NumHiddenUnits用于設(shè)置隱藏狀態(tài)向量的維度,隱藏狀態(tài)包含來自所有先前時間步的信息,其大小也決定了 LSTM 要學(xué)習(xí)的參數(shù)的規(guī)模;stateActivateFunction設(shè)置單元狀態(tài)和隱藏狀態(tài)的激活函數(shù);gateActivateFunction用于設(shè)置門操作的激活函數(shù);還有一個很重要的屬性outputMode,其有兩個值:sequence和last。LSTM 單元按時間步順序處理輸入數(shù)據(jù),輸出是當(dāng)前時間步的隱藏狀態(tài),如圖 3 所示。如果outputMode的屬性值為 sequence,每個時間步的隱藏狀態(tài)向量都會輸出,最終 lstmLayer 輸出一個隱藏狀態(tài)序列,序列長度等于輸入序列的長度;如果outputMode的屬性值為 last,那么 lstmLayer 只輸出最后一個時間步的隱藏狀態(tài)向量。由于 LSTM 是對輸入序列遞歸處理,所以最后一個時間的輸出隱藏狀態(tài)向量已經(jīng)包含其與之前所有時間步的依賴關(guān)系。

e94be542-eea9-11ef-9310-92fbcf53809c.png

圖3(a)LSTM單元的每個時間步的輸入數(shù)據(jù)和輸出數(shù)據(jù);

e95dd270-eea9-11ef-9310-92fbcf53809c.png

圖3(b) LSTM遞歸處理輸入序列,并生成相應(yīng)的輸出序列

MATLAB 還同時支持 BiLSTM(BiderectionalLong Short-Term Memory),也就是雙向 LSTM。BiLSTM 是對 LSTM 的擴(kuò)展,通過引入雙向信息流來增強(qiáng)模型的上下文捕獲能力。在 BiLSTM 中,輸入序列不僅從前向后處理(正向 LSTM),還從后向前處理(反向 LSTM)。這種雙向處理方式允許模型在每個時間步上同時考慮前后文信息,從而提高預(yù)測的準(zhǔn)確性。

類似于 lstmLayer,MATLAB 中的 bilstmLayer 實現(xiàn)了 BiLSTM。屬性NumHiddenUnits用于設(shè)置隱藏狀態(tài)向量的維度,其包含先前時間步和后續(xù)時間步的信息,而實際輸出的隱藏狀態(tài)向量維度為 2*NumHiddenUnits,即將前向和后向兩個處理過程的隱藏狀態(tài)進(jìn)行連接。 ▼

4.LSTM 在基于信號數(shù)據(jù)的故障診斷中的應(yīng)用

基于 LSTM,可以構(gòu)建分類網(wǎng)絡(luò)對設(shè)備或器件做故障診斷。LSTM 可以捕獲傳感器數(shù)據(jù)在時間上的依賴關(guān)系,進(jìn)而可以識別設(shè)備的動態(tài)特性實現(xiàn)診斷或預(yù)測。使用 Deep Network Designer App 構(gòu)建分類網(wǎng)絡(luò),如圖 4 所示。

e97003a0-eea9-11ef-9310-92fbcf53809c.png

圖4 LSTM分類網(wǎng)絡(luò)

lstmLayer 的隱藏單元向量維度設(shè)置為 128,outputMode設(shè)置為sequence,因此,lstmLayer 層的輸出是一個隱藏狀態(tài)向量序列,并且序列中的每個向量的維度為 128。在 lstmLayer 之后使用 globalMaxPooling1dLayer 層對輸出結(jié)果在時間方向上做最大值池化(這類似在傳感器數(shù)據(jù)的深度學(xué)習(xí)模型應(yīng)用(一) – Transformer中使用的方法),進(jìn)而其輸出結(jié)果為一個128維的向量,最后我們使用兩個全連接層做線性變化,最終輸出為 3 維的向量對應(yīng)于故障種類。

使用在傳感器數(shù)據(jù)的深度學(xué)習(xí)模型應(yīng)用(一) – Transformer提到的數(shù)據(jù)集,該數(shù)據(jù)集是對原始信號數(shù)據(jù)做了時域、頻域、以及時頻域的特征提取,進(jìn)而將具有 146484 采樣點一維數(shù)據(jù),轉(zhuǎn)換為 1464×30 的二維矩陣(因此,在 LSTM 分類網(wǎng)絡(luò)中輸入層的維度為 30)。數(shù)據(jù)集進(jìn)步劃分為訓(xùn)練集和測試集,如下所示:

e9835f90-eea9-11ef-9310-92fbcf53809c.png

訓(xùn)練集(上)

e98e4cde-eea9-11ef-9310-92fbcf53809c.png

測試集(下)

模型訓(xùn)練過程,MATLAB 提供了超參數(shù)選項實現(xiàn)模型的進(jìn)一步調(diào)優(yōu),而超參數(shù)選項是通過 trainingOptions 函數(shù)設(shè)置的,包括初始學(xué)習(xí)速率、學(xué)習(xí)速率衰減策略、minibatch 大小、訓(xùn)練執(zhí)行環(huán)境(GPUCPU)、訓(xùn)練周期等等。經(jīng)過 100 個 Epoch 訓(xùn)練,模型在測試集上的測試結(jié)果如圖 5 所示:

e9a2f5f8-eea9-11ef-9310-92fbcf53809c.png

圖 5 模型訓(xùn)練過程(上)

e9b7ae1c-eea9-11ef-9310-92fbcf53809c.png

圖 5測試集精度(heatmap)(下)

5. 總結(jié)

本文的目的主要是介紹 Long-shortterm memory(LSTM),以及 MATLAB 對 LSTM 支持和如何在 MATLAB 中構(gòu)建基于 LSTM 的分類網(wǎng)絡(luò)。當(dāng)然基于 LSTM 還可以構(gòu)建回歸網(wǎng)絡(luò),實現(xiàn)序列到一個值和序列到序列的預(yù)測。本文目的是給讀者在序列數(shù)據(jù)分析提供一種思路,文中的模型設(shè)計和訓(xùn)練還有可以優(yōu)化地方,僅為讀者提供參考,也歡迎大家做進(jìn)一步模型結(jié)構(gòu)調(diào)整和精度提升。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2561

    文章

    52286

    瀏覽量

    762278
  • matlab
    +關(guān)注

    關(guān)注

    188

    文章

    2990

    瀏覽量

    232929
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    60

    瀏覽量

    3951

原文標(biāo)題:傳感器數(shù)據(jù)的深度學(xué)習(xí)模型應(yīng)用(二)—— LSTM

文章出處:【微信號:MATLAB,微信公眾號:MATLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長短期記憶網(wǎng)絡(luò))模型深度學(xué)習(xí)領(lǐng)域都具有處理序列
    的頭像 發(fā)表于 11-15 10:05 ?1821次閱讀

    NPU深度學(xué)習(xí)的應(yīng)用

    設(shè)計的硬件加速,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1581次閱讀

    深度學(xué)習(xí)框架LSTM神經(jīng)網(wǎng)絡(luò)實現(xiàn)

    長短期記憶(LSTM)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),能夠學(xué)習(xí)長期依賴信息。與傳統(tǒng)的RNN相比,LSTM通過引入門控機(jī)制來解決梯度消失和梯度爆炸問題,使其
    的頭像 發(fā)表于 11-13 10:16 ?834次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)圖像處理的應(yīng)用

    長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠學(xué)習(xí)長期依賴關(guān)系。雖然LSTM最初是為處理序列數(shù)據(jù)設(shè)計的,但近年來,
    的頭像 發(fā)表于 11-13 10:12 ?1287次閱讀

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型

    : NumPy:用于數(shù)學(xué)運算。 TensorFlow:一個開源機(jī)器學(xué)習(xí)庫,Keras是其高級API。 Keras:用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型。 你可以使用pip來安裝這些庫: pip
    的頭像 發(fā)表于 11-13 10:10 ?1255次閱讀

    如何優(yōu)化LSTM神經(jīng)網(wǎng)絡(luò)的性能

    LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠學(xué)習(xí)長期依賴關(guān)系,因此序列數(shù)據(jù)處理中非常有效。然而,LSTM網(wǎng)絡(luò)的訓(xùn)練可能面臨梯度消失或
    的頭像 發(fā)表于 11-13 10:09 ?2137次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)語音識別的應(yīng)用實例

    語音識別技術(shù)是人工智能領(lǐng)域的一個重要分支,它使計算機(jī)能夠理解和處理人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)的引入,語音識別的準(zhǔn)確性和效率得到了顯著提升。
    的頭像 發(fā)表于 11-13 10:03 ?1537次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的一個重要分支,它旨在使計算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長短期記憶(LSTM)網(wǎng)
    的頭像 發(fā)表于 11-13 09:56 ?907次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)時間序列預(yù)測的應(yīng)用

    時間序列預(yù)測是數(shù)據(jù)分析的一個重要領(lǐng)域,它涉及到基于歷史數(shù)據(jù)預(yù)測未來值。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,長短期記憶(
    的頭像 發(fā)表于 11-13 09:54 ?1678次閱讀

    維力傳感器測量扭力原理,扭力測量的優(yōu)勢應(yīng)用

    維力傳感器是一種能夠同時測量物體兩個獨立方向上所承受的力的設(shè)備。它采用了先進(jìn)的應(yīng)變計技術(shù)和微電子機(jī)械系統(tǒng)(MEMS)技術(shù),將傳感器的敏感元件與數(shù)
    的頭像 發(fā)表于 09-27 16:47 ?553次閱讀
    <b class='flag-5'>二</b>維力<b class='flag-5'>傳感器</b>測量扭力原理,<b class='flag-5'>在</b>扭力測量<b class='flag-5'>中</b>的優(yōu)勢應(yīng)用

    深度學(xué)習(xí)模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型
    的頭像 發(fā)表于 07-04 11:49 ?3546次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    詳細(xì)介紹深度學(xué)習(xí)模型訓(xùn)練的全過程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過程
    的頭像 發(fā)表于 07-01 16:13 ?2206次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型訓(xùn)練過程,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度
    的頭像 發(fā)表于 07-01 11:41 ?1448次閱讀

    振弦采集儀巖土工程監(jiān)測數(shù)據(jù)處理與結(jié)果展示

    的穩(wěn)定性。 振弦采集儀巖土工程監(jiān)測數(shù)據(jù)處理與結(jié)果展示 振弦采集儀通過安裝在土體的振弦傳感器,可以對土體的振動信號進(jìn)行實時采集。采集到
    的頭像 發(fā)表于 05-14 16:41 ?425次閱讀
    振弦采集儀<b class='flag-5'>在</b>巖土工程監(jiān)測<b class='flag-5'>中</b>的<b class='flag-5'>數(shù)據(jù)處理</b>與結(jié)果展示

    助聽器降噪神經(jīng)網(wǎng)絡(luò)模型

    層有 256 個過濾器。訓(xùn)練期間, LSTM 層之間應(yīng)用 25% 的 dropout。使用 Adam 優(yōu)化,學(xué)習(xí)率為 10e-3,梯
    發(fā)表于 05-11 17:15