chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一文讀懂LSTM與RNN:從原理到實戰(zhàn),掌握序列建模核心技術

穎脈Imgtec ? 2025-12-09 13:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI 領域,文本翻譯、語音識別、股價預測等場景都離不開序列數(shù)據(jù)處理。循環(huán)神經(jīng)網(wǎng)絡(RNN)作為最早的序列建模工具,開創(chuàng)了 “記憶歷史信息” 的先河;而長短期記憶網(wǎng)絡(LSTM)則通過創(chuàng)新設計,突破了 RNN 的核心局限。今天,我們從原理、梯度推導到實踐,全面解析這兩大經(jīng)典模型。


一、基礎鋪墊:RNN 的核心邏輯與痛點

RNN 的核心是讓模型 “記住過去”—— 通過隱藏層的循環(huán)連接,將前一時刻的信息傳遞到當前時刻,從而捕捉序列的時序關聯(lián)。但這種 “全記憶” 設計,也埋下了梯度消失的隱患。

1.1 核心結構與參數(shù)

ca571890-d4c3-11f0-8ce9-92fbcf53809c.jpgca7a1020-d4c3-11f0-8ce9-92fbcf53809c.png
RNN 結構簡化為 “輸入層 - 隱藏層 - 輸出層”,關鍵組件如下:

  • 輸入:Xt(第 t 時刻輸入,如文本中的詞向量)
  • 隱藏狀態(tài):St(存儲截至 t 時刻的歷史信息,核心記憶載體)
  • 輸出:Ot(第 t 時刻預測結果,如分類標簽
  • 共享參數(shù)(所有時間步復用):Wx:輸入→隱藏層權重矩陣(維度:隱藏層維度 × 輸入維度)Ws:隱藏層→自身的循環(huán)權重矩陣(維度:隱藏層維度 × 隱藏層維度,關鍵)Wo:隱藏層→輸出層權重矩陣(維度:輸出維度 × 隱藏層維度)偏置:b?(隱藏層偏置,維度:隱藏層維度 ×1)、b?(輸出層偏置,維度:輸出維度 ×1)
  • 激活函數(shù):隱藏層用 tanh(值縮至 [-1,1]),輸出層用 Softmax(分類)或線性激活(回歸)

1.2 前向傳播:信息如何流動?

前向傳播是 “輸入→輸出” 的計算過程,每個時間步的結果依賴前一時刻的隱藏狀態(tài)(以下基于標量簡化,向量場景邏輯一致):更新隱藏狀態(tài)

ca993266-d4c3-11f0-8ce9-92fbcf53809c.png

當前記憶 St由 “當前輸入 Xt” 和 “歷史記憶 St-1” 共同決定,tanh 確保狀態(tài)值在合理范圍。計算輸出

cab17e02-d4c3-11f0-8ce9-92fbcf53809c.png

輸出僅依賴當前記憶St,體現(xiàn) “歷史信息已壓縮到St中”。示例若序列長度為 3(t=1,2,3),初始狀態(tài) S?=0(無歷史信息):

cac8cd0a-d4c3-11f0-8ce9-92fbcf53809c.png

1.3 反向傳播(BPTT)與梯度推導

模型訓練依賴時間反向傳播(BPTT):通過鏈式法則回溯所有時間步,計算損失對參數(shù)的梯度,再用梯度下降更新參數(shù)。假設損失函數(shù)為交叉熵損失 Loss = L (Ot, yt)(yt為 T 時刻真實標簽),核心是推導 Loss 對 Wx、Ws、Wo的梯度。1.3.1 核心梯度推導步驟步驟 1:計算 Loss 對輸出Ot的梯度若輸出層用 Softmax 激活 + 交叉熵損失,對單個樣本有:

cae46f38-d4c3-11f0-8ce9-92fbcf53809c.png

當i=j時,等于:

cafe18de-d4c3-11f0-8ce9-92fbcf53809c.png

當i≠j時,等于:

cb167ba4-d4c3-11f0-8ce9-92fbcf53809c.png

所以,softmax函數(shù)的導數(shù)可以表示為:

cb2ca046-d4c3-11f0-8ce9-92fbcf53809c.png

我們只需要將softmax層的輸出pi,pj代入上面的公式就可以做求導計算了。在多分類任務中,我們通常使用交叉熵損失函數(shù)(cross-entropy loss function)來評估模型的性能。交叉熵損失函數(shù)的定義如下:

cb4cec48-d4c3-11f0-8ce9-92fbcf53809c.png

其中yj是真實標簽的one??ot向量,pj是softmax函數(shù)的輸出。交叉熵損失函數(shù)的作用是衡量模型的預測概率p和真實標簽y之間的差異。交叉熵損失越小,表示模型的預測值越接近真實的標簽。經(jīng)驗告訴我們,當使用softmax函數(shù)作為輸出層激活函數(shù)時,最好使用交叉熵作為其損失函數(shù),這是因為交叉熵和softmax函數(shù)的結合可以簡化反向傳播的計算。為了證明這一點,我們對交叉熵函數(shù)求導:

cb73aba8-d4c3-11f0-8ce9-92fbcf53809c.png

其中?pj/?zi就是上文推導的softmax的導數(shù),將其代入式中可得:

cb8c4f00-d4c3-11f0-8ce9-92fbcf53809c.png

所以y是one-hot向量,所以:

cba7c488-d4c3-11f0-8ce9-92fbcf53809c.png

最后,化簡得到的交叉熵函數(shù)的求導公式:

cbca6772-d4c3-11f0-8ce9-92fbcf53809c.png

步驟 2:計算 Loss 對隱藏狀態(tài) S?的梯度隱藏狀態(tài)St同時影響當前輸出Ot和下一時刻隱藏狀態(tài) St+1,因此梯度需分兩部分:

cc343800-d4c3-11f0-8ce9-92fbcf53809c.png

拆解導數(shù)項:

cc504914-d4c3-11f0-8ce9-92fbcf53809c.png

由St+1=tanh(WxXt+1+WsSt+b1)求導:tanh'(x)=1?tanh2(x)因此遞推公式為:

cc6ebe62-d4c3-11f0-8ce9-92fbcf53809c.png

(向量場景需轉置)步驟 3:計算 Loss 對參數(shù)的梯度對 Wo的梯度:

cc8ddc98-d4c3-11f0-8ce9-92fbcf53809c.png

(向量場景下為外積)對 Wx的梯度:W?在所有時間步共享,需累加各時間步貢獻:

ccaa8b18-d4c3-11f0-8ce9-92fbcf53809c.png

對Ws的梯度:同理,Ws的梯度為各時間步貢獻的累加:

ccc1d9d0-d4c3-11f0-8ce9-92fbcf53809c.png

1.3.2 梯度消失的核心原因:累乘衰減

從Ws的梯度公式可見,遠時刻(如 t=1)對梯度的貢獻需經(jīng)過多次 tanh'(Sk)?Ws的累乘(k 從 2 到 T):tanh'(Sk) ∈ [0,1](tanh 導數(shù)特性,最大值為 1,多數(shù)時刻小于 0.5)|Ws| < 1(為避免數(shù)值爆炸,初始化時會限制權重范圍)導致累乘項隨時間步指數(shù)級衰減,例如:若tanh'(Sk)=0.5,|Ws|=0.8,序列長度T=10,則累乘項 =(0.5×0.8)^9≈0.00026,遠時刻梯度趨近于 0,模型無法捕捉長期依賴


突破局限:LSTM 的創(chuàng)新設計與梯度推導

1997 年提出的 LSTM,通過“記憶細胞 + 門控機制”實現(xiàn) “選擇性記憶”—— 保留重要信息、過濾噪聲,從根本上緩解梯度消失。

2.1 核心結構:三門 + 記憶細胞

ccd7eb12-d4c3-11f0-8ce9-92fbcf53809c.png

LSTM 的核心是 “記憶細胞(C?)” 和三個門控,分工明確(以下基于標量簡化):

組件

功能

激活函數(shù)

參數(shù)(權重 + 偏置)

記憶細胞 Ct

長期記憶載體,狀態(tài)平緩更新

依賴門控參數(shù)

遺忘門 ft

控制保留多少歷史細胞狀態(tài) Ct-1

σ(Sigmoid,輸出[0,1])

Wxf、W?f、bf

更新門 it

控制加入多少新信息到 Ct

σ(輸出 [0,1])

Wxi、W?i、bi

候選記憶 gt

生成當前時刻的新候選信息

tanh(輸出[-1,1])

Wxg、W?g、bg

輸出門 ot

控制 Ct輸出到隱藏狀態(tài) ht的比例

σ(輸出 [0,1])

Wxo、W?o、bo

隱藏狀態(tài) ht

短期記憶,用于當前輸出

tanh(輸出[-1,1])

Wyo、bo

?

元素相乘

元素相加

σ 函數(shù)輸出 [0,1],完美適配 “門控控制”(1 = 完全保留,0 = 完全過濾);tanh 確保信息值在合理范圍

2.2 前向傳播:5 步完成記憶更新

LSTM 的前向傳播圍繞 “記憶細胞更新” 展開,步驟清晰:遺忘門:決定 “丟什么”ft=σ(Wxf?Xt+W?f??t?1+bf)例:ft=0.9→保留 90% 歷史記憶Ct?1;ft=0.1→過濾 90% 舊信息。更新門 + 候選記憶:決定 “加什么”更新門:it=σ(Wxi?Xt+W?i?ht?1+bi)(控制新信息的權重)候選記憶:gt=tanh(Wxg?Xt+W?g?ht?1+bg)(當前時刻的新信息)更新記憶細胞:“丟舊 + 加新”Ct=Ct?1?ft+gt?it?為對應元素相乘,Ct同時承載 “長期歷史Ct?1?ft” 和 “當前新信息gt?it”。輸出門:決定 “輸出什么”ot=σ(Wxo?Xt+W?o??t?1+bo)生成隱藏狀態(tài)與輸出ht=ot?tanh (Ct)(tanh 將Ct縮至 [-1,1],再通過ot過濾)yt=Wy???t+by(最終預測結果,分類任務需加 Softmax)

2.3 反向傳播與梯度推導

LSTM 的反向傳播仍基于 BPTT,但需同時更新三門參數(shù)和記憶細胞相關梯度,核心是確保記憶細胞 C?的梯度穩(wěn)定傳遞。假設損失 Loss = L (yt,y't)(y't為真實標簽),以下為關鍵梯度推導。

2.3.1 核心梯度 1:Loss 對記憶細胞 C?的導數(shù)

記憶細胞Ct同時影響當前隱藏狀態(tài)?t和下一時刻記憶細胞Ct+1,梯度公式為:

ccf0daf0-d4c3-11f0-8ce9-92fbcf53809c.png

拆解導數(shù)項:?Loss/??t:損失對隱藏狀態(tài)的梯度,由輸出層反向推導:

cd08145e-d4c3-11f0-8ce9-92fbcf53809c.png

(包含當前輸出和下一時刻四門的貢獻)??t/?Ct=ot?tanh'(Ct)(由?t=ot?tanh (Ct)求導)?Ct+1/?Ct=ft+1(由Ct+1=Ct?ft+1+gt+1?it+1求導)最終遞推公式:

cd235aa2-d4c3-11f0-8ce9-92fbcf53809c.png

2.3.2 核心梯度 2:Loss 對門控參數(shù)的導數(shù)(以遺忘門為例)遺忘門參數(shù)(Wxf、Whf、bf)的梯度需通過鏈式法則推導:先求 Loss 對遺忘門輸出ft的梯度:

cd367d62-d4c3-11f0-8ce9-92fbcf53809c.png

再求 Loss 對遺忘門權重 Wxf的梯度:

cd50e896-d4c3-11f0-8ce9-92fbcf53809c.png

(σ函數(shù)導數(shù)為σ(x)?(1-σ(x)),此處 ft=σ(...),故?ft/?Wxf?ft?(1?ft)?Xt)同理,Loss對Whf的梯度:

cd6e2078-d4c3-11f0-8ce9-92fbcf53809c.png

更新門、輸出門、候選記憶的參數(shù)梯度推導邏輯一致,最終所有參數(shù)通過梯度下降(如 Adam 優(yōu)化器)更新。2.3.3 LSTM 如何緩解梯度消失?對比 RNN 的梯度路徑,LSTM 的記憶細胞梯度傳遞具有決定性優(yōu)勢:從?Loss?Ct的遞推公式可見,當模型需要保留長期信息時,會通過參數(shù)學習使遺忘門ft+1≈1,此時:

cd886212-d4c3-11f0-8ce9-92fbcf53809c.png

由于 tanh'(Ct)∈[0,1],ot∈[0,1],但核心是?Loss/?Ct+1直接傳遞到?Loss/?Ct,無指數(shù)級衰減。即使序列長度達到 100+,遠時刻(如 t=1)的梯度仍能穩(wěn)定傳遞到當前時刻(如 t=100),從而有效捕捉長期依賴。

關鍵補充:模型如何 “學習” 讓ft+1≈1?

遺忘門ft+1的輸出由以下公式?jīng)Q定:ft+1=σ(Wxf?Xt+1+W?f??t+bf)
其中σ是 Sigmoid 函數(shù),當輸入值>2 時,σ(x)≈0.95(接近1)。模型通過以下兩種方式學習讓ft+1≈1:

初始化階段:設置遺忘門偏置 bf>0

工程實踐中,會將遺忘門的偏置bf初始化為1~2(而非默認0),此時即使Wxf?Xt+1+W?f??t=0,ft+1=σ(bf)≈0.73(已較高),為后續(xù)學習 “保留長期信息” 奠定基礎。訓練階段:通過損失反向調整參數(shù)當模型因 “未保留遠時刻信息” 導致 Loss 升高時,反向傳播會調整Wxf、W?f、bf的取值:若 t=1 的信息對 t=100 的預測很重要,但當前f2=0.1(過濾了 t=1 的信息),則 Loss 會增大;反向傳播時,?Loss/?f2為正值(增加f2可降低 Loss),進而通過?Loss/?Wf調整權重,使f2增大;反復迭代后,模型會學習到 “對重要的長期信息,讓ft+1≈1。


三、RNN vs LSTM:怎么選?

兩大模型各有優(yōu)劣,需結合場景匹配:

維度

循環(huán)神經(jīng)網(wǎng)絡(RNN)

長短期記憶網(wǎng)絡(LSTM)

記憶能力

僅短期依賴

長期依賴(序列長度 100+)

梯度問題

易出現(xiàn)梯度消失,遠時刻信息丟失

記憶細胞梯度穩(wěn)定,緩解梯度消失

模型復雜度

低(僅 3 組核心參數(shù):W?、W?、W?)

高(9 組核心參數(shù):3 門 ×3 組權重 + 輸出層權重)

參數(shù)數(shù)量

少(如隱藏層維度 H=128,輸入維度 D=64,參數(shù)量≈1282+128×64=24576)

多(同上述維度,參數(shù)量≈4×(1282+128×64)=98304,約為 RNN 的 4 倍)

計算效率

快(前向 / 反向傳播步驟少)

慢(門控計算多)

訓練難度

低(參數(shù)少,收斂快,易實現(xiàn))

高(參數(shù)多,易過擬合,需更多數(shù)據(jù)和正則化)

核心優(yōu)勢

結構簡單、訓練速度快、資源占用低

魯棒性強、長期依賴捕捉能力突出、任務精度高



四、工程實踐小貼士4.1 模型選擇策略先簡后繁:先用 RNN 驗證短序列任務可行性,若精度不達標(如測試集準確率 < 85%),再替換為 LSTM;折中方案:若 LSTM 計算壓力大,可選用 GRU(門控循環(huán)單元)—— 簡化為重置門和更新門 2 個門,參數(shù)量比 LSTM 少 25%,性能接近 LSTM;

數(shù)據(jù)適配:若序列長度差異大(如文本長度 5-200 詞),可采用 “截斷 + 填充”(固定序列長度)或 “動態(tài)批處理”(同批次序列長度一致)。4.2 LSTM 性能優(yōu)化技巧參數(shù)裁剪:隱藏層維度從 256 降至 128,參數(shù)量減少 75%,訓練速度提升 2-3 倍;序列分段:將長序列(如 1000 幀音頻)拆分為 10 個 100 幀子序列,采用 “滾動預測” 拼接結果;量化訓練:將 32 位浮點數(shù)參數(shù)轉為 16 位半精度,顯存占用減少 50%,推理速度提升 1.5 倍;正則化:添加 Dropout(隱藏層 dropout 率 0.2-0.5)、L2 正則化(權重衰減系數(shù) 1e-4),緩解過擬合。

4.3 常見問題排查

問題現(xiàn)象

可能原因

解決方案

訓練 loss 不下降

1. 學習率過高 / 過低2. 梯度消失(LSTM 遺忘門ft過小)

1. 調整學習率(如 Adam優(yōu)化器默認 0.001,可嘗試0.0001-0.01)2. 初始化遺忘門偏置bf為1-2(使ft初始值接近 1)

測試集 loss 波動大

1. 數(shù)據(jù)量不足2. 序列長度分布不均

1. 數(shù)據(jù)增強(如文本同義詞替換、時序數(shù)據(jù)加噪)2. 按序列長度分組訓練,平衡各長度樣本占比

總結RNN 作為序列建模的 “基石”,以簡單的循環(huán)結構開創(chuàng)了歷史信息復用的思路,但受限于梯度消失無法處理長序列;LSTM 則通過記憶細胞和門控機制的創(chuàng)新,從梯度傳遞路徑上解決了長期依賴問題,成為長序列任務的經(jīng)典方案。盡管當前 Transformer(如 BERT、GPT)在多數(shù)序列任務中表現(xiàn)更優(yōu),但 RNN 和 LSTM 的核心思想(時序關聯(lián)捕捉、選擇性記憶)仍是理解復雜序列模型的基礎,也是 AI 工程師在資源受限場景下的重要選擇。你在項目中用過 RNN 或 LSTM 嗎?遇到過哪些訓練難題?歡迎在評論區(qū)分享你的實踐經(jīng)驗!

本文轉自:秦芯智算

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4838

    瀏覽量

    107873
  • rnn
    rnn
    +關注

    關注

    0

    文章

    92

    瀏覽量

    7356
  • LSTM
    +關注

    關注

    0

    文章

    63

    瀏覽量

    4390
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    藍牙核心技術概述

    藍牙核心技術概述():藍牙概述藍牙核心技術概述(二):藍牙使用場景藍牙核心技術概述(三): 藍牙協(xié)議規(guī)范(射頻、基帶鏈路控制、鏈路管理)藍牙核心技
    發(fā)表于 11-24 16:06

    FPGA也能做RNN

    進行了測試。該實現(xiàn)比嵌入在Zynq 7020 FPGA上的ARM Cortex-A9 CPU快了21倍。LSTM種特殊的RNN,由于獨特的設計結構,LSTM適合于處理和預測時間
    發(fā)表于 07-31 10:11

    PTB數(shù)據(jù)集建立語言模型

    實戰(zhàn)Google深度學習框架》之RNN學習筆記2 LSTM對PTB數(shù)據(jù)集的建模
    發(fā)表于 09-26 16:21

    放棄 RNNLSTM 吧,它們真的不好用

    2014 年 RNN/LSTM 起死回生。自此,RNN/LSTM 及其變種逐漸被廣大用戶接受和認可。起初,LSTM
    的頭像 發(fā)表于 04-25 09:43 ?2.1w次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(RNN)和(LSTM)初學者指南

    最近,有篇入門文章引發(fā)了不少關注。文章中詳細介紹了循環(huán)神經(jīng)網(wǎng)絡(RNN),及其變體長短期記憶(LSTM)背后的原理。
    發(fā)表于 02-05 13:43 ?1376次閱讀

    中國尚未掌握核心技術清單

    什么時候中國能把稀土玩到美日層次,什么時候就掌握了目前50%未掌握核心技術。
    的頭像 發(fā)表于 05-22 14:31 ?7251次閱讀

    RNN以及LSTM

    循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)是種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡。相比般的神經(jīng)網(wǎng)絡來說,他能夠處理序列
    的頭像 發(fā)表于 03-15 10:44 ?2554次閱讀

    如何理解RNNLSTM神經(jīng)網(wǎng)絡

    在深入探討RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡)與LSTM(Long Short-Term Memory,長短期記憶網(wǎng)絡)神經(jīng)網(wǎng)絡之前,我們首先需要明確它們
    的頭像 發(fā)表于 07-09 11:12 ?2174次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,
    的頭像 發(fā)表于 11-13 09:53 ?2864次閱讀

    LSTM神經(jīng)網(wǎng)絡在時間序列預測中的應用

    時間序列預測是數(shù)據(jù)分析中的個重要領域,它涉及到基于歷史數(shù)據(jù)預測未來值。隨著深度學習技術的發(fā)展,長短期記憶(LSTM)神經(jīng)網(wǎng)絡因其在處理序列
    的頭像 發(fā)表于 11-13 09:54 ?2970次閱讀

    使用LSTM神經(jīng)網(wǎng)絡處理自然語言處理任務

    ,NLP任務的處理能力得到了顯著提升。 LSTM網(wǎng)絡簡介 LSTM網(wǎng)絡是種特殊的RNN,它通過引入門控機制來解決傳統(tǒng)RNN在處理長
    的頭像 發(fā)表于 11-13 09:56 ?1963次閱讀

    LSTM神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    序列數(shù)據(jù)時的優(yōu)越性能而受到廣泛關注,特別是在自然語言處理(NLP)、語音識別和時間序列預測等領域。 LSTM的優(yōu)點 1. 記憶能力 LSTM核心
    的頭像 發(fā)表于 11-13 09:57 ?6242次閱讀

    LSTM神經(jīng)網(wǎng)絡與傳統(tǒng)RNN的區(qū)別

    在深度學習領域,循環(huán)神經(jīng)網(wǎng)絡(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這
    的頭像 發(fā)表于 11-13 09:58 ?1952次閱讀

    如何使用RNN進行時間序列預測

    種強大的替代方案,能夠學習數(shù)據(jù)中的復雜模式,并進行準確的預測。 RNN的基本原理 RNN種具有循環(huán)結構的神經(jīng)網(wǎng)絡,它能夠處理序列數(shù)據(jù)。
    的頭像 發(fā)表于 11-15 09:45 ?1600次閱讀

    RNNLSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡)與LSTM(長短期記憶網(wǎng)絡)模型在深度學習領域都具有處理序列數(shù)據(jù)的能力,但它們在結構、功能和應用上存在顯著的差異。以下是對RNN
    的頭像 發(fā)表于 11-15 10:05 ?3242次閱讀