曰本美女∴一区二区特级A级黄色大片, 国产亚洲精品美女久久久久久2025, 页岩实心砖-高密市宏伟建材有限公司, 午夜小视频在线观看欧美日韩手机在线,国产人妻奶水一区二区,国产玉足,妺妺窝人体色WWW网站孕妇,色综合天天综合网中文伊,成人在线麻豆网观看

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)類型和應(yīng)用實(shí)例

CHANBAEK ? 來源:網(wǎng)絡(luò)整理 ? 2024-07-02 11:33 ? 次閱讀

引言

神經(jīng)網(wǎng)絡(luò)模型,作為深度學(xué)習(xí)領(lǐng)域的核心組成部分,近年來在圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等多個(gè)領(lǐng)域取得了顯著進(jìn)展。本文旨在深入解讀神經(jīng)網(wǎng)絡(luò)的基本原理、結(jié)構(gòu)類型、訓(xùn)練過程以及應(yīng)用實(shí)例,為初學(xué)者提供一份詳盡的入門指南。

一、神經(jīng)網(wǎng)絡(luò)基礎(chǔ)概念

1.1 神經(jīng)網(wǎng)絡(luò)定義

神經(jīng)網(wǎng)絡(luò)是一種模擬生物神經(jīng)系統(tǒng),尤其是人腦神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)計(jì)算模型。它由大量簡(jiǎn)單的處理單元(神經(jīng)元)組成,這些神經(jīng)元之間通過權(quán)重連接,形成復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)通過學(xué)習(xí)和訓(xùn)練,能夠處理復(fù)雜的數(shù)據(jù)并做出預(yù)測(cè)或分類。

1.2 神經(jīng)元模型

神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元,其數(shù)學(xué)模型基于生物神經(jīng)元的結(jié)構(gòu)和功能。一個(gè)典型的神經(jīng)元包括輸入、權(quán)重、偏置、激活函數(shù)和輸出五個(gè)部分。輸入數(shù)據(jù)通過加權(quán)求和,加上偏置后,通過激活函數(shù)處理得到輸出。激活函數(shù)引入非線性,使得神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)復(fù)雜的非線性關(guān)系。

二、神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)類型

2.1 前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network, FNN)

前饋神經(jīng)網(wǎng)絡(luò)是最基本的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)之一,其信息在網(wǎng)絡(luò)中單向流動(dòng),從輸入層經(jīng)過隱藏層到達(dá)輸出層,沒有循環(huán)連接。前饋神經(jīng)網(wǎng)絡(luò)適合處理靜態(tài)數(shù)據(jù),如圖像分類、手寫數(shù)字識(shí)別等。

  • 感知機(jī)(Perceptron) :最簡(jiǎn)單的前饋神經(jīng)網(wǎng)絡(luò),僅包含一層神經(jīng)元,用于線性分類。
  • 多層感知機(jī)(Multilayer Perceptron, MLP) :包含多個(gè)隱藏層,可以學(xué)習(xí)非線性關(guān)系,提高模型表達(dá)能力。

2.2 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)

卷積神經(jīng)網(wǎng)絡(luò)特別擅長(zhǎng)處理空間數(shù)據(jù),如圖像和視頻。它通過卷積層、池化層和全連接層等結(jié)構(gòu),提取圖像中的特征,并進(jìn)行分類或識(shí)別。

  • 經(jīng)典模型 :LeNet(手寫數(shù)字識(shí)別)、AlexNet(2012年ImageNet競(jìng)賽冠軍)、VGGNet(更深層的CNN模型)、ResNet(通過殘差連接解決深層網(wǎng)絡(luò)訓(xùn)練困難的問題)。

2.3 循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)

循環(huán)神經(jīng)網(wǎng)絡(luò)能夠處理時(shí)序數(shù)據(jù),如自然語(yǔ)言、語(yǔ)音信號(hào)等。它通過循環(huán)連接,記憶之前的信息,并將其應(yīng)用于當(dāng)前的輸入,適合處理序列數(shù)據(jù)。

  • 變體 :長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)和門控循環(huán)單元(GRU),它們解決了RNN的梯度消失問題,能夠?qū)W習(xí)長(zhǎng)期依賴關(guān)系。

2.4 其他神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

除了上述三種主要類型外,還有自動(dòng)編碼器(Auto Encoder, AE)、生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)等結(jié)構(gòu),它們?cè)跀?shù)據(jù)降維、圖像生成等領(lǐng)域有著廣泛的應(yīng)用。

三、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程

3.1 初始化參數(shù)

在訓(xùn)練開始前,需要初始化神經(jīng)網(wǎng)絡(luò)中的權(quán)重和偏置參數(shù)。常見的初始化方法包括隨機(jī)初始化、Xavier初始化和He初始化等。這些方法有助于打破對(duì)稱性,使得不同隱藏單元可以學(xué)習(xí)到不同的特征。

3.2 前向傳播

前向傳播是指將輸入數(shù)據(jù)通過神經(jīng)網(wǎng)絡(luò)逐層計(jì)算得到輸出結(jié)果的過程。在這個(gè)過程中,數(shù)據(jù)通過每一層的神經(jīng)元,經(jīng)過加權(quán)求和、加偏置和激活函數(shù)處理后,得到該層的輸出。

3.3 計(jì)算損失

損失函數(shù)用于衡量模型預(yù)測(cè)值與真實(shí)值之間的差異。常見的損失函數(shù)包括均方誤差(MSE)和交叉熵(Cross-Entropy)等。通過計(jì)算損失值,可以評(píng)估模型的性能并指導(dǎo)后續(xù)的訓(xùn)練過程。

3.4 反向傳播

反向傳播是神經(jīng)網(wǎng)絡(luò)訓(xùn)練的核心過程。它利用鏈?zhǔn)椒▌t計(jì)算損失函數(shù)對(duì)于每個(gè)參數(shù)的梯度,并從輸出層向輸入層逐層傳播這些梯度信息。通過反向傳播算法,可以調(diào)整神經(jīng)網(wǎng)絡(luò)中的參數(shù),使損失函數(shù)盡量減小。

3.5 參數(shù)更新

根據(jù)反向傳播得到的梯度信息,使用優(yōu)化算法(如梯度下降)來更新神經(jīng)網(wǎng)絡(luò)中的參數(shù)。參數(shù)更新的目標(biāo)是使損失函數(shù)逐漸減小,從而提高模型的性能。

3.6 迭代優(yōu)化

重復(fù)進(jìn)行前向傳播、計(jì)算損失、反向傳播和參數(shù)更新的過程,直到達(dá)到設(shè)定的停止條件(如達(dá)到最大迭代次數(shù)或損失函數(shù)收斂)。通過迭代優(yōu)化過程,可以逐步提高模型的性能并使其達(dá)到最優(yōu)狀態(tài)。

四、神經(jīng)網(wǎng)絡(luò)應(yīng)用實(shí)例

4.1 圖像識(shí)別

神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別領(lǐng)域取得了顯著進(jìn)展。通過訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型,可以實(shí)現(xiàn)對(duì)圖像中物體的自動(dòng)識(shí)別和分類。例如,在人臉識(shí)別、物體檢測(cè)和圖像分類等任務(wù)中,神經(jīng)網(wǎng)絡(luò)模型都表現(xiàn)出了優(yōu)異的性能。
語(yǔ)言處理

4.2 自然語(yǔ)言處理(Natural Language Processing, NLP)

自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠理解和生成人類語(yǔ)言。神經(jīng)網(wǎng)絡(luò)模型,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體(如LSTM和GRU),在自然語(yǔ)言處理中發(fā)揮著至關(guān)重要的作用。

4.2.1 文本分類

文本分類是NLP中的一個(gè)基礎(chǔ)任務(wù),旨在將文本數(shù)據(jù)自動(dòng)分類到預(yù)定義的類別中。例如,情感分析可以判斷文本表達(dá)的情感是正面、負(fù)面還是中性;新聞分類可以將新聞文章自動(dòng)歸類到不同的主題下。通過訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,可以學(xué)習(xí)文本中的特征,并據(jù)此進(jìn)行分類決策。

4.2.2 序列標(biāo)注

序列標(biāo)注任務(wù)要求模型對(duì)文本中的每個(gè)元素(如單詞或字符)進(jìn)行標(biāo)注,以識(shí)別出文本中的特定結(jié)構(gòu)或信息。常見的序列標(biāo)注任務(wù)包括命名實(shí)體識(shí)別(NER)、詞性標(biāo)注(POS Tagging)和句法分析等。神經(jīng)網(wǎng)絡(luò)模型,特別是雙向LSTM結(jié)合CRF(條件隨機(jī)場(chǎng))的結(jié)構(gòu),在序列標(biāo)注任務(wù)中表現(xiàn)出色。

4.2.3 機(jī)器翻譯

機(jī)器翻譯是將一種語(yǔ)言的文本自動(dòng)轉(zhuǎn)換為另一種語(yǔ)言的過程。神經(jīng)網(wǎng)絡(luò)模型,特別是基于序列到序列(Seq2Seq)框架的模型,如Transformer,在機(jī)器翻譯領(lǐng)域取得了突破性進(jìn)展。這些模型能夠?qū)W習(xí)源語(yǔ)言和目標(biāo)語(yǔ)言之間的復(fù)雜映射關(guān)系,并生成流暢的翻譯結(jié)果。

4.2.4 文本生成

文本生成是NLP中的另一個(gè)重要任務(wù),旨在生成符合語(yǔ)法和語(yǔ)義規(guī)則的文本。這包括生成文章、對(duì)話、詩(shī)歌等多種形式的文本。神經(jīng)網(wǎng)絡(luò)模型,特別是基于生成對(duì)抗網(wǎng)絡(luò)(GAN)和變分自編碼器(VAE)的模型,在文本生成領(lǐng)域展現(xiàn)出強(qiáng)大的潛力。這些模型能夠?qū)W習(xí)文本數(shù)據(jù)的分布,并生成高質(zhì)量的文本樣本。

4.3 語(yǔ)音識(shí)別

語(yǔ)音識(shí)別是將人類語(yǔ)音轉(zhuǎn)換為文本的過程。神經(jīng)網(wǎng)絡(luò)模型在語(yǔ)音識(shí)別領(lǐng)域也取得了顯著成果。特別是端到端的語(yǔ)音識(shí)別模型,如基于注意力機(jī)制的序列到序列模型,能夠直接從語(yǔ)音信號(hào)中生成文本,而無需經(jīng)過傳統(tǒng)的聲學(xué)模型和語(yǔ)言模型兩個(gè)階段。這些模型不僅提高了識(shí)別的準(zhǔn)確率,還簡(jiǎn)化了模型的訓(xùn)練和部署過程。

五、神經(jīng)網(wǎng)絡(luò)模型的發(fā)展趨勢(shì)

5.1 深度化

隨著計(jì)算能力的提升和數(shù)據(jù)的積累,神經(jīng)網(wǎng)絡(luò)模型正在向更深層次發(fā)展。更深的網(wǎng)絡(luò)結(jié)構(gòu)能夠?qū)W習(xí)更復(fù)雜的特征表示,從而提高模型的性能。然而,深層網(wǎng)絡(luò)也面臨著梯度消失和梯度爆炸等問題,需要通過殘差連接、批量歸一化等技術(shù)進(jìn)行解決。

5.2 輕量化

為了將神經(jīng)網(wǎng)絡(luò)模型部署到資源受限的設(shè)備上(如手機(jī)、嵌入式設(shè)備等),輕量化成為了一個(gè)重要的研究方向。通過剪枝、量化、知識(shí)蒸餾等技術(shù),可以減小模型的體積并降低其計(jì)算復(fù)雜度,同時(shí)盡量保持模型的性能。

5.3 可解釋性

盡管神經(jīng)網(wǎng)絡(luò)模型在許多任務(wù)中取得了優(yōu)異性能,但其決策過程往往缺乏可解釋性。這限制了模型在醫(yī)療、金融等領(lǐng)域的廣泛應(yīng)用。因此,提高神經(jīng)網(wǎng)絡(luò)模型的可解釋性成為了一個(gè)重要的研究方向。通過可視化、特征歸因等方法,可以揭示模型內(nèi)部的工作機(jī)制和決策依據(jù)。

5.4 自動(dòng)化機(jī)器學(xué)習(xí)(AutoML)

自動(dòng)化機(jī)器學(xué)習(xí)旨在通過自動(dòng)化手段來簡(jiǎn)化神經(jīng)網(wǎng)絡(luò)模型的設(shè)計(jì)和訓(xùn)練過程。通過自動(dòng)搜索最優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)、超參數(shù)和訓(xùn)練策略等,可以顯著提高模型的性能和效率。AutoML技術(shù)的發(fā)展將進(jìn)一步推動(dòng)神經(jīng)網(wǎng)絡(luò)模型的普及和應(yīng)用。

六、結(jié)論

神經(jīng)網(wǎng)絡(luò)模型作為深度學(xué)習(xí)領(lǐng)域的核心組成部分,在圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等多個(gè)領(lǐng)域取得了顯著進(jìn)展。通過深入理解神經(jīng)網(wǎng)絡(luò)的基本原理、結(jié)構(gòu)類型、訓(xùn)練過程以及應(yīng)用實(shí)例,我們可以更好地掌握這一技術(shù)并應(yīng)用于實(shí)際問題中。隨著技術(shù)的不斷發(fā)展和創(chuàng)新,神經(jīng)網(wǎng)絡(luò)模型將在更多領(lǐng)域展現(xiàn)出其巨大的潛力和價(jià)值。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4798

    瀏覽量

    102473
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3471

    瀏覽量

    49874
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    368

    瀏覽量

    18726
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索有什么優(yōu)勢(shì)?

    近年來,深度學(xué)習(xí)的繁榮,尤其是神經(jīng)網(wǎng)絡(luò)的發(fā)展,顛覆了傳統(tǒng)機(jī)器學(xué)習(xí)特征工程的時(shí)代,將人工智能的浪潮推到了歷史最高點(diǎn)。然而,盡管各種神經(jīng)網(wǎng)絡(luò)模型層出不窮,但往往模型性能越高,對(duì)超參數(shù)的要求也越來越嚴(yán)格
    發(fā)表于 09-11 11:52

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是如何定義的?

    什么是卷積神經(jīng)網(wǎng)絡(luò)?ImageNet-2010網(wǎng)絡(luò)結(jié)構(gòu)是如何構(gòu)成的?有哪些基本參數(shù)?
    發(fā)表于 06-17 11:48

    神經(jīng)網(wǎng)絡(luò)分類

    神經(jīng)網(wǎng)絡(luò)分類 特征提取和選擇完成后,再利用分類器進(jìn)行圖像目標(biāo)分類,本文采用神經(jīng)網(wǎng)絡(luò)中的BP網(wǎng)絡(luò)進(jìn)行分類。在設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)時(shí),
    發(fā)表于 03-01 17:55 ?1748次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>分類

    基于自適應(yīng)果蠅算法的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練

    基于自適應(yīng)果蠅算法的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練_霍慧慧
    發(fā)表于 01-03 17:41 ?0次下載

    基于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在命名實(shí)體識(shí)別中應(yīng)用的分析與總結(jié)

    近年來,基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)方法在自然語(yǔ)言處理領(lǐng)域已經(jīng)取得了不少進(jìn)展。作為NLP領(lǐng)域的基礎(chǔ)任務(wù)—命名實(shí)體識(shí)別(Named Entity Recognition,NER)也不例外,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
    的頭像 發(fā)表于 01-18 09:24 ?4789次閱讀
    基于<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)</b>在命名實(shí)體識(shí)別中應(yīng)用的分析與總結(jié)

    一種新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu):膠囊網(wǎng)絡(luò)

    膠囊網(wǎng)絡(luò)是 Geoffrey Hinton 提出的一種新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),為了解決卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)的一些缺點(diǎn),提出了膠囊網(wǎng)絡(luò)。
    的頭像 發(fā)表于 02-02 09:25 ?6081次閱讀

    一種改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索方法

    為提升網(wǎng)絡(luò)結(jié)構(gòu)的尋優(yōu)能力,提岀一種改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索方法。針對(duì)網(wǎng)絡(luò)結(jié)構(gòu)間距難以度量的問題,結(jié)合神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索方案,設(shè)計(jì)基于圖的深
    發(fā)表于 03-16 14:05 ?3次下載
    一種改進(jìn)的深度<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)</b>搜索方法

    幾種典型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的比較與分析

    幾種典型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的比較與分析說明。
    發(fā)表于 04-28 10:11 ?3次下載

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化綜述

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化綜述 ? 來源:《自動(dòng)化學(xué)報(bào)》?,作者林景棟等 摘 要?近年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNNs)在計(jì)算機(jī)視覺、自然語(yǔ)言處理、語(yǔ)音
    發(fā)表于 03-07 16:42 ?1212次閱讀
    卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)</b>優(yōu)化綜述

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種前饋神經(jīng)網(wǎng)絡(luò),常用于圖像處理、自然語(yǔ)言處理等領(lǐng)域中。它是一種深度學(xué)習(xí)(Deep
    的頭像 發(fā)表于 08-17 16:30 ?1416次閱讀

    神經(jīng)網(wǎng)絡(luò)算法的結(jié)構(gòu)有哪些類型

    神經(jīng)網(wǎng)絡(luò)算法是深度學(xué)習(xí)的基礎(chǔ),它們?cè)谠S多領(lǐng)域都有廣泛的應(yīng)用,如圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等。神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)有很多種類型,每種類型都有其
    的頭像 發(fā)表于 07-03 09:50 ?767次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    。它們?cè)谔幚聿煌?b class='flag-5'>類型的數(shù)據(jù)和解決不同問題時(shí)具有各自的優(yōu)勢(shì)和特點(diǎn)。本文將從多個(gè)方面比較循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別。 基本概念 循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有循環(huán)連接的
    的頭像 發(fā)表于 07-04 14:24 ?1821次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)一樣嗎

    遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,RvNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是兩種不同類型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它們?cè)?/div>
    的頭像 發(fā)表于 07-05 09:28 ?1377次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)形式主要分為

    結(jié)構(gòu)形式。 Elman網(wǎng)絡(luò) Elman網(wǎng)絡(luò)是一種基本的遞歸神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由Elman于1990年提出。其結(jié)構(gòu)主要包括輸入層、隱藏層和輸出層,
    的頭像 發(fā)表于 07-05 09:32 ?820次閱讀

    BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)原則

    BP(back propagation)神經(jīng)網(wǎng)絡(luò)是一種按照誤差逆向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)原則主要基于以下幾個(gè)方面: 一、層次結(jié)構(gòu) 輸入層 :接收外部輸入信號(hào),不
    的頭像 發(fā)表于 02-12 16:41 ?484次閱讀