chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

BP神經(jīng)網(wǎng)絡(luò)概述

lviY_AI_shequ ? 來源:未知 ? 作者:李倩 ? 2018-06-19 15:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1 BP神經(jīng)網(wǎng)絡(luò)概述

BP 神經(jīng)網(wǎng)絡(luò)是一類基于誤差逆向傳播 (BackPropagation, 簡稱 BP) 算法的多層前饋神經(jīng)網(wǎng)絡(luò),BP算法是迄今最成功的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法?,F(xiàn)實任務(wù)中使用神經(jīng)網(wǎng)絡(luò)時,大多是在使用 BP 算法進行訓(xùn)練。值得指出的是,BP算法不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可以用于其他類型的神經(jīng)網(wǎng)絡(luò),例如訓(xùn)練遞歸神經(jīng)網(wǎng)絡(luò)。但我們通常說 “BP 網(wǎng)絡(luò)” 時,一般是指用 BP 算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò)。

2 神經(jīng)網(wǎng)絡(luò)的前饋過程

神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖

上述過程,即為該神經(jīng)網(wǎng)絡(luò)的前饋 (forward propagation) 過程,前饋過程也非常容易理解,符合人正常的邏輯,具體的矩陣計算表達如

3 逆向誤差傳播 (BP過程)

我們的任務(wù)就是:給定了一組數(shù)據(jù)集,其中包含了輸入數(shù)據(jù)和輸出的真實結(jié)果,如何尋找一組最佳的神經(jīng)網(wǎng)絡(luò)參數(shù),使得網(wǎng)絡(luò)計算得到的推測值能夠與真實值吻合程度最高?

3.1 模型的損失函數(shù)

為了達到這個目標(biāo),這也就轉(zhuǎn)換為了一個優(yōu)化過程,對于任何優(yōu)化問題,總是會有一個目標(biāo)函數(shù) (objective function),在機器學(xué)習(xí)的問題中,通常我們稱此類函數(shù)為:損失函數(shù) (loss function),具體來說,損失函數(shù)表達了推測值與真實值之間的誤差。抽象來看,如果把模型的推測以函數(shù)形式表達為?(這里的函數(shù)字母使用 h 是源于“假設(shè) hypothesis“ 這一單詞),對于有m個訓(xùn)練樣本的輸入數(shù)據(jù)而言,其損失函數(shù)則可表達為:

那么在該問題中的損失函數(shù)是什么樣的呢?拋開線性組合函數(shù),我們先著眼于最終的激活函數(shù),也就是的值,由于 sigmoid 函數(shù)具有很好的函數(shù)性質(zhì),其值域介于 0 到 1 之間,當(dāng)自變量很大時,趨向于 1,很小時趨向于 0,因此,該模型的損失函數(shù)可以定義如下:

不難發(fā)現(xiàn),由于是分類問題,真實值只有取 0 或 1 兩種情況,當(dāng)真實值為 1 時,輸出值a越接近 1,則 loss 越?。划?dāng)真實值為 0 時,輸出值越接近于 0,則 損失函數(shù)越小 (可自己手畫一下函數(shù)的曲線)。因此,可將該分段函數(shù)整合為如下函數(shù):

該函數(shù)與上述分段函數(shù)等價。如果你了解Logistic Regression 模型的基本原理,那么損失函數(shù)這一部分與其完全是一致的,現(xiàn)在,我們已經(jīng)確定了模型的損失函數(shù)關(guān)于輸出量a的函數(shù)形式,接下來的問題自然就是:如何根據(jù)該損失函數(shù)來優(yōu)化模型的參數(shù)。

3.2 基于梯度下降的逆向傳播過程 (關(guān)于損失函數(shù)的逆向求導(dǎo))

這里需要一些先修知識,主要是需要懂得梯度下降 (gradient descent)這一優(yōu)化算法的原理,這里我就不展開闡述該方法,不了解的讀者可以查看我之前的這篇較為簡單清晰的關(guān)于梯度下降法介紹的文章 ->[link]。由于如果將神經(jīng)網(wǎng)絡(luò)的損失函數(shù)完全展開將會極為繁瑣,這里我們先根據(jù)上面得到的關(guān)于輸出量a的損失函數(shù)來進行一步步的推導(dǎo)。

BP 的核心點在于逆向傳播,本質(zhì)上來說,其實是將模型最終的損失函數(shù)進行逆向求導(dǎo)的過程,首先,我們需要從輸出層向隱含層的進行求導(dǎo),也就是需要求得,這里就需要用到求導(dǎo)方法里的?鏈?zhǔn)角髮?dǎo)法則。我們先求得 2 個必要的導(dǎo)數(shù)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:BP 神經(jīng)網(wǎng)絡(luò) —— 逆向傳播的藝術(shù)

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.
    發(fā)表于 03-20 11:32

    labview BP神經(jīng)網(wǎng)絡(luò)的實現(xiàn)

    請問:我在用labview做BP神經(jīng)網(wǎng)絡(luò)實現(xiàn)故障診斷,在NI官網(wǎng)找到了機器學(xué)習(xí)工具包(MLT),但是里面沒有關(guān)于這部分VI的幫助文檔,對于”BP神經(jīng)網(wǎng)絡(luò)分類“這個范例有很多不懂的地方,
    發(fā)表于 02-22 16:08

    基于BP神經(jīng)網(wǎng)絡(luò)的辨識

    基于BP神經(jīng)網(wǎng)絡(luò)的辨識
    發(fā)表于 01-04 13:37

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    `BP神經(jīng)網(wǎng)絡(luò)首先給出只包含一個隱層的BP神經(jīng)網(wǎng)絡(luò)模型(兩層神經(jīng)網(wǎng)絡(luò)): BP
    發(fā)表于 07-21 04:00

    如何設(shè)計BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲能力有關(guān),還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關(guān)。在各種神經(jīng)網(wǎng)絡(luò)中,多層前饋神經(jīng)網(wǎng)絡(luò)具有很強的信息處理能力,由于其采用BP算法,因此也
    發(fā)表于 08-08 06:11

    BP神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)數(shù)學(xué)知識分享

    一文看懂BP神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)數(shù)學(xué)知識
    發(fā)表于 06-16 07:14

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達能力,可以通過對系統(tǒng)性能的學(xué)習(xí)來實現(xiàn)具有最佳組合的PID控
    發(fā)表于 09-07 07:43

    BP神經(jīng)網(wǎng)絡(luò)原理及應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)原理及應(yīng)用說明。
    發(fā)表于 04-27 10:48 ?15次下載

    人工神經(jīng)網(wǎng)絡(luò)bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)bp神經(jīng)網(wǎng)絡(luò)的區(qū)別? 人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)是一種模仿人腦神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)
    的頭像 發(fā)表于 08-22 16:45 ?5723次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?6669次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:12 ?3018次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在處理不連續(xù)變量時的應(yīng)用

    。 BP神經(jīng)網(wǎng)絡(luò)概述 BP神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和輸出層組成。每個
    的頭像 發(fā)表于 07-03 10:19 ?783次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)
    的頭像 發(fā)表于 07-03 11:00 ?1489次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及
    的頭像 發(fā)表于 07-10 15:20 ?2653次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?2714次閱讀