chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從零開始學習用Python構(gòu)建神經(jīng)網(wǎng)絡(luò)

人工智能和機器人研究院 ? 來源:未知 ? 作者:胡薇 ? 2018-05-30 08:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這是一份用于理解深度學習內(nèi)部運作方式的初學者指南。作者根據(jù)自己從零開始學習用 Python 構(gòu)建神經(jīng)網(wǎng)絡(luò)的經(jīng)驗,編寫了一份攻略。內(nèi)容涵蓋神經(jīng)網(wǎng)絡(luò)定義、損失函數(shù)、前向傳播、反向傳播、梯度下降算法,對于想要了解深度學習運作原理的各位來說,內(nèi)容精彩不可錯過。

動機:為了深入了解深度學習,我決定從零開始構(gòu)建神經(jīng)網(wǎng)絡(luò),并且不使用類似 Tensorflow 的深度學習庫。我相信,對于任何有理想的數(shù)據(jù)科學家而言,理解神經(jīng)網(wǎng)絡(luò)內(nèi)部的運作方式都非常重要。

本文涵蓋了我學到的所有東西,希望你也能從中獲益!

什么是神經(jīng)網(wǎng)絡(luò)?

許多有關(guān)神經(jīng)網(wǎng)絡(luò)的介紹資料會將神經(jīng)網(wǎng)絡(luò)與大腦進行類比。但我發(fā)現(xiàn),將神經(jīng)網(wǎng)絡(luò)簡單地描述為一個從輸入映射到輸出的數(shù)學函數(shù)理解起來更容易。

神經(jīng)網(wǎng)絡(luò)由以下部分組成:

一個輸入層,x

任意數(shù)量的隱藏層

一個輸出層,?

每兩層之間都有一組權(quán)重和偏置,W 和 b

每個隱藏層都要選擇一個激活函數(shù) σ。在本文中,我們選用 Sigmoid 激活函數(shù)。

下圖展示了 2 層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)(請注意,在計算神經(jīng)網(wǎng)絡(luò)層數(shù)的時候,通常不計入輸入層)。

二層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

利用 Python 建立神經(jīng)網(wǎng)絡(luò)非常容易。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(y.shape)

訓練神經(jīng)網(wǎng)絡(luò)

一個簡單 2 層神經(jīng)網(wǎng)絡(luò)的輸出 ? 可以表示為:

你可能注意到,在上面的等式當中,權(quán)重 W 和偏置 b 是影響輸出 ? 的唯一變量。

自然,權(quán)重和偏差的正確值決定了預(yù)測的強度。根據(jù)輸入數(shù)據(jù)微調(diào)權(quán)重和偏置的過程稱為神經(jīng)網(wǎng)絡(luò)訓練。

訓練過程的每一次迭代包含以下步驟:

計算預(yù)測的輸出 ?,稱為前向傳播

更新權(quán)重和偏置,稱為反向傳播

以下流程圖說明了這個過程:

前向傳播

正如我們在上圖中所看到的,前向傳播只是一個簡單的計算。對于一個基本的 2 層神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)的輸出計算如下:

我們可以在 Python 代碼中添加一個前向傳播函數(shù)來做到這一點。簡單起見,我們假設(shè)偏置為 0。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(self.y.shape) def feedforward(self): self.layer1 = sigmoid(np.dot(self.input, self.weights1)) self.output = sigmoid(np.dot(self.layer1, self.weights2))

然而,我們?nèi)匀恍枰环N方法來評估我們的預(yù)測的「優(yōu)秀程度」(即,我們的預(yù)測與真實值相差多少?)這就需要用到損失函數(shù)了。

損失函數(shù)

損失函數(shù)有很多種,而我們問題的性質(zhì)會決定我們使用哪種損失函數(shù)。在本文中,我們將采用簡單的誤差平方和。

誤差平方和,即每個預(yù)測值和真實值之間差值的平均值。這個差值是取了平方項的,所以我們測量的是差值的絕對值。

在訓練過程中,我們的目標是找到一組最佳的權(quán)重和偏置,使損失函數(shù)最小化。

反向傳播

現(xiàn)在,我們已經(jīng)找到了預(yù)測誤差的方法(損失函數(shù)),那么我們需要一種方法將錯誤「傳播」回去,從而更新權(quán)重和偏置。

為了確定權(quán)重和偏置調(diào)整的適當值,我們需要知道損失函數(shù)對權(quán)重和偏置的偏導數(shù)。

從微積分的角度來看,函數(shù)的偏導數(shù)也就是函數(shù)的斜率。

梯度下降算法

如果我們知道了偏導數(shù),我們可以通過簡單增加或減少偏導數(shù)(如上圖所示)的方式來更新權(quán)重和偏置。這就是所謂的梯度下降。

然而,由于損失函數(shù)的方程不包含權(quán)重和偏置,所以我們不能直接計算損失函數(shù)對權(quán)重和偏置的偏導數(shù)。因此,我們需要鏈式法則來幫助計算。

以上是用于計算損失函數(shù)對權(quán)重偏導數(shù)的鏈式法則。簡單起見,我們只展示了一層神經(jīng)網(wǎng)絡(luò)的偏導數(shù)。

??!這看起來不大好看,但這能讓我們獲得所需——損失函數(shù)對權(quán)重的偏導數(shù)(斜率),以便相應(yīng)調(diào)整權(quán)重。

既然我們已經(jīng)有了鏈式法則公式,接下來我們把反向傳播函數(shù)添加到 Python 代碼中。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(self.y.shape) def feedforward(self): self.layer1 = sigmoid(np.dot(self.input, self.weights1)) self.output = sigmoid(np.dot(self.layer1, self.weights2)) def backprop(self): # application of the chain rule to find derivative of the loss function with respect to weights2 and weights1 d_weights2 = np.dot(self.layer1.T, (2*(self.y - self.output) * sigmoid_derivative(self.output))) d_weights1 = np.dot(self.input.T, (np.dot(2*(self.y - self.output) * sigmoid_derivative(self.output), self.weights2.T) * sigmoid_derivative(self.layer1))) # update the weights with the derivative (slope) of the loss function self.weights1 += d_weights1 self.weights2 += d_weights2

整合

既然我們已經(jīng)有了做前向傳播和反向傳播的完整 Python 代碼,我們可以將神經(jīng)網(wǎng)絡(luò)應(yīng)用到一個示例中,看看它的效果。

我們的神經(jīng)網(wǎng)絡(luò)應(yīng)該能夠習得理想的權(quán)重集合以表示這個函數(shù)。請注意,對于我們來說,僅通過檢查來計算權(quán)重并非一件小事。

如果我們將神經(jīng)網(wǎng)絡(luò)進行 1500 次迭代,看看會發(fā)生什么。下圖展示了每次迭代的損失函數(shù)值,我們可以清晰地發(fā)現(xiàn)損失函數(shù)單調(diào)下降到最小值。這與我們前面討論的梯度下降算法是一致的。

讓我們看看神經(jīng)網(wǎng)絡(luò)在進行 1500 次迭代后的最終預(yù)測(輸出):

進行 1500 次迭代后的預(yù)測值

我們成功了!我們的前向傳播和反向傳播算法成功訓練了神經(jīng)網(wǎng)絡(luò),且預(yù)測值收斂到了真實值。

請注意,預(yù)測值和真實值之間還是有一些輕微差異的。這是可取的,因為它防止了過度擬合,并且使得神經(jīng)網(wǎng)絡(luò)具有更強的泛化能力。

下一步

幸運的是,我們的探索還沒有結(jié)束。關(guān)于神經(jīng)網(wǎng)絡(luò)和深度學習還有很多需要學習的地方。例如:

除了 Sigmoid 函數(shù)之外,我們還可以使用哪些激活函數(shù)?

在訓練神經(jīng)網(wǎng)絡(luò)時使用學習率

使用卷積進行圖像分類任務(wù)

最后一點想法

在撰寫此文的過程中,我已經(jīng)學到了很多,希望本文也能對你有所幫助。

在沒有完全了解神經(jīng)網(wǎng)絡(luò)內(nèi)部工作原理的情況下,雖然使用諸如 TensorFlow 和 Keras 之類的深度學習庫可以讓我們很容易地建立深度網(wǎng)絡(luò),但我認為對于有抱負的數(shù)據(jù)科學家而言,深入理解神經(jīng)網(wǎng)絡(luò)還是大有裨益的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86750
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標題:無需深度學習框架,如何從零開始用Python構(gòu)建神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號:gh_ecbcc3b6eabf,微信公眾號:人工智能和機器人研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    低功耗+AI識別:基于樹莓派的 LoRa 神經(jīng)網(wǎng)絡(luò)安防系統(tǒng)!

    這篇博客展示了如何使用樹莓派上的神經(jīng)網(wǎng)絡(luò)USB插件來檢測或“推斷”一個人的位置,從而構(gòu)建一個安全系統(tǒng)。Arduino型接收器從零開始構(gòu)建,通過遠程LoRa射頻協(xié)議從樹莓派發(fā)射器獲取數(shù)據(jù)
    的頭像 發(fā)表于 06-24 16:24 ?1045次閱讀
    低功耗+AI識別:基于樹莓派的 LoRa <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>安防系統(tǒng)!

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?668次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學習

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學習率是提高模型訓練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學習率的方法: 一、理解學習率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?940次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?921次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學習的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學習之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?861次閱讀

    深度學習入門:簡單神經(jīng)網(wǎng)絡(luò)構(gòu)建與實現(xiàn)

    深度學習中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1190次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    : TensorFlow是由Google Brain團隊開發(fā)的開源機器學習框架,它支持多種深度學習模型的構(gòu)建和訓練,包括卷積神經(jīng)網(wǎng)絡(luò)。TensorFlow以其靈活性和可擴展性而聞名,適
    的頭像 發(fā)表于 11-15 15:20 ?671次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學習領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1872次閱讀

    深度學習中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學習近年來在多個領(lǐng)域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學習的一個分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機器學習領(lǐng)域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1127次閱讀

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型

    構(gòu)建一個LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)模型是一個涉及多個步驟的過程。以下是使用Python和Keras庫構(gòu)建LSTM模型的指南。 1. 安裝必要的庫 首先,確保你已經(jīng)安裝了
    的頭像 發(fā)表于 11-13 10:10 ?1583次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實時機器學習算法,進行快速、靈活的信號分析、去噪、傳感器調(diào)節(jié)校準、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?666次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型是一個在機器學習和深度學習領(lǐng)域廣泛使用的技術(shù),尤其在處理分類和回歸問題時。在本文中,我們將深入探討如何從頭
    的頭像 發(fā)表于 07-19 17:19 ?1568次閱讀

    Python自動訓練人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)(ANN)是機器學習中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過多層節(jié)點(神經(jīng)元)之間的連接和權(quán)重調(diào)整來學習和解決問題。
    的頭像 發(fā)表于 07-19 11:54 ?703次閱讀