chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Batch,是深度學(xué)習(xí)中的一個重要概念

Dbwd_Imgtec ? 來源:未知 ? 作者:李倩 ? 2018-04-18 15:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

批量,即Batch,是深度學(xué)習(xí)中的一個重要概念。批量通常指兩個不同的概念——如果對應(yīng)的是模型訓(xùn)練方法,那么批量指的是將所有數(shù)據(jù)處理完以后一次性更新權(quán)重或者參數(shù)的估計;如果對應(yīng)的是模型訓(xùn)練中的數(shù)據(jù),那么批量通常指的是一次輸入供模型計算用的數(shù)據(jù)量。

基于批量概念的模型訓(xùn)練通常按照如下步驟進(jìn)行:

初始化參數(shù)

重復(fù)以下步驟

● 處理所有數(shù)據(jù)● 更新參數(shù)

和批量算法相對應(yīng)的是遞增算法,其步驟如下:

初始化參數(shù)

重復(fù)以下步驟

● A.處理一個或者一組數(shù)據(jù)點●B.更新參數(shù)。

這里的主要區(qū)別是批量算法一次處理所有的數(shù)據(jù);而在遞增算法中,每處理一個或者數(shù)個觀測值就要更新一次參數(shù)。在后向傳播算法中,“處理”對應(yīng)的具體操作就是計算損失函數(shù)的梯度變化曲線。如果是批量算法,則計算平均或者總的損失函數(shù)的梯度變化曲線;而如果是遞增算法,則計算損失函數(shù)僅在對應(yīng)于該觀測值或者數(shù)個觀測值時的梯度變化曲線?!案隆眲t是從已有的參數(shù)值中減去梯度變化率和學(xué)習(xí)速率的乘積。

在線學(xué)習(xí)和離線學(xué)習(xí)

在深度學(xué)習(xí)中,另外兩個常見的概念是在線學(xué)習(xí)和離線學(xué)習(xí)。在離線學(xué)習(xí)中,所有的數(shù)據(jù)都可以被反復(fù)獲取,比如上面的批量學(xué)習(xí)就是離線學(xué)習(xí)的一種。而在在線學(xué)習(xí)中,每個觀測值在處理以后會被遺棄,同時得到更新。在線學(xué)習(xí)永遠(yuǎn)是遞增算法的一種,但是遞增算法卻既可以離線學(xué)習(xí)也可以在線學(xué)習(xí)。

離線學(xué)習(xí)有如下幾個優(yōu)點:

對于任何固定個數(shù)的參數(shù),目標(biāo)函數(shù)都可以直接被計算出來,因此很容易驗證模型訓(xùn)練是否在朝著所需要的方向發(fā)展。

計算精度可以達(dá)到任意合理的程度。

可以使用各種不同的算法來避免出現(xiàn)局部最優(yōu)的情況

可以采用訓(xùn)練、驗證、測試三分法對模型的普適性進(jìn)行驗證

可以計算預(yù)測值及其置信區(qū)間

在線學(xué)習(xí)無法實現(xiàn)上述功能,因為數(shù)據(jù)并沒有被存儲,不能反復(fù)獲取,因此對于任何固定的參數(shù)集,無法在訓(xùn)練集上計算損失函數(shù),也無法在驗證集上計算誤差。這就造成在線算法一般來說比離線算法更加復(fù)雜和不穩(wěn)定。但是離線遞增算法并沒有在線算法的問題,因此有必要理解在線學(xué)習(xí)和遞增算法的區(qū)別。

偏移/閾值

在深度學(xué)習(xí)中,采用sigmoid激活函數(shù)的隱藏層或者輸出層的神經(jīng)元通常在計算網(wǎng)絡(luò)輸入時加入一個偏移值,稱為Bias。對于線性輸出神經(jīng)元,偏移項就是回歸中的截距項。 跟截距項的作用類似,偏移項可以被視為一個由特殊神經(jīng)元引起的鏈接權(quán)重,這是因為偏移項通常鏈接到一個取固定單位值的偏移神經(jīng)元。比如在一個多層感知器神經(jīng)網(wǎng)絡(luò)中,某一個神經(jīng)元的輸入變量為N維,那么這個神經(jīng)元在這個高維空間中根據(jù)參數(shù)畫一個超平面,一邊是正值,一邊為負(fù)值。所使用的參數(shù)決定了這個超平面在輸入空間的相對位置。如果沒有偏移項,這個超平面的位置就被限制住了,必須通過原點;如果多個神經(jīng)元都需要各自的超平面,那么就嚴(yán)重限制住了模型的靈活性。這就好比一個沒有截距項的回歸模型,其斜率的估計值在大多數(shù)情況下會大大偏移最優(yōu)估計值,因為生成的擬合曲線必須通過原點。因此,如果缺少偏移項,多層感知器的普適擬合能力就不存在了。 通常來說,每個隱藏層和輸出層的神經(jīng)元都有自己的偏移項。但是如果輸入神經(jīng)已經(jīng)被等比例轉(zhuǎn)換到一個有限值域中,比如[0,1]區(qū)間,那么等第一個隱藏層的神經(jīng)元已經(jīng)設(shè)置過偏移項以后,后面任何層跟這些具備偏移項的神經(jīng)元有鏈接的其他神經(jīng)元就不需要再額外設(shè)置偏移項了。

標(biāo)準(zhǔn)化數(shù)據(jù) 在機器學(xué)習(xí)和深度學(xué)習(xí)中,常常會出現(xiàn)對數(shù)據(jù)標(biāo)準(zhǔn)化這個動作。那么什么是標(biāo)準(zhǔn)化數(shù)據(jù)呢?其實這里是用“標(biāo)準(zhǔn)化”這個詞代替了幾個類似的但又不同的動作。

下面詳細(xì)講解三個常見的“標(biāo)準(zhǔn)化”數(shù)據(jù)處理動作。

(1)重放縮:通常指將一個向量加上或減去一個向量,再乘以或者除以一個常亮。比如將華氏溫度轉(zhuǎn)換成攝氏溫度就是一個重放縮的過程。

(2)規(guī)范化:通常指將一個向量除以其范數(shù),比如采用歐式空間距離,即用向量的方差作為范數(shù)來規(guī)范化向量。在深度學(xué)習(xí)中,規(guī)范化通常采用極差為范數(shù),即將向量減去最小值,并除以其極差,從而使數(shù)值范圍在0和1之間。

(3)標(biāo)準(zhǔn)化:通常指將一個向量移除其位置和規(guī)模的度量。比如一個服從正態(tài)分布的向量,可以減去其均值,并除以其方差來標(biāo)準(zhǔn)化數(shù)據(jù),從而獲得一個服從標(biāo)準(zhǔn)正態(tài)分布的向量。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:深度學(xué)習(xí)中常見概念

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    深度學(xué)習(xí)在汽車的應(yīng)用

    安全系統(tǒng)的發(fā)展進(jìn)步中發(fā)揮重要的作用。而這些系統(tǒng)遠(yuǎn)不止僅供典型消費者群體掌握和使用。深度學(xué)習(xí)一概念在幾十年前就已提出,但如今它與特定的應(yīng)用程序、技術(shù)以及通用計算平臺上的可用性能更密切相
    發(fā)表于 03-13 06:45

    深度學(xué)習(xí)的IoU概念

    深度學(xué)習(xí)的IoU概念理解
    發(fā)表于 05-29 09:24

    改善深層神經(jīng)網(wǎng)絡(luò)--超參數(shù)優(yōu)化、batch正則化和程序框架 學(xué)習(xí)總結(jié)

    深度學(xué)習(xí)工程師-吳恩達(dá)》02改善深層神經(jīng)網(wǎng)絡(luò)--超參數(shù)優(yōu)化、batch正則化和程序框架 學(xué)習(xí)總結(jié)
    發(fā)表于 06-16 14:52

    討論紋理分析在圖像分類重要性及其在深度學(xué)習(xí)中使用紋理分析

    1、如何在深度學(xué)習(xí)結(jié)構(gòu)中使用紋理特征  如果圖像數(shù)據(jù)集具有豐富的基于紋理的特征,如果將額外的紋理特征提取技術(shù)作為端到端體系結(jié)構(gòu)的部分,則深度學(xué)習(xí)
    發(fā)表于 10-26 16:57

    深度學(xué)習(xí)介紹

    汽車安全系統(tǒng)的發(fā)展進(jìn)步中發(fā)揮重要的作用。而這些系統(tǒng)遠(yuǎn)不止僅供典型消費者群體掌握和使用。深度學(xué)習(xí)一概念在幾十年前就已提出,但如今它與特定的應(yīng)用程序、技術(shù)以及通用計算平臺上的可用性能更密
    發(fā)表于 11-11 07:55

    超參數(shù)優(yōu)化是深度學(xué)習(xí)重要組成部分

    超參數(shù)優(yōu)化是深度學(xué)習(xí)重要組成部分。其原因在于,神經(jīng)網(wǎng)絡(luò)是公認(rèn)的難以配置,而又有很多參數(shù)需要設(shè)置。最重要的是,個別模型的訓(xùn)練非常緩慢。 在
    發(fā)表于 09-30 16:22 ?2次下載

    理解Batch NormalizationBatch所代表具體含義的知識基礎(chǔ)

    所謂“Mini-Batch”,是指的從訓(xùn)練數(shù)據(jù)全集T隨機選擇的訓(xùn)練數(shù)據(jù)子集合。假設(shè)訓(xùn)練數(shù)據(jù)集合T包含N樣本,而每個Mini-
    的頭像 發(fā)表于 10-19 09:19 ?3.6w次閱讀

    Batch的大小、災(zāi)難性遺忘將如何影響學(xué)習(xí)速率

    所以,我們該如何在限制訓(xùn)練速度的情況下,還可以提高batch size,同時不用維持曲率效應(yīng)帶來的不穩(wěn)定性?答案可能是其他因素在限制學(xué)習(xí)速率,而我們并沒有考慮到曲率效應(yīng)。我們認(rèn)為這其他因素就是
    的頭像 發(fā)表于 11-14 08:58 ?3975次閱讀

    batch normalization時的些缺陷

    導(dǎo)讀 batch normalization時的些缺陷。 Batch Normalization確實是深度學(xué)習(xí)領(lǐng)域的重大突破之
    的頭像 發(fā)表于 11-03 17:27 ?3485次閱讀
    <b class='flag-5'>batch</b> normalization時的<b class='flag-5'>一</b>些缺陷

    深度學(xué)習(xí)的主要概念介紹

      這篇文章是我將為 Parallel Forall 撰寫的系列文章的第篇,該系列文章旨在為 深度學(xué)習(xí) 提供
    的頭像 發(fā)表于 04-28 16:59 ?4241次閱讀

    有關(guān)batch size的設(shè)置范圍

    我們知道,batch size 決定了深度學(xué)習(xí)訓(xùn)練過程,完成每個 epoch 所需的時間和每次迭代(iteration)之間梯度的平滑程度。bat
    的頭像 發(fā)表于 07-12 10:15 ?7755次閱讀

    深度學(xué)習(xí)基本概念

    深度學(xué)習(xí)基本概念? 深度學(xué)習(xí)是人工智能(AI)領(lǐng)域的
    的頭像 發(fā)表于 08-17 16:02 ?3323次閱讀

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程 深度學(xué)習(xí)是機器學(xué)習(xí)領(lǐng)
    的頭像 發(fā)表于 08-17 16:11 ?1664次閱讀

    深度學(xué)習(xí)的無監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機器學(xué)習(xí)領(lǐng)域的重要分支,近年來在多個領(lǐng)域取得了顯著的成果,特別是在圖像識別、語音
    的頭像 發(fā)表于 07-09 10:50 ?2215次閱讀

    NPU在深度學(xué)習(xí)的應(yīng)用

    設(shè)計的硬件加速器,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是種專門針對深度
    的頭像 發(fā)表于 11-14 15:17 ?2545次閱讀