chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于神經(jīng)網(wǎng)絡的十大學習率衰減提效策略

深度學習自然語言處理 ? 來源:煉丹筆記 ? 作者:時晴 ? 2021-06-16 17:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

十大學習率衰減策略!

簡 介

目前越來越多非結構化問題的出現(xiàn),神經(jīng)網(wǎng)絡也扮演著愈加重要的作用。一個好的神經(jīng)網(wǎng)絡對于最終任務的預測至關重要,但要得到一個好的神經(jīng)網(wǎng)絡則需要考慮眾多的因素,本文我們重點介紹神經(jīng)網(wǎng)絡中調參重學習率衰減的調節(jié)策略。本文介紹目前tensorflow中的9大學習率衰減策略。

exponential_decay = learning_rate_decay.exponential_decay

piecewise_constant = learning_rate_decay.piecewise_constant

polynomial_decay = learning_rate_decay.polynomial_decay

natural_exp_decay = learning_rate_decay.natural_exp_decay

inverse_time_decay = learning_rate_decay.inverse_time_decay

cosine_decay = learning_rate_decay.cosine_decay

cosine_decay_restarts = learning_rate_decay.cosine_decay_restarts

linear_cosine_decay = learning_rate_decay.linear_cosine_decay

noisy_linear_cosine_decay = learning_rate_decay.noisy_linear_cosine_decay

學習率衰減

01

分段常數(shù)衰減

在對應區(qū)間置中不同的學習率的常數(shù)值,一般初始學習率會大一些,后面越來越小,要根據(jù)樣本量的大小設置區(qū)間的間隔大小,樣本量越大,區(qū)間間隔要小一點。在真正的網(wǎng)絡訓練中,需要操作人員根據(jù)具體任務對學習率具體設置

該方法有助于針對不同任務進行精細地調參,在任意步長后下降任意數(shù)值的learning rate。

02

指數(shù)衰減

指數(shù)衰減的方式,學習率的大小和訓練次數(shù)指數(shù)相關,指數(shù)衰減簡單直接,收斂速度快,是最常用的學習率衰減方式,其數(shù)學公式為:

如下圖所示,紅色的為學習率隨訓練次數(shù)的指數(shù)衰減方式,藍色的即為分段常數(shù)衰減 。

2089ade2-cab3-11eb-9e57-12bb97331649.png

03

自然指數(shù)衰減

自然指數(shù)衰減和指數(shù)衰減方式相似,不同的在于它的衰減底數(shù)是,所以它的收斂的速度更快,一般用于相對比較容易訓練的網(wǎng)絡,便于較快的收斂,其更新公式為:

和分段常數(shù)以及指數(shù)衰減相比,其中綠色的是自然指數(shù)衰減。

04

多項式衰減

多項式衰減的方式進行更新學習率,需要給定初始學習率和最低學習率,然后按照給定的衰減方式將學習率從初始值衰減到最低值,其更新規(guī)則即為:

此處需要注意有兩個機制:

降到最低學習率后,到訓練結束可以一直使用最低學習率進行更新;

另一個是再次將學習率調高,使用decay_steps的倍數(shù),取第一個大于global_steps的結果,即:

可以用它來防止神經(jīng)網(wǎng)絡在訓練的后期由于學習率過小而導致的網(wǎng)絡一直在某個局部最小值附近震蕩,在后期增大學習率跳出局部極小值。

05

倒數(shù)衰減

倒數(shù)衰減的數(shù)學公式為:

21befb18-cab3-11eb-9e57-12bb97331649.png

06

余弦衰減

顧名思義,就是采用余弦方式進行學習率的衰減。其更新機制如下:

其中alpha可以看作是baseline,保證學習率不會低于某個值。不同alpha的影響如下:

221ba6a6-cab3-11eb-9e57-12bb97331649.png

07

循環(huán)學習率衰減

學習率以循環(huán)周期進行衰減。是循環(huán)學習率的cycle版本。

余弦函數(shù)式的下降模擬了大lr找潛力區(qū)域然后小lr快速收斂的過程,加之restart帶來的cycle效果,有漲1-2個點的可能。

08

線性余弦衰減

線性余弦衰減方式是基于余弦方式的衰減策略,其數(shù)學公式為:

線性余弦衰減一般應用領域是增強學習領域,

09

噪聲線性余弦衰減

在線性余弦衰減的基礎上,加入了噪聲。就得到了噪聲線性余弦衰減。噪聲線性余弦衰減提升了學習率尋找最優(yōu)值的隨機性和可能性。

0110

自定義學習率

大家還可以依據(jù)自己的想法自定義學習率衰減策略,例如可以依據(jù)驗證集合的表現(xiàn),來更新學習率,如果驗證集合上評估指標在不斷變好,則保持lr,否則降低學習率。

參考文獻

tensorflow learning schedule之分段常數(shù)衰減用法

An Overview of Deep Learning Optimization Methods and Learning Rate Attenuation Methods

Tensorflow中l(wèi)earning rate decay的奇技淫巧

TensorFlow使用記錄 (三):Learning Rate Scheduling

深度學習中的固定學習率衰減策略總結

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/training/learning_rate_decay.py

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 噪聲
    +關注

    關注

    13

    文章

    1140

    瀏覽量

    48133
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4814

    瀏覽量

    103581
  • 函數(shù)
    +關注

    關注

    3

    文章

    4380

    瀏覽量

    64850

原文標題:神經(jīng)網(wǎng)絡十大學習率衰減提效策略!

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡的調參技巧與建議

    BP神經(jīng)網(wǎng)絡的調參是一個復雜且關鍵的過程,涉及多個超參數(shù)的優(yōu)化和調整。以下是一些主要的調參技巧與建議: 一、學習(Learning Rate) 重要性 :學習
    的頭像 發(fā)表于 02-12 16:38 ?806次閱讀

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的比較

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經(jīng)網(wǎng)絡 : BP神經(jīng)網(wǎng)絡是一種多層的前饋神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 02-12 15:53 ?662次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡學習

    優(yōu)化BP神經(jīng)網(wǎng)絡學習是提高模型訓練效率和性能的關鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡學習的方
    的頭像 發(fā)表于 02-12 15:51 ?930次閱讀

    BP神經(jīng)網(wǎng)絡的實現(xiàn)步驟詳解

    BP神經(jīng)網(wǎng)絡的實現(xiàn)步驟主要包括以下幾個階段:網(wǎng)絡初始化、前向傳播、誤差計算、反向傳播和權重更新。以下是對這些步驟的詳細解釋: 一、網(wǎng)絡初始化 確定網(wǎng)絡結構 : 根據(jù)輸入和輸出數(shù)據(jù)的特性
    的頭像 發(fā)表于 02-12 15:50 ?645次閱讀

    BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?915次閱讀

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    BP神經(jīng)網(wǎng)絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經(jīng)網(wǎng)絡的有效方法。以下是關于BP神經(jīng)網(wǎng)絡的反向傳播算法的介紹: 一、基本概念 反向傳播算
    的頭像 發(fā)表于 02-12 15:18 ?765次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關系

    BP神經(jīng)網(wǎng)絡與深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經(jīng)網(wǎng)絡的基本概念 BP神經(jīng)網(wǎng)絡,即反向傳播神經(jīng)網(wǎng)絡(Ba
    的頭像 發(fā)表于 02-12 15:15 ?852次閱讀

    深度學習入門:簡單神經(jīng)網(wǎng)絡的構建與實現(xiàn)

    深度學習中,神經(jīng)網(wǎng)絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經(jīng)網(wǎng)絡。 神經(jīng)網(wǎng)絡由多個神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡 ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1184次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構方法

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    在深度學習領域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡是兩種常見的模型。 1. 結構差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1867次閱讀

    深度學習中的卷積神經(jīng)網(wǎng)絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡作為深度學習的一個分支,因其在圖像處理任務中的卓越性能而受到廣泛關注。 卷積神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-15 14:52 ?844次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡的區(qū)別

    神經(jīng)網(wǎng)絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發(fā)展,神經(jīng)網(wǎng)絡的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1580次閱讀

    Moku人工神經(jīng)網(wǎng)絡101

    Moku3.3版更新在Moku:Pro平臺新增了全新的儀器功能【神經(jīng)網(wǎng)絡】,使用戶能夠在Moku設備上部署實時機器學習算法,進行快速、靈活的信號分析、去噪、傳感器調節(jié)校準、閉環(huán)反饋等應用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?662次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>101

    如何構建多層神經(jīng)網(wǎng)絡

    構建多層神經(jīng)網(wǎng)絡(MLP, Multi-Layer Perceptron)模型是一個在機器學習和深度學習領域廣泛使用的技術,尤其在處理分類和回歸問題時。在本文中,我們將深入探討如何從頭開始構建一個多層
    的頭像 發(fā)表于 07-19 17:19 ?1557次閱讀