chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于深度學(xué)習(xí)最常用的10大激活函數(shù)詳解

深度學(xué)習(xí)自然語言處理 ? 來源:機械之心 ? 作者:Sukanya Bag ? 2021-03-12 17:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天早上在reddit上刷到一張非常形象mó xìng的圖,

那就讓我們來整理一下深度學(xué)習(xí)中離不開的激活函數(shù)!

激活函數(shù)(Activation Function)是一種添加到人工神經(jīng)網(wǎng)絡(luò)中的函數(shù),旨在幫助網(wǎng)絡(luò)學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式。類似于人類大腦中基于神經(jīng)元的模型,激活函數(shù)最終決定了要發(fā)射給下一個神經(jīng)元的內(nèi)容。

在人工神經(jīng)網(wǎng)絡(luò)中,一個節(jié)點的激活函數(shù)定義了該節(jié)點在給定的輸入或輸入集合下的輸出。標(biāo)準(zhǔn)的計算機芯片電路可以看作是根據(jù)輸入得到開(1)或關(guān)(0)輸出的數(shù)字電路激活函數(shù)。因此,激活函數(shù)是確定神經(jīng)網(wǎng)絡(luò)輸出的數(shù)學(xué)方程式,本文概述了深度學(xué)習(xí)中常見的十種激活函數(shù)及其優(yōu)缺點。

首先我們來了解一下人工神經(jīng)元的工作原理,大致如下:

上述過程的數(shù)學(xué)可視化過程如下圖所示:

1. Sigmoid 激活函數(shù)

Sigmoid 函數(shù)的圖像看起來像一個 S 形曲線。

函數(shù)表達式如下:

在什么情況下適合使用 Sigmoid 激活函數(shù)呢?

Sigmoid 函數(shù)的輸出范圍是 0 到 1。由于輸出值限定在 0 到 1,因此它對每個神經(jīng)元的輸出進行了歸一化;

用于將預(yù)測概率作為輸出的模型。由于概率的取值范圍是 0 到 1,因此 Sigmoid 函數(shù)非常合適;

梯度平滑,避免「跳躍」的輸出值;

函數(shù)是可微的。這意味著可以找到任意兩個點的 sigmoid 曲線的斜率;

明確的預(yù)測,即非常接近 1 或 0。

Sigmoid 激活函數(shù)有哪些缺點?

傾向于梯度消失;

函數(shù)輸出不是以 0 為中心的,這會降低權(quán)重更新的效率;

Sigmoid 函數(shù)執(zhí)行指數(shù)運算,計算機運行得較慢。

2. Tanh / 雙曲正切激活函數(shù)

tanh 激活函數(shù)的圖像也是 S 形,表達式如下:

tanh 是一個雙曲正切函數(shù)。tanh 函數(shù)和 sigmoid 函數(shù)的曲線相對相似。但是它比 sigmoid 函數(shù)更有一些優(yōu)勢。

首先,當(dāng)輸入較大或較小時,輸出幾乎是平滑的并且梯度較小,這不利于權(quán)重更新。二者的區(qū)別在于輸出間隔,tanh 的輸出間隔為 1,并且整個函數(shù)以 0 為中心,比 sigmoid 函數(shù)更好;

在 tanh 圖中,負(fù)輸入將被強映射為負(fù),而零輸入被映射為接近零。

注意:在一般的二元分類問題中,tanh 函數(shù)用于隱藏層,而 sigmoid 函數(shù)用于輸出層,但這并不是固定的,需要根據(jù)特定問題進行調(diào)整。

3. ReLU 激活函數(shù)

ReLU 激活函數(shù)圖像如上圖所示,函數(shù)表達式如下:

be0bfc7c-82c5-11eb-8b86-12bb97331649.png

ReLU 函數(shù)是深度學(xué)習(xí)中較為流行的一種激活函數(shù),相比于 sigmoid 函數(shù)和 tanh 函數(shù),它具有如下優(yōu)點:

當(dāng)輸入為正時,不存在梯度飽和問題。

計算速度快得多。ReLU 函數(shù)中只存在線性關(guān)系,因此它的計算速度比 sigmoid 和 tanh 更快。

當(dāng)然,它也有缺點:

Dead ReLU 問題。當(dāng)輸入為負(fù)時,ReLU 完全失效,在正向傳播過程中,這不是問題。有些區(qū)域很敏感,有些則不敏感。但是在反向傳播過程中,如果輸入負(fù)數(shù),則梯度將完全為零,sigmoid 函數(shù)和 tanh 函數(shù)也具有相同的問題;

我們發(fā)現(xiàn) ReLU 函數(shù)的輸出為 0 或正數(shù),這意味著 ReLU 函數(shù)不是以 0 為中心的函數(shù)。

4. Leaky ReLU

它是一種專門設(shè)計用于解決 Dead ReLU 問題的激活函數(shù):

be21c37c-82c5-11eb-8b86-12bb97331649.png

ReLU vs Leaky ReLU

為什么 Leaky ReLU 比 ReLU 更好?

be62c1a6-82c5-11eb-8b86-12bb97331649.png

Leaky ReLU 通過把 x 的非常小的線性分量給予負(fù)輸入(0.01x)來調(diào)整負(fù)值的零梯度(zero gradients)問題;

leak 有助于擴大 ReLU 函數(shù)的范圍,通常 a 的值為 0.01 左右;

Leaky ReLU 的函數(shù)范圍是(負(fù)無窮到正無窮)。

注意:從理論上講,Leaky ReLU 具有 ReLU 的所有優(yōu)點,而且 Dead ReLU 不會有任何問題,但在實際操作中,尚未完全證明 Leaky ReLU 總是比 ReLU 更好。

5. ELU

ELU vs Leaky ReLU vs ReLU

ELU 的提出也解決了 ReLU 的問題。與 ReLU 相比,ELU 有負(fù)值,這會使激活的平均值接近零。均值激活接近于零可以使學(xué)習(xí)更快,因為它們使梯度更接近自然梯度。

beb1d7b4-82c5-11eb-8b86-12bb97331649.png

顯然,ELU 具有 ReLU 的所有優(yōu)點,并且:

沒有 Dead ReLU 問題,輸出的平均值接近 0,以 0 為中心;

ELU 通過減少偏置偏移的影響,使正常梯度更接近于單位自然梯度,從而使均值向零加速學(xué)習(xí);

ELU 在較小的輸入下會飽和至負(fù)值,從而減少前向傳播的變異和信息。

一個小問題是它的計算強度更高。與 Leaky ReLU 類似,盡管理論上比 ReLU 要好,但目前在實踐中沒有充分的證據(jù)表明 ELU 總是比 ReLU 好。

6. PReLU(Parametric ReLU)

PReLU 也是 ReLU 的改進版本:

看一下 PReLU 的公式:參數(shù)α通常為 0 到 1 之間的數(shù)字,并且通常相對較小。

如果 a_i= 0,則 f 變?yōu)?ReLU

如果 a_i》 0,則 f 變?yōu)?leaky ReLU

如果 a_i 是可學(xué)習(xí)的參數(shù),則 f 變?yōu)?PReLU

PReLU 的優(yōu)點如下:

在負(fù)值域,PReLU 的斜率較小,這也可以避免 Dead ReLU 問題。

與 ELU 相比,PReLU 在負(fù)值域是線性運算。盡管斜率很小,但不會趨于 0。

7. Softmax

Softmax 是用于多類分類問題的激活函數(shù),在多類分類問題中,超過兩個類標(biāo)簽則需要類成員關(guān)系。對于長度為 K 的任意實向量,Softmax 可以將其壓縮為長度為 K,值在(0,1)范圍內(nèi),并且向量中元素的總和為 1 的實向量。

Softmax 與正常的 max 函數(shù)不同:max 函數(shù)僅輸出最大值,但 Softmax 確保較小的值具有較小的概率,并且不會直接丟棄。我們可以認(rèn)為它是 argmax 函數(shù)的概率版本或「soft」版本。

Softmax 函數(shù)的分母結(jié)合了原始輸出值的所有因子,這意味著 Softmax 函數(shù)獲得的各種概率彼此相關(guān)。

Softmax 激活函數(shù)的主要缺點是:

在零點不可微;

負(fù)輸入的梯度為零,這意味著對于該區(qū)域的激活,權(quán)重不會在反向傳播期間更新,因此會產(chǎn)生永不激活的死亡神經(jīng)元。

8. Swish

函數(shù)表達式:y = x * sigmoid (x)

Swish 的設(shè)計受到了 LSTM 和高速網(wǎng)絡(luò)中 gating 的 sigmoid 函數(shù)使用的啟發(fā)。我們使用相同的 gating 值來簡化 gating 機制,這稱為 self-gating。

self-gating 的優(yōu)點在于它只需要簡單的標(biāo)量輸入,而普通的 gating 則需要多個標(biāo)量輸入。這使得諸如 Swish 之類的 self-gated 激活函數(shù)能夠輕松替換以單個標(biāo)量為輸入的激活函數(shù)(例如 ReLU),而無需更改隱藏容量或參數(shù)數(shù)量。

Swish 激活函數(shù)的主要優(yōu)點如下:

「無界性」有助于防止慢速訓(xùn)練期間,梯度逐漸接近 0 并導(dǎo)致飽和;(同時,有界性也是有優(yōu)勢的,因為有界激活函數(shù)可以具有很強的正則化,并且較大的負(fù)輸入問題也能解決);

導(dǎo)數(shù)恒 》 0;

平滑度在優(yōu)化和泛化中起了重要作用。

9. Maxout

在 Maxout 層,激活函數(shù)是輸入的最大值,因此只有 2 個 maxout 節(jié)點的多層感知機就可以擬合任意的凸函數(shù)。

單個 Maxout 節(jié)點可以解釋為對一個實值函數(shù)進行分段線性近似 (PWL) ,其中函數(shù)圖上任意兩點之間的線段位于圖(凸函數(shù))的上方。

c0333948-82c5-11eb-8b86-12bb97331649.png

Maxout 也可以對 d 維向量(V)實現(xiàn):

假設(shè)兩個凸函數(shù) h_1(x) 和 h_2(x),由兩個 Maxout 節(jié)點近似化,函數(shù) g(x) 是連續(xù)的 PWL 函數(shù)。

c0b5edd4-82c5-11eb-8b86-12bb97331649.png

因此,由兩個 Maxout 節(jié)點組成的 Maxout 層可以很好地近似任何連續(xù)函數(shù)。

10. Softplus

Softplus 函數(shù):f(x)= ln(1 + exp x)

Softplus 的導(dǎo)數(shù)為

f ′(x)=exp(x) / ( 1+exp? x )

= 1/ (1 +exp(?x ))

,也稱為 logistic / sigmoid 函數(shù)。

Softplus 函數(shù)類似于 ReLU 函數(shù),但是相對較平滑,像 ReLU 一樣是單側(cè)抑制。它的接受范圍很廣:(0, + inf)。
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4401

    瀏覽量

    66545
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5587

    瀏覽量

    123763

原文標(biāo)題:深度學(xué)習(xí)最常用的10個激活函數(shù)!

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    工業(yè)物聯(lián)網(wǎng)和自動化領(lǐng)域 Node-RED 最常用10 大節(jié)點,你用過幾個?

    本文盤點了工業(yè)物聯(lián)網(wǎng)與自動化領(lǐng)域 Node-RED 最常用10 大節(jié)點,包括 inject、debug、MQTT、Modbus、OPC UA 等,并結(jié)合應(yīng)用場景與技巧進行解析。鋇錸技術(shù) ARMxy 系列工業(yè)控制器已預(yù)裝 Node-RED,開機即可實現(xiàn)數(shù)據(jù)采集、協(xié)議轉(zhuǎn)換
    的頭像 發(fā)表于 08-13 11:47 ?665次閱讀
    工業(yè)物聯(lián)網(wǎng)和自動化領(lǐng)域 Node-RED <b class='flag-5'>最常用</b>的 <b class='flag-5'>10</b> 大節(jié)點,你用過幾個?

    達夢數(shù)據(jù)庫常用管理SQL命令詳解

    達夢數(shù)據(jù)庫常用管理SQL命令詳解
    的頭像 發(fā)表于 06-17 15:12 ?3435次閱讀
    達夢數(shù)據(jù)庫<b class='flag-5'>常用</b>管理SQL命令<b class='flag-5'>詳解</b>

    MSP430常用內(nèi)聯(lián)函數(shù)說明

    電子發(fā)燒友網(wǎng)站提供《MSP430常用內(nèi)聯(lián)函數(shù)說明.docx》資料免費下載
    發(fā)表于 06-05 17:20 ?0次下載

    SSH常用命令詳解

    SSH常用命令詳解
    的頭像 發(fā)表于 06-04 11:30 ?1553次閱讀

    Kubernetes Pod常用管理命令詳解

    Kubernetes Pod常用管理命令詳解
    的頭像 發(fā)表于 02-17 14:06 ?828次閱讀
    Kubernetes Pod<b class='flag-5'>常用</b>管理命令<b class='flag-5'>詳解</b>

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?736次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?1215次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個神經(jīng)元組成,神經(jīng)元之間通過權(quán)重連接。我們構(gòu)建一個包含輸入層、隱藏層和輸出層的簡單
    的頭像 發(fā)表于 01-23 13:52 ?722次閱讀

    關(guān)于4G模組LuatOS開發(fā):通用加解密函數(shù)(crypto)|全攻略

    本次我要說的攻略是關(guān)于4G模組LuatOS開發(fā)的通用加解密函數(shù),我以我常用的Air780E模組為例子供大家參考。
    的頭像 發(fā)表于 11-30 09:52 ?1128次閱讀
    <b class='flag-5'>關(guān)于</b>4G模組LuatOS開發(fā):通用加解密<b class='flag-5'>函數(shù)</b>(crypto)|全攻略

    4G模組SD卡接口編程:深度學(xué)習(xí)

    今天我們需要深度學(xué)習(xí)的是4G模組SD卡接口編程,以我常用的模組Air724UG為例,分享給大家。
    的頭像 發(fā)表于 11-20 23:14 ?918次閱讀
    4G模組SD卡接口編程:<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>

    常用SQL函數(shù)及其用法

    SQL(Structured Query Language)是一種用于管理和操作關(guān)系數(shù)據(jù)庫的編程語言。SQL 提供了豐富的函數(shù)庫,用于數(shù)據(jù)檢索、數(shù)據(jù)更新、數(shù)據(jù)刪除以及數(shù)據(jù)聚合等操作。以下是一些常用
    的頭像 發(fā)表于 11-19 10:18 ?2014次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?2613次閱讀

    詳解kubectl常用命令

    詳解kubectl常用命令
    的頭像 發(fā)表于 11-05 15:39 ?2686次閱讀
    <b class='flag-5'>詳解</b>kubectl<b class='flag-5'>常用</b>命令

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?919次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1969次閱讀