chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)中的函數(shù):M-P神經(jīng)元、激活函數(shù)和感知機(jī)

wFVr_Hardware_1 ? 來源:硬件十萬個(gè)為什么 ? 作者:硬件十萬個(gè)為什么 ? 2022-11-02 14:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

怎樣理解激活函數(shù)呢?如果你現(xiàn)在正在一個(gè)世界500強(qiáng)的大廠里敲代碼,工作壓力巨大,“996”已經(jīng)成為常態(tài),但是你思前想后,考慮這份工作的薪水(權(quán)重w1)、免費(fèi)午餐和咖啡(權(quán)重w2)、你對(duì)編碼的熱愛(權(quán)重w3)、公司離家近(權(quán)重w4)、老婆對(duì)你工作的認(rèn)可(權(quán)重w5)等因素,綜合衡量后你決定忍了,或者說這一切并沒有超出你忍耐的閾值,把你的忍耐“功能”看作一個(gè)函數(shù),那么在這種場(chǎng)景下相當(dāng)于你的函數(shù)輸出為0,目前還處于沒有被激活狀態(tài)。但是事情總是向你意想不到的方向變化的,你發(fā)現(xiàn)“996”正在逐步變成“007”,或者免費(fèi)咖啡變成免費(fèi)白水了,再或者上述因素的權(quán)重開始調(diào)整了,比如你好像不太在乎老婆對(duì)你的工作是否認(rèn)可了,你終于不忍了,這時(shí)函數(shù)輸出超出了閾值,你把自己激活了,揚(yáng)長(zhǎng)而去。

1、一切的基礎(chǔ):M-P神經(jīng)元

深度學(xué)習(xí)網(wǎng)絡(luò)實(shí)質(zhì)上是層數(shù)較多的神經(jīng)網(wǎng)絡(luò),那什么是神經(jīng)網(wǎng)絡(luò)呢?簡(jiǎn)單來說是一種模仿動(dòng)物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行分布式并行處理信息的算法模型。人們總可以從萬能的大自然中學(xué)習(xí)到很多,比如通過研究鳥兒的翅膀發(fā)明飛機(jī),在研究蝙蝠時(shí)獲得發(fā)明雷達(dá)的靈感,人們同樣也希望效仿大腦神經(jīng)網(wǎng)絡(luò)而獲得智能。

模仿大腦神經(jīng)元的最早實(shí)例,是20世紀(jì)40年代提出并且一直沿用至今的“M-P神經(jīng)元模型”,這個(gè)M-P是什么意思啊?這里有一段故事。

M-P神經(jīng)元模型,最早源于發(fā)表于1943年的一篇論文,論文的兩位作者分別是神經(jīng)生理學(xué)家沃倫·麥克洛克(Warren McCulloch)和數(shù)學(xué)家沃爾特·皮茨(Walter Pitts),論文首次實(shí)現(xiàn)了用一個(gè)簡(jiǎn)單電路(也就是未來大名鼎鼎的感知機(jī))來模擬大腦神經(jīng)元的行為。那時(shí)受《數(shù)學(xué)原理》的啟發(fā),麥克洛克正在嘗試用戈特弗里德·萊布尼茨(微積分發(fā)明人)的邏輯演算來構(gòu)建一個(gè)大腦模型,這是一件極富挑戰(zhàn)性的事。麥克洛克猜想神經(jīng)元的工作機(jī)制很可能類似于邏輯門電路,接受多個(gè)輸入,產(chǎn)生單一的輸出,而通過改變神經(jīng)元的激發(fā)閾值以及神經(jīng)元之間的連接程度,就可以讓它執(zhí)行“與、或、非”等功能。但是麥克洛克的強(qiáng)項(xiàng)是神經(jīng)科學(xué),他不擅長(zhǎng)數(shù)學(xué),難以形式化描述自己的想法。這時(shí)頗有數(shù)學(xué)才華的皮茨出場(chǎng)了,正好補(bǔ)其短板。當(dāng)麥克洛克和皮茨完成他們的計(jì)算實(shí)驗(yàn)時(shí),實(shí)際上構(gòu)造了一個(gè)操作性非常強(qiáng)的機(jī)械型精神模型,后人就用二人名稱的首字母稱呼這個(gè)模型“M-P神經(jīng)元模型”?;谒麄兊难芯堪l(fā)現(xiàn),麥克洛克和皮茨寫了一篇學(xué)術(shù)文章,這篇文章就是神經(jīng)網(wǎng)絡(luò)的天下第一文《神經(jīng)活動(dòng)中思想內(nèi)在性的邏輯演算》(A Logical Calculus ofIdeas Immanent in Nervous Activity),發(fā)表在著名期刊《數(shù)學(xué)生物物理學(xué)通報(bào)》。

2、神經(jīng)網(wǎng)絡(luò)被激活:激活函數(shù)

M-P神經(jīng)元模型中,神經(jīng)元接收來自n個(gè)其他神經(jīng)元傳遞過來的輸入信號(hào)。這些信號(hào)的表達(dá)通常通過神經(jīng)元之間連接的權(quán)重(Weight)大小來表示,神經(jīng)元將接收到的輸入值按照某種權(quán)重疊加起來,匯集了所有其他外聯(lián)神經(jīng)元的輸入,并將其作為一個(gè)結(jié)果輸出。但這種輸出并非直接輸出,而是與當(dāng)前神經(jīng)元的閾值(θ就是閾值)進(jìn)行比較,然后通過激活函數(shù)f(Activation Function)向外表達(dá)輸出,y就是最終的輸出。

怎樣理解激活函數(shù)呢?如果你現(xiàn)在正在一個(gè)世界500強(qiáng)的大廠里敲代碼,工作壓力巨大,“996”已經(jīng)成為常態(tài),但是你思前想后,考慮這份工作的薪水(權(quán)重w1)、免費(fèi)午餐和咖啡(權(quán)重w2)、你對(duì)編碼的熱愛(權(quán)重w3)、公司離家近(權(quán)重w4)、老婆對(duì)你工作的認(rèn)可(權(quán)重w5)等因素,綜合衡量后你決定忍了,或者說這一切并沒有超出你忍耐的閾值,把你的忍耐“功能”看作一個(gè)函數(shù),那么在這種場(chǎng)景下相當(dāng)于你的函數(shù)輸出為0,目前還處于沒有被激活狀態(tài)。但是事情總是向你意想不到的方向變化的,你發(fā)現(xiàn)“996”正在逐步變成“007”,或者免費(fèi)咖啡變成免費(fèi)白水了,再或者上述因素的權(quán)重開始調(diào)整了,比如你好像不太在乎老婆對(duì)你的工作是否認(rèn)可了,你終于不忍了,這時(shí)函數(shù)輸出超出了閾值,你把自己激活了,揚(yáng)長(zhǎng)而去

神經(jīng)元的工作模型存在“激活-》1”和“抑制-》0”兩種狀態(tài)的跳變,理想的激活函數(shù)就應(yīng)該是的階躍函數(shù),但在實(shí)際使用中,這類函數(shù)具有不光滑、不連續(xù)等眾多不“友好”的特性, 于是Sigmoid激活函數(shù),Tanh 激活函數(shù),ReLU激活函數(shù),Softmax激活函數(shù)等等加強(qiáng)版出現(xiàn),根據(jù)不同需求各顯神通。

3、神經(jīng)網(wǎng)絡(luò)的“Hello World”:感知機(jī)

感知機(jī)是由康奈爾航空實(shí)驗(yàn)室的心理學(xué)教授弗蘭克·羅森布拉特(Frank Rosenblatt)在1957年提出的一種人工神經(jīng)網(wǎng)絡(luò),也被視為一種形式最簡(jiǎn)單的前饋式人工神經(jīng)網(wǎng)絡(luò),是一種二元線性分類器。羅森布拉特做了一個(gè)在當(dāng)時(shí)看來非常令人“驚艷”的實(shí)驗(yàn),實(shí)驗(yàn)的訓(xùn)練數(shù)據(jù)是50組圖片,每組兩幅,由一張標(biāo)識(shí)向左和一張標(biāo)識(shí)向右的圖片組成。學(xué)著,學(xué)著,這部感知機(jī)就能“感知”出最佳的連接權(quán)值。然后,對(duì)于一個(gè)全新的圖片,在沒有任何人工干預(yù)的情況下,它能“獨(dú)立”判定出圖片標(biāo)識(shí)為左還是為右。

感知機(jī)是一切神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的起點(diǎn),是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)“Hello World”。感知機(jī)也被稱為“閾值邏輯單元”,我們?cè)谏衔恼f“激活函數(shù)”時(shí)已經(jīng)講解過原理了。感知機(jī)有明確的結(jié)果導(dǎo)向性,比如下圖感知機(jī)的實(shí)例,目的就是區(qū)分“西瓜和香蕉”,感知機(jī)的“學(xué)習(xí)”就是,就是通過不斷的循環(huán)往復(fù)的試錯(cuò),調(diào)整神經(jīng)元之間的連接權(quán)值(w參數(shù)值)和神經(jīng)元閾值(θ參數(shù)值)等規(guī)則,最終只要能達(dá)到良好的分類目的就是好的規(guī)則。

4、人工智能的寒冬:感知機(jī)的問題

聰慧的你可能發(fā)現(xiàn),感知機(jī)很容易實(shí)現(xiàn)邏輯上的“與、或、非”等原子布爾函數(shù),但是感知機(jī)難以實(shí)現(xiàn)常見的“異或”邏輯操作。1972年,明斯基出版了《感知機(jī):計(jì)算幾何簡(jiǎn)介》一書,在書中論述了感知機(jī)模型存在的兩個(gè)關(guān)鍵問題,一是單層神經(jīng)網(wǎng)絡(luò)無法實(shí)現(xiàn)“異或門電路”等功能,第二是,即使使用當(dāng)時(shí)最先進(jìn)的計(jì)算機(jī),也沒有足夠的計(jì)算能力去完成神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練所需的超大的計(jì)算量(比如調(diào)整網(wǎng)絡(luò)中的權(quán)重參數(shù))。這篇文章把人工智能送進(jìn)了長(zhǎng)達(dá)二十年的“冬天”,由于看不到前景,人工智能研究獲得的經(jīng)費(fèi)大幅度減少,不少研究人員也不得不轉(zhuǎn)行。

審核編輯:郭婷


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:機(jī)器學(xué)習(xí)中的函數(shù)(1)- 激活函數(shù)和感知機(jī)

文章出處:【微信號(hào):Hardware_10W,微信公眾號(hào):硬件十萬個(gè)為什么】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無刷直流電機(jī)單神經(jīng)元自適應(yīng)智能控制系統(tǒng)

    摘要:針對(duì)無刷直流電機(jī)(BLDCM)設(shè)計(jì)了一種可在線學(xué)習(xí)的單神經(jīng)元自適應(yīng)比例-積分-微分(PID)智能控制器,通過有監(jiān)督的 Hebb學(xué)習(xí)規(guī)則調(diào)整權(quán)值,每次采樣根據(jù)反饋誤差對(duì)神經(jīng)元權(quán)值進(jìn)
    發(fā)表于 06-26 13:36

    無刷直流電機(jī)單神經(jīng)元PI控制器的設(shè)計(jì)

    摘要:研究了一種基于專家系統(tǒng)的單神經(jīng)元PI控制器,并將其應(yīng)用于無刷直流電機(jī)調(diào)速系統(tǒng)。控制器實(shí)現(xiàn)了PI參數(shù)的在線調(diào)整,在具有PID控制器良好動(dòng)態(tài)性能的同時(shí),減少微分項(xiàng)對(duì)系統(tǒng)穩(wěn)態(tài)運(yùn)行時(shí)的影響,并較好
    發(fā)表于 06-26 13:34

    蚌埠:傳感“神經(jīng)元激活產(chǎn)業(yè)新脈動(dòng),智能傳感器產(chǎn)業(yè)邁向千億新征程

    的"神經(jīng)元",用微小身軀傳遞著海量信號(hào)。而在安徽蚌埠,一場(chǎng)關(guān)于"感知"的產(chǎn)業(yè)革命正澎湃上演。 ? 群賢畢至探"智感",第七屆智能傳感器產(chǎn)業(yè)發(fā)展大會(huì)啟幕 ? 5月24日,淮河之畔的蚌埠迎來一場(chǎng)科技盛宴——以"芯聚江淮 智感世界"為主題的
    的頭像 發(fā)表于 05-28 18:09 ?323次閱讀

    詳解RTOS的Hook函數(shù)

    Hook函數(shù)是RTOS的一個(gè)關(guān)鍵特性,通過該函數(shù),用戶可以增強(qiáng)對(duì)任務(wù)管理的控制,定義系統(tǒng)行為。
    的頭像 發(fā)表于 03-24 16:14 ?384次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)步驟詳解

    網(wǎng)絡(luò)的層數(shù)、每層神經(jīng)元的數(shù)量以及激活函數(shù)。 初始化權(quán)重和偏置 : 隨機(jī)初始化輸入層與隱藏層、隱藏層與隱藏層、隱藏層與輸出層之間的連接權(quán)重,以及各層的偏置項(xiàng)。這些權(quán)重和偏置在訓(xùn)練過程中會(huì)逐漸調(diào)整。 設(shè)置
    的頭像 發(fā)表于 02-12 15:50 ?645次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負(fù)責(zé)接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡(luò)的核心部分,它可以通過一層或多層神經(jīng)元對(duì)輸入數(shù)據(jù)進(jìn)行加權(quán)求和,并通過非線性激活函數(shù)
    的頭像 發(fā)表于 02-12 15:13 ?847次閱讀

    如何訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型

    從輸入層向輸出層傳播的過程。具體來說,輸入層的信號(hào)經(jīng)過加權(quán)和運(yùn)算后傳遞給隱藏層,隱藏層的神經(jīng)元接收來自前一層的信號(hào),經(jīng)過激活函數(shù)處理后再傳遞給下一層,直到最終到達(dá)輸出層。每一層的輸出都是下一層輸入的來源。其中,y表示當(dāng)前
    的頭像 發(fā)表于 02-12 15:10 ?904次閱讀

    深度學(xué)習(xí)入門:簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    所擬合的數(shù)學(xué)模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設(shè)計(jì)的。然而,數(shù)據(jù)科學(xué)中常用的神經(jīng)網(wǎng)絡(luò)作為大腦模型已經(jīng)過時(shí),現(xiàn)在它們只是能夠在某些應(yīng)用中提供最先進(jìn)性能的機(jī)器學(xué)
    的頭像 發(fā)表于 01-09 10:24 ?1183次閱讀
    人工<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)的原理和多種<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)架構(gòu)方法

    【每天學(xué)點(diǎn)AI】前向傳播、損失函數(shù)、反向傳播

    在深度學(xué)習(xí)的領(lǐng)域中,前向傳播、反向傳播和損失函數(shù)是構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的三個(gè)核心概念。今天,小編將通過一個(gè)簡(jiǎn)單的實(shí)例,解釋這三個(gè)概念,并展示它們的作用。前向傳播:神經(jīng)網(wǎng)絡(luò)的“思考”過
    的頭像 發(fā)表于 11-15 10:32 ?1222次閱讀
    【每天學(xué)點(diǎn)AI】前向傳播、損失<b class='flag-5'>函數(shù)</b>、反向傳播

    RNN的損失函數(shù)與優(yōu)化算法解析

    RNN的損失函數(shù) RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))在處理序列數(shù)據(jù)的過程,損失函數(shù)(Loss Function)扮演著重要的角色,它可以測(cè)量模型在訓(xùn)練
    的頭像 發(fā)表于 11-15 10:16 ?1389次閱讀

    SUMIF函數(shù)與SUMIFS函數(shù)的區(qū)別

    SUMIF函數(shù)和SUMIFS函數(shù)都是Excel中用于條件求和的函數(shù),它們可以幫助用戶根據(jù)特定的條件對(duì)數(shù)據(jù)進(jìn)行求和。盡管它們的基本功能相似,但在使用場(chǎng)景和功能上存在一些差異。以下是對(duì)這兩個(gè)函數(shù)
    的頭像 發(fā)表于 10-30 09:51 ?7501次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    神經(jīng)元都是輸入的線性變換——將輸入乘以數(shù)字(權(quán)重w)并加上一個(gè)常數(shù)(偏置b),然后通過一個(gè)固定的非線性函數(shù)產(chǎn)生輸出,該函數(shù)也被稱為激活函數(shù)
    發(fā)表于 10-24 13:56

    RTOS鉤子函數(shù)的用途及用法

    在很多操作系統(tǒng),都存在這樣一類API函數(shù)接口:HOOK函數(shù)(也叫鉤子函數(shù))。
    的頭像 發(fā)表于 10-23 16:25 ?768次閱讀
    RTOS<b class='flag-5'>中</b>鉤子<b class='flag-5'>函數(shù)</b>的用途及用法

    Python自動(dòng)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)(ANN)是機(jī)器學(xué)習(xí)中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過多層節(jié)點(diǎn)(神經(jīng)元)之間的連接和權(quán)重調(diào)整來
    的頭像 發(fā)表于 07-19 11:54 ?698次閱讀