chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

通過刪除神經(jīng)元理解深度學習

DPVg_AI_era ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-26 10:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

理解深度神經(jīng)網(wǎng)絡的運作機制對于幫助我們解釋它們的決定,以及構建更強大的系統(tǒng)起到了至關重要的作用。例如,試想在不了解個體齒輪如何嚙合的情況下去構建時鐘會有多么的困難。在神經(jīng)科學和深度學習中,理解神經(jīng)網(wǎng)絡的一種方法是調查個體神經(jīng)元所扮演的“角色”,尤其是那些易于解釋的神經(jīng)元。

我們對單一方向泛化的重要性的研究(On the importance of single directions for generalization)即將在第六屆國際學習表征會議 (ICLR)上問世,該研究采用的方法受到數(shù)十年實驗神經(jīng)科學的啟發(fā)– 通過探索刪除神經(jīng)元帶來的影響 – 來確定深度神經(jīng)網(wǎng)絡中神經(jīng)元小組的重要性,以及相對容易解釋的神經(jīng)元是否對神經(jīng)網(wǎng)絡的計算更為重要?

我們通過刪除單個神經(jīng)元以及神經(jīng)元小組對其所在的網(wǎng)絡性能的損害來研究它們的影響力。我們的實驗帶來了兩個令人驚訝的發(fā)現(xiàn):

雖然以前的許多研究都集中于解讀易解釋的單個神經(jīng)元(例如,“貓神經(jīng)元”,或深層網(wǎng)絡隱藏層中只對貓的圖像有反應的神經(jīng)元),但是我們發(fā)現(xiàn)這些可解釋的神經(jīng)元相對于難懂的,難以解釋其活動的神經(jīng)元來說并沒有更加重要。

能夠對未知圖像進行正確分類的網(wǎng)絡比只能對已知圖像進行正確分類的神經(jīng)網(wǎng)絡更能適應神經(jīng)元的刪除。換句話說,泛性好的網(wǎng)絡比那些記憶網(wǎng)絡更少依賴單一方向的輸入。

“貓神經(jīng)元”可能更易于解釋,但它們并不重要

在神經(jīng)科學和深度學習中,對單個輸入類別的圖像(例如狗)作出響應的易于解釋的神經(jīng)元(“選擇性”神經(jīng)元)已經(jīng)得到了廣泛的研究。在深度學習中,這導致了對貓神經(jīng)元,情緒神經(jīng)元和括號神經(jīng)元的強調;在神經(jīng)科學,有詹妮弗安妮斯頓神經(jīng)元研究,等等。然而,這些少數(shù)高選擇性神經(jīng)元相對于大多數(shù)具有低選擇性、更難懂,難以解釋其活動的神經(jīng)元的重要性仍然未知。

具有明顯響應模式(例如,對貓活躍,對其他所有活動不活躍)的神經(jīng)元比看到隨機圖像活躍和不活躍的神經(jīng)元更容易解釋。

為了評估(某個)神經(jīng)元的重要性,我們測量了當該神經(jīng)元被刪除時,神經(jīng)網(wǎng)絡在圖像分類任務上的表現(xiàn)變化。如果一個神經(jīng)元是非常重要的,刪除它應會對神經(jīng)網(wǎng)絡產(chǎn)生高度的破壞性,大大降低該網(wǎng)絡的性能;相反地,刪除一個不重要的神經(jīng)元則應該無法對神經(jīng)網(wǎng)絡構成很大影響。神經(jīng)科學家經(jīng)常進行類似的實驗,然而他們很難達到這些實驗所需的精度,而這精度在人工神經(jīng)網(wǎng)絡中恰恰容易獲得。

刪除神經(jīng)元對簡單神經(jīng)網(wǎng)絡影響的直觀圖示。顏色較深的神經(jīng)元更加活躍。嘗試點擊隱藏層中的神經(jīng)元并刪除它們,觀察輸出神經(jīng)元的活動會如何改變。請注意,刪除一個或兩個神經(jīng)元對輸出影響很小,而刪除大部分神經(jīng)元則會對輸出影響很大,并且一些神經(jīng)元比其他神經(jīng)元更重要!

令人驚訝的是,我們發(fā)現(xiàn)選擇性強的神經(jīng)元和重要性之間幾乎沒有關系。換句話說,“貓神經(jīng)元”并不比難懂神經(jīng)元更加重要。這一發(fā)現(xiàn)與最近在神經(jīng)科學方面的工作相互呼應,即難懂神經(jīng)元實際上可以提供很多信息。我們需將視野拓展到最易于解釋的神經(jīng)元以外來了解深度神經(jīng)網(wǎng)絡。

“貓神經(jīng)元”可能更易解釋,但它們并不比難懂的沒有明顯偏好的神經(jīng)元更重要。嘗試點擊上圖的二維線畫圖函數(shù),看看重要性和易解釋性之間的關系!

盡管可解釋的神經(jīng)元在直覺上更容易理解(“它喜歡狗”),但它們并不比難懂的,沒有明顯偏好的神經(jīng)元更重要。

越泛化的神經(jīng)網(wǎng)絡,越難被打破

對于我們正在努力構建的智能系統(tǒng)來說,只有當這種系統(tǒng)能夠推廣到對新的情況進行解讀時,我們才能稱之為智能系統(tǒng)。例如,一個圖像分類網(wǎng)絡如果只能對以前看過的特定狗的圖像進行分類,而不能對同一只狗的新的圖像進行分類的話,那么它是無用的。只有當它可以對新的例子進行智能分類時,這個系統(tǒng)才能展現(xiàn)了它的效用。 一篇由Google Brain,Berkeley大學和DeepMind最近在ICLR 2017上獲得最佳論文的合作論文表明,深度網(wǎng)絡可以簡單地記住它們接受過培訓的每個圖像,然而卻不能以類人類的方式對圖像進行學習(例如,了解抽象的“狗”概念)。

通常我們不知道網(wǎng)絡是否已經(jīng)學會了一種能夠推廣到新情況的解決方案。通過逐漸刪除越來越大的神經(jīng)元組,我們發(fā)現(xiàn),相比起對以前訓練期間看到的圖像進行簡單記憶的網(wǎng)絡,泛化良好的網(wǎng)絡在應對刪除時表現(xiàn)出的穩(wěn)健性要強得多。換句話說,泛化好的網(wǎng)絡很難被打破(盡管它們肯定還是會被打破的)。

隨著越來越多的神經(jīng)元組被刪除,泛化的網(wǎng)絡性能的下降速度遠遠低于記憶網(wǎng)絡的性能。

通過以這種衡量網(wǎng)絡的穩(wěn)健性的方式,我們可以評估一個網(wǎng)絡是否在利用記憶來進行“欺騙”。了解網(wǎng)絡在進行記憶時的變化將有助于我們建立新的網(wǎng)絡,這種網(wǎng)絡記憶較少,泛化較強。

受到神經(jīng)科學啟發(fā)的分析

總之,這些發(fā)現(xiàn)證明了使用受實驗神經(jīng)科學啟發(fā)的技術對理解神經(jīng)網(wǎng)絡的重要作用。通過這些方法,我們發(fā)現(xiàn)選擇性強的個體神經(jīng)元并不一定比不具選擇性的神經(jīng)元更加重要,并且,單個神經(jīng)元對泛化的網(wǎng)絡的影響比其對單純依靠記憶數(shù)據(jù)訓練出來的網(wǎng)絡更小。這些結果意味著單個神經(jīng)元的重要性可能比你乍看上去的要低。

試圖了解所有神經(jīng)元,而不僅僅是那些易于理解的神經(jīng)元的作用可以幫助我們更好地理解神經(jīng)網(wǎng)絡的內部工作,更加重要的是,我們可以利用這種理解來構建更加智能和應用廣泛的系統(tǒng)。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)
    +關注

    關注

    0

    文章

    46

    瀏覽量

    12664
  • 深度學習
    +關注

    關注

    73

    文章

    5561

    瀏覽量

    122795

原文標題:DeepMind 最新研究:通過刪除神經(jīng)元理解深度學習

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    無刷直流電機單神經(jīng)元自適應智能控制系統(tǒng)

    摘要:針對無刷直流電機(BLDCM)設計了一種可在線學習的單神經(jīng)元自適應比例-積分-微分(PID)智能控制器,通過有監(jiān)督的 Hebb學習規(guī)則調整權值,每次采樣根據(jù)反饋誤差對
    發(fā)表于 06-26 13:36

    無刷直流電機單神經(jīng)元PI控制器的設計

    刷直流電機單神經(jīng)元PI控制器的設計.pdf 【免責聲明】本文系網(wǎng)絡轉載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請第一時間告知,刪除內容,謝謝!
    發(fā)表于 06-26 13:34

    嵌入式AI技術之深度學習:數(shù)據(jù)樣本預處理過程中使用合適的特征變換對深度學習的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡實現(xiàn)機器學習,網(wǎng)絡的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡構成深度學習的框架,可以
    的頭像 發(fā)表于 04-02 18:21 ?886次閱讀

    BP神經(jīng)網(wǎng)絡的網(wǎng)絡結構設計原則

    ,僅作為數(shù)據(jù)輸入的接口。輸入層的神經(jīng)元個數(shù)通常與輸入數(shù)據(jù)的特征數(shù)量相對應。 隱藏層 :對輸入信號進行非線性變換,是神經(jīng)網(wǎng)絡的核心部分,負責學習輸入與輸出之間的復雜映射關系。隱藏層可以有一層或多層,層數(shù)和
    的頭像 發(fā)表于 02-12 16:41 ?743次閱讀

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的比較

    多層。 每一層都由若干個神經(jīng)元構成,神經(jīng)元之間通過權重連接。信號在神經(jīng)網(wǎng)絡中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(CNN) :
    的頭像 發(fā)表于 02-12 15:53 ?670次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關系

    ),是一種多層前饋神經(jīng)網(wǎng)絡,它通過反向傳播算法進行訓練。BP神經(jīng)網(wǎng)絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調整網(wǎng)絡權重,目的是最小化網(wǎng)絡的輸出誤差。 二、
    的頭像 發(fā)表于 02-12 15:15 ?862次閱讀

    深度學習入門:簡單神經(jīng)網(wǎng)絡的構建與實現(xiàn)

    深度學習中,神經(jīng)網(wǎng)絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經(jīng)網(wǎng)絡。 神經(jīng)網(wǎng)絡由多個
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法

    所擬合的數(shù)學模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設計的。然而,數(shù)據(jù)科學中常用的神經(jīng)網(wǎng)絡作為大腦模型已經(jīng)過時,現(xiàn)在它們只是能夠在某些應用中提供最先進性能的機器學習模型。近年來,由于
    的頭像 發(fā)表于 01-09 10:24 ?1196次閱讀
    人工<b class='flag-5'>神經(jīng)</b>網(wǎng)絡的原理和多種<b class='flag-5'>神經(jīng)</b>網(wǎng)絡架構方法

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    深度學習領域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?1872次閱讀

    深度學習中的卷積神經(jīng)網(wǎng)絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡作為深度學習的一個分支,因其在圖像處理
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡的區(qū)別

    傳統(tǒng)神經(jīng)網(wǎng)絡(前饋神經(jīng)網(wǎng)絡) 2.1 結構 傳統(tǒng)神經(jīng)網(wǎng)絡,通常指的是前饋神經(jīng)網(wǎng)絡(Feedforward Neural Networks, FNN),是一種最簡單的人工
    的頭像 發(fā)表于 11-15 09:42 ?1129次閱讀

    NPU在深度學習中的應用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其核心驅動力之一,已經(jīng)在眾多領域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1918次閱讀

    關于卷積神經(jīng)網(wǎng)絡,這些概念你厘清了么~

    神經(jīng)元都是輸入的線性變換——將輸入乘以數(shù)字(權重w)并加上一個常數(shù)(偏置b),然后通過一個固定的非線性函數(shù)產(chǎn)生輸出,該函數(shù)也被稱為激活函數(shù) ^1^ 。作為網(wǎng)絡中唯一的非線性部分,激活函數(shù)用于定義人工神經(jīng)元
    發(fā)表于 10-24 13:56

    AI大模型與深度學習的關系

    AI大模型與深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 一、深度學習是AI大模型的基礎 技術支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2893次閱讀

    Python自動訓練人工神經(jīng)網(wǎng)絡

    人工神經(jīng)網(wǎng)絡(ANN)是機器學習中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過多層節(jié)點(神經(jīng)元)之間的連接和權重調整來
    的頭像 發(fā)表于 07-19 11:54 ?703次閱讀