chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

通過刪除神經元理解深度學習

DPVg_AI_era ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-26 10:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

理解深度神經網絡的運作機制對于幫助我們解釋它們的決定,以及構建更強大的系統起到了至關重要的作用。例如,試想在不了解個體齒輪如何嚙合的情況下去構建時鐘會有多么的困難。在神經科學和深度學習中,理解神經網絡的一種方法是調查個體神經元所扮演的“角色”,尤其是那些易于解釋的神經元。

我們對單一方向泛化的重要性的研究(On the importance of single directions for generalization)即將在第六屆國際學習表征會議 (ICLR)上問世,該研究采用的方法受到數十年實驗神經科學的啟發(fā)– 通過探索刪除神經元帶來的影響 – 來確定深度神經網絡中神經元小組的重要性,以及相對容易解釋的神經元是否對神經網絡的計算更為重要?

我們通過刪除單個神經元以及神經元小組對其所在的網絡性能的損害來研究它們的影響力。我們的實驗帶來了兩個令人驚訝的發(fā)現:

雖然以前的許多研究都集中于解讀易解釋的單個神經元(例如,“貓神經元”,或深層網絡隱藏層中只對貓的圖像有反應的神經元),但是我們發(fā)現這些可解釋的神經元相對于難懂的,難以解釋其活動的神經元來說并沒有更加重要。

能夠對未知圖像進行正確分類的網絡比只能對已知圖像進行正確分類的神經網絡更能適應神經元的刪除。換句話說,泛性好的網絡比那些記憶網絡更少依賴單一方向的輸入。

“貓神經元”可能更易于解釋,但它們并不重要

在神經科學和深度學習中,對單個輸入類別的圖像(例如狗)作出響應的易于解釋的神經元(“選擇性”神經元)已經得到了廣泛的研究。在深度學習中,這導致了對貓神經元,情緒神經元和括號神經元的強調;在神經科學,有詹妮弗安妮斯頓神經元研究,等等。然而,這些少數高選擇性神經元相對于大多數具有低選擇性、更難懂,難以解釋其活動的神經元的重要性仍然未知。

具有明顯響應模式(例如,對貓活躍,對其他所有活動不活躍)的神經元比看到隨機圖像活躍和不活躍的神經元更容易解釋。

為了評估(某個)神經元的重要性,我們測量了當該神經元被刪除時,神經網絡在圖像分類任務上的表現變化。如果一個神經元是非常重要的,刪除它應會對神經網絡產生高度的破壞性,大大降低該網絡的性能;相反地,刪除一個不重要的神經元則應該無法對神經網絡構成很大影響。神經科學家經常進行類似的實驗,然而他們很難達到這些實驗所需的精度,而這精度在人工神經網絡中恰恰容易獲得。

刪除神經元對簡單神經網絡影響的直觀圖示。顏色較深的神經元更加活躍。嘗試點擊隱藏層中的神經元并刪除它們,觀察輸出神經元的活動會如何改變。請注意,刪除一個或兩個神經元對輸出影響很小,而刪除大部分神經元則會對輸出影響很大,并且一些神經元比其他神經元更重要!

令人驚訝的是,我們發(fā)現選擇性強的神經元和重要性之間幾乎沒有關系。換句話說,“貓神經元”并不比難懂神經元更加重要。這一發(fā)現與最近在神經科學方面的工作相互呼應,即難懂神經元實際上可以提供很多信息。我們需將視野拓展到最易于解釋的神經元以外來了解深度神經網絡。

“貓神經元”可能更易解釋,但它們并不比難懂的沒有明顯偏好的神經元更重要。嘗試點擊上圖的二維線畫圖函數,看看重要性和易解釋性之間的關系!

盡管可解釋的神經元在直覺上更容易理解(“它喜歡狗”),但它們并不比難懂的,沒有明顯偏好的神經元更重要。

越泛化的神經網絡,越難被打破

對于我們正在努力構建的智能系統來說,只有當這種系統能夠推廣到對新的情況進行解讀時,我們才能稱之為智能系統。例如,一個圖像分類網絡如果只能對以前看過的特定狗的圖像進行分類,而不能對同一只狗的新的圖像進行分類的話,那么它是無用的。只有當它可以對新的例子進行智能分類時,這個系統才能展現了它的效用。 一篇由Google Brain,Berkeley大學和DeepMind最近在ICLR 2017上獲得最佳論文的合作論文表明,深度網絡可以簡單地記住它們接受過培訓的每個圖像,然而卻不能以類人類的方式對圖像進行學習(例如,了解抽象的“狗”概念)。

通常我們不知道網絡是否已經學會了一種能夠推廣到新情況的解決方案。通過逐漸刪除越來越大的神經元組,我們發(fā)現,相比起對以前訓練期間看到的圖像進行簡單記憶的網絡,泛化良好的網絡在應對刪除時表現出的穩(wěn)健性要強得多。換句話說,泛化好的網絡很難被打破(盡管它們肯定還是會被打破的)。

隨著越來越多的神經元組被刪除,泛化的網絡性能的下降速度遠遠低于記憶網絡的性能。

通過以這種衡量網絡的穩(wěn)健性的方式,我們可以評估一個網絡是否在利用記憶來進行“欺騙”。了解網絡在進行記憶時的變化將有助于我們建立新的網絡,這種網絡記憶較少,泛化較強。

受到神經科學啟發(fā)的分析

總之,這些發(fā)現證明了使用受實驗神經科學啟發(fā)的技術對理解神經網絡的重要作用。通過這些方法,我們發(fā)現選擇性強的個體神經元并不一定比不具選擇性的神經元更加重要,并且,單個神經元對泛化的網絡的影響比其對單純依靠記憶數據訓練出來的網絡更小。這些結果意味著單個神經元的重要性可能比你乍看上去的要低。

試圖了解所有神經元,而不僅僅是那些易于理解的神經元的作用可以幫助我們更好地理解神經網絡的內部工作,更加重要的是,我們可以利用這種理解來構建更加智能和應用廣泛的系統。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 神經
    +關注

    關注

    0

    文章

    46

    瀏覽量

    12757
  • 深度學習
    +關注

    關注

    73

    文章

    5589

    瀏覽量

    123883

原文標題:DeepMind 最新研究:通過刪除神經元理解深度學習

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經元設備和腦機接口有何淵源?

    HUIYING神經元設備的發(fā)展歷程概述神經元設備的發(fā)展經歷了從基礎信號檢測到多功能智能集成的演進過程。自1920年代腦電圖(EEG)信號首次被發(fā)現以來,神經電極技術逐步發(fā)展,如1957年出現的鎢微絲
    的頭像 發(fā)表于 11-03 18:03 ?1137次閱讀
    <b class='flag-5'>神經元</b>設備和腦機接口有何淵源?

    激活函數ReLU的理解與總結

    具有很強的處理線性不可分機制。那么在深度網絡中,對非線性的依賴程度就可以縮一縮。一旦神經元神經元之間改為線性激活,網絡的非線性部分僅僅來自于神經元部分選擇性激活。 對比大腦工作的9
    發(fā)表于 10-31 06:16

    脈沖神經元模型的硬件實現

    ;其中配置信息通過 APB 接口配置到神經元狀態(tài)存儲模塊和突觸存儲模塊,對神 經核使用的神經元模型參數,突觸權重,神經元個數等參數進行初始化??刂颇K負責安排
    發(fā)表于 10-24 08:27

    SNN加速器內部神經元數據連接方式

    所謂地址事件表達(Address Event Representation,AER),是指通過地址的方式將事件進行表達,然后按時間順序復用到總線上。已知生物神經元產生脈沖的頻率比數字電路要低很多
    發(fā)表于 10-24 07:34

    液態(tài)神經網絡(LNN):時間連續(xù)性與動態(tài)適應性的神經網絡

    神經元,但卻能產生復雜的行為。受此啟發(fā),與傳統的神經網絡相比,LNN旨在通過模擬大腦中神經元之間的動態(tài)連接來處理信息,這種網絡能夠順序處理數據,并且保留了對過去輸
    的頭像 發(fā)表于 09-28 10:03 ?647次閱讀
    液態(tài)<b class='flag-5'>神經</b>網絡(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經</b>網絡

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經形態(tài)計算、類腦芯片

    。是實現類腦芯片的基本模型。SNN中的神經元通過短的電脈沖相互溝通,脈沖之間的時間間隔起著重要作用。 最有利于硬件實現的脈沖神經元模型是“漏電整合-激發(fā)”模型: 與DNN相比,SNN的優(yōu)勢與區(qū)別
    發(fā)表于 09-17 16:43

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經常會出現“
    的頭像 發(fā)表于 09-10 17:38 ?666次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>神經</b>網絡

    新一代神經擬態(tài)類腦計算機“悟空”發(fā)布,神經元數量超20億

    電子發(fā)燒友網綜合報道 8月2日,浙江大學腦機智能全國重點實驗室發(fā)布新一代神經擬態(tài)類腦計算機——Darwin Monkey(中文名“悟空”)。 ? “悟空”堪稱國際首臺神經元規(guī)模超20億、基于專用神經
    的頭像 發(fā)表于 08-06 07:57 ?7233次閱讀
    新一代<b class='flag-5'>神經</b>擬態(tài)類腦計算機“悟空”發(fā)布,<b class='flag-5'>神經元</b>數量超20億

    無刷直流電機單神經元自適應智能控制系統

    摘要:針對無刷直流電機(BLDCM)設計了一種可在線學習的單神經元自適應比例-積分-微分(PID)智能控制器,通過有監(jiān)督的 Hebb學習規(guī)則調整權值,每次采樣根據反饋誤差對
    發(fā)表于 06-26 13:36

    無刷直流電機單神經元PI控制器的設計

    刷直流電機單神經元PI控制器的設計.pdf 【免責聲明】本文系網絡轉載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請第一時間告知,刪除內容,謝謝!
    發(fā)表于 06-26 13:34

    BP神經網絡的網絡結構設計原則

    ,僅作為數據輸入的接口。輸入層的神經元個數通常與輸入數據的特征數量相對應。 隱藏層 :對輸入信號進行非線性變換,是神經網絡的核心部分,負責學習輸入與輸出之間的復雜映射關系。隱藏層可以有一層或多層,層數和
    的頭像 發(fā)表于 02-12 16:41 ?1233次閱讀

    BP神經網絡與卷積神經網絡的比較

    多層。 每一層都由若干個神經元構成,神經元之間通過權重連接。信號在神經網絡中是前向傳播的,而誤差是反向傳播的。 卷積神經網絡(CNN) :
    的頭像 發(fā)表于 02-12 15:53 ?1281次閱讀

    BP神經網絡與深度學習的關系

    ),是一種多層前饋神經網絡,它通過反向傳播算法進行訓練。BP神經網絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調整網絡權重,目的是最小化網絡的輸出誤差。 二、
    的頭像 發(fā)表于 02-12 15:15 ?1323次閱讀

    深度學習入門:簡單神經網絡的構建與實現

    深度學習中,神經網絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經網絡。 神經網絡由多個
    的頭像 發(fā)表于 01-23 13:52 ?833次閱讀

    人工神經網絡的原理和多種神經網絡架構方法

    所擬合的數學模型的形式受到大腦中神經元的連接和行為的啟發(fā),最初是為了研究大腦功能而設計的。然而,數據科學中常用的神經網絡作為大腦模型已經過時,現在它們只是能夠在某些應用中提供最先進性能的機器學習模型。近年來,由于
    的頭像 發(fā)表于 01-09 10:24 ?2216次閱讀
    人工<b class='flag-5'>神經</b>網絡的原理和多種<b class='flag-5'>神經</b>網絡架構方法