chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

神經(jīng)網(wǎng)絡中持續(xù)學習在穩(wěn)步提高數(shù)據(jù)效率方面的潛力

人工智能與大數(shù)據(jù)技術 ? 來源:人工智能與大數(shù)據(jù)技術 ? 作者:人工智能與大數(shù)據(jù) ? 2020-12-16 09:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導讀】本文將持續(xù)學習與神經(jīng)網(wǎng)絡的學習動力學聯(lián)系起來,強調它在穩(wěn)步提高數(shù)據(jù)效率方面的潛力,還進一步考慮了近年來出現(xiàn)的許多受生物學啟發(fā)的新方法,重點關注那些利用正規(guī)化、模塊化、記憶和元學習的方法,并強調了一些最有前途和最有影響的方向。

現(xiàn)代機器學習擅長于從固定的數(shù)據(jù)集和固定的環(huán)境中訓練出強大的模型,常常超過人類的能力。然而,這些模型未能模擬人類的學習過程,而人類的學習過程是有效的、穩(wěn)健的,并且能夠從非平穩(wěn)世界的連續(xù)經(jīng)驗中逐步學習。對于這一局限性的見解可以從神經(jīng)網(wǎng)絡優(yōu)化的本質中獲得,這意味著持續(xù)學習技術可以從根本上提高深度學習,并打開了新的應用領域的大門。持續(xù)學習的有前途的方法可以在最細粒度的層次上找到,使用基于梯度的方法,也可以在體系結構層次上找到,使用模塊化和基于內存的方法。我們也認為元學習是一個潛在的重要方向。

人工智能研究在過去的幾個月中取得了巨大的進步,但它主要依賴于固定的數(shù)據(jù)集和固定的環(huán)境。持續(xù)學習是一個日益相關的研究領域,它表明人工系統(tǒng)可能像生物系統(tǒng)一樣,從連續(xù)不斷的相關數(shù)據(jù)流中有序地學習。在目前的回顧中,我們將持續(xù)學習與神經(jīng)網(wǎng)絡的學習動力學聯(lián)系起來,強調它在穩(wěn)步提高數(shù)據(jù)效率方面的潛力。我們進一步考慮了近年來出現(xiàn)的許多受生物學啟發(fā)的新方法,重點關注那些利用正規(guī)化、模塊化、記憶和元學習的方法,并強調了一些最有前途和最有影響的方向。

世界不是靜止不動的

人工智能成功的一個常見基準是模仿人類學習的能力。我們測量人類識別圖像、玩游戲和駕駛汽車的能力,舉幾個例子,然后開發(fā)機器學習模型,如果有足夠的訓練數(shù)據(jù),它可以匹配或超過這些能力。這種范式把重點放在最終結果上,而不是學習過程上,并且忽略了人類學習的一個關鍵特征:它對不斷變化的任務和連續(xù)的經(jīng)驗是魯棒的。

人類以這種方式學習也許并不奇怪,畢竟,時間是不可逆的,世界是不穩(wěn)定的(見詞匯表),所以人類的學習已經(jīng)進化到在動態(tài)學習環(huán)境中茁壯成長。然而,這種魯棒性與最強大的現(xiàn)代機器學習方法形成了鮮明的對比,后者只有在數(shù)據(jù)經(jīng)過仔細的洗牌、平衡和均質后才能表現(xiàn)良好。這些模型不僅表現(xiàn)不佳,而且在某些情況下,它們會完全失敗,或者在早期學習的任務上遭遇快速的性能下降,即所謂的災難性遺忘。

基于生物系統(tǒng)持續(xù)學習基礎

對自然世界及其智能物種的研究經(jīng)常與人工智能研究交叉,包括與持續(xù)學習有關的方面[1]。生物學為在復雜環(huán)境中成功地持續(xù)學習提供了存在證據(jù),也暗示了成功方法的設計原則和權衡。有多種機制使生物系統(tǒng)能夠適應不斷變化的環(huán)境,而不固執(zhí)或遺忘。因此,在本節(jié)中,我們將通過類比來介紹四種持續(xù)學習模式,并將每種方法的詳細討論留到后面的章節(jié)中。此外,可以通過描述它們的規(guī)范模型來簡要地描述這些方法,如圖1(關鍵圖)所示。

持續(xù)學習的定義

持續(xù)學習的問題通常是由順序訓練協(xié)議和解決方案所期望的特性來定義的。與靜態(tài)數(shù)據(jù)集或環(huán)境的普通機器學習設置相反,持續(xù)學習設置明確地關注非平穩(wěn)或變化的環(huán)境,通常被劃分為需要按順序完成的一組任務。這種設置可能在任務轉換(平滑或離散)、任務長度和重復、任務類型(如無監(jiān)督、監(jiān)督或強化學習)方面有所不同,或者甚至可能沒有定義明確的任務[9-11]。與課程學習相比[12,13],學習者不能控制任務的順序。

支持現(xiàn)代機器學習的獨立同分布假設

神經(jīng)網(wǎng)絡大量利用現(xiàn)代技術來并行計算,同時考慮大量數(shù)據(jù);事實上,這種易于伸縮的特性使得它們在過去的十年中成為了語音、視覺和語言應用程序的主流方法。

在典型的學習設置中,目標是通過設置網(wǎng)絡的參數(shù)來最小化一些損失函數(shù),例如真輸出和預測輸出之間的誤差。基于梯度的學習,最有效的和廣泛使用的范式,是一種迭代算法,在每一次迭代,使一個小變化的參數(shù),以減少損失(更詳細的解釋,見盒2)。這條規(guī)則的機制在拔河的動態(tài)結果,其中每個數(shù)據(jù)樣本正試圖拉動每個參數(shù)更大或更小。通過平均梯度,我們因此創(chuàng)建了一個拔河游戲,其中應用于每個參數(shù)的更新(因為它是正的或負的)揭示了哪個數(shù)據(jù)樣本贏了或輸了。在許多優(yōu)化步驟上組合許多拔河式更新,可以進行學習(圖3)。

基于梯度的解決方案

由前面描述的拔河式學習動態(tài)驅動,一種有前途的方法是直接調節(jié)不同任務的梯度。這不僅是優(yōu)化問題的核心,而且是由生物大腦[3]中突觸鞏固的研究激發(fā)的。一種方法是迫使梯度與之前學習任務的梯度保持一致[19,20],消除潛在干擾。這些方法在其他環(huán)境中也有好處,例如,在多任務學習中,它們有可能在目標沖突的情況下提高學習效率[21-23]。

模塊化結構

模塊化的神經(jīng)網(wǎng)絡結構是一種自然有效的解決持續(xù)學習中的干擾和災難性遺忘問題的方法。模塊化提供了一個折衷方案,即使用一個容易遺忘的單一單片網(wǎng)絡,以及為每個任務使用獨立的網(wǎng)絡,這既可以防止災難性遺忘,也可以防止任務之間的轉移(參見圖1C的模塊化架構說明)。模塊化在生物系統(tǒng)中也很明顯,它支持大腦區(qū)域的功能專門化。

人工學習系統(tǒng)的記憶

基于梯度和模塊化的方法可能更適合短期的持續(xù)學習,而不是長期的記憶。基于梯度的方法不能防止任意長任務序列的遺忘,而模塊化方法可以在長時間尺度上保存知識,它們可能在神經(jīng)網(wǎng)絡能力方面達到實際的極限??紤]一下這樣一個具有挑戰(zhàn)性的場景:在幾個月的時間里,把食物藏在1000個不同的地方,然后在更多的食物消失后,正確地找到每一個食物。這個特征是每個冬天都會出現(xiàn)的,比如夜鶯、松鴉和鴉類[57]。通過調整一個簡單的神經(jīng)網(wǎng)絡的參數(shù)來保存存儲食物的順序經(jīng)驗既具有挑戰(zhàn)性又效率低下。一個更可伸縮的策略是使用專用的讀寫內存對空間位置進行編碼。

元學習:發(fā)現(xiàn)持續(xù)學習的歸納偏差

到目前為止所討論的所有解決方案都規(guī)定了用于持續(xù)學習的手工設計的機制或架構,歸納偏差。每種歸納偏差都在需求(如良好的知識保留與基于記憶的方法中的正向遷移)之間達成了不同的權衡。值得考慮的是,從數(shù)據(jù)中學習解決方案,而不是依靠人類的獨創(chuàng)性來設計它,是否能夠實現(xiàn)更好的權衡。歷史上,許多元學習或學習-學習方法已經(jīng)證明,解決方案可以通過自動學習歸納偏差(如架構、數(shù)據(jù)和學習參數(shù))來改進,否則需要手工設計(圖1E) 。

結論和未來方向

機器學習研究人員經(jīng)常指出,人類具有快速學習和概括(例如,從幾個例子中推斷出一個模式)的非凡能力。然而,我們并不經(jīng)常重新評價人類在一生的教育和經(jīng)歷中不斷學習的能力,盡管正是這種能力使人類在科學、藝術和工業(yè)上取得成就。這篇文章不僅試圖強調持續(xù)學習的重要性,而且還暴露了現(xiàn)代神經(jīng)網(wǎng)絡在這方面的局限性,特別是導致效率低下、基于梯度的拔河的信用分配問題。

通過對這一空間的調查,我們發(fā)現(xiàn)了一種學習模式,如果擴展到更有雄心的領域,它就有可能發(fā)揮真正的影響力。毫不奇怪,這些范式都有很強的平行神經(jīng)科學和生物系統(tǒng)?;谔荻鹊姆椒ㄖ苯有薷牧松窠?jīng)網(wǎng)絡的操作時間,并被證明可以減少災難性遺忘。

模塊化架構為干擾和災難性遺忘提供了實用的解決方案,同時通過技能和知識的層次重組實現(xiàn)面向遷移。端到端記憶模型可以成為長時間學習的可擴展解決方案,元學習方法可以超越手工設計的算法和架構。有了這些潛在的積極影響,也必須認識到部署不斷變化的機器學習模型所涉及的風險,因為任何安全和預期行為的初始評估都不能輕易地永久保證。然而,通過提高學習算法的長期可靠性,以及通過開發(fā)確保某些規(guī)則或邊界不被違反的架構,持續(xù)學習解決方案可以降低這些風險。

參考鏈接:

https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(20)30219-9#

責任編輯:xj

原文標題:DeepMind發(fā)布《神經(jīng)網(wǎng)絡中持續(xù)學習》Cell綜述論文,13頁pdf

文章出處:【微信公眾號:人工智能與大數(shù)據(jù)技術】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:DeepMind發(fā)布《神經(jīng)網(wǎng)絡中持續(xù)學習》Cell綜述論文,13頁pdf

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數(shù)據(jù)技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經(jīng)網(wǎng)絡的初步認識

    日常生活的智能應用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡的實現(xiàn)。什么是神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 12-17 15:05 ?341次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的初步認識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡是個啥?

    自動駕駛領域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡技術。卷積神經(jīng)網(wǎng)絡,簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學習模型。CNN
    的頭像 發(fā)表于 11-19 18:15 ?2095次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b>是個啥?

    CNN卷積神經(jīng)網(wǎng)絡設計原理及MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法優(yōu)化深層神經(jīng)網(wǎng)絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡內核,旨在最大限度地提高 Nuclei N 處理器內核上的神經(jīng)網(wǎng)絡的性能并最??大限度地減少其內存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    Ubuntu20.04系統(tǒng)訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    本帖欲分享Ubuntu20.04系統(tǒng)訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數(shù)字識別的神經(jīng)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡部署相關操作

    完成神經(jīng)網(wǎng)絡量化后,需要將神經(jīng)網(wǎng)絡部署到硬件加速器上。首先需要將所有權重數(shù)據(jù)以及輸入數(shù)據(jù)導入到存儲器內。
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    神經(jīng)元,但卻能產生復雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡相比,LNN旨在通過模擬大腦中神經(jīng)元之間的動態(tài)連接來處理信息,這種網(wǎng)絡能夠順序處理數(shù)據(jù)
    的頭像 發(fā)表于 09-28 10:03 ?1263次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    的大規(guī)?;ミB。在這方面,超導體和超導器件具有無損耗特性,可用作神經(jīng)形態(tài)網(wǎng)絡的低功耗互連器件。此外,超導器件還具有前所未有的低功耗和超高速開關特性。 利用超導體或非超導低溫器件來模擬大
    發(fā)表于 09-17 16:43

    神經(jīng)網(wǎng)絡的并行計算與加速技術

    問題。因此,并行計算與加速技術神經(jīng)網(wǎng)絡研究和應用變得至關重要,它們能夠顯著提升神經(jīng)網(wǎng)絡的性能和效率,滿足實際應用
    的頭像 發(fā)表于 09-17 13:31 ?1151次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的并行計算與加速技術

    如何在機器視覺中部署深度學習神經(jīng)網(wǎng)絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 討論人工智能(AI)或深度學習時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡”、“黑箱”、“標注”等術語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?920次閱讀
    如何在機器視覺中部署深度<b class='flag-5'>學習</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    FPGA機器學習的具體應用

    ,越來越多地被應用于機器學習任務。本文將探討 FPGA 機器學習的應用,特別是加速
    的頭像 發(fā)表于 07-16 15:34 ?2919次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡轉子位置檢測方法的研究

    MATLAB/SIMULINK工具對該方法進行驗證,實驗結果表明該方法全程速度下效果良好。 純分享帖,點擊下方附件免費獲取完整資料~~~ *附件:無刷電機小波神經(jīng)網(wǎng)絡轉子位置檢測方法的研究.pdf
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡專家系統(tǒng)電機故障診斷的應用

    的診斷誤差。仿真結果驗證了該算法的有效性。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡專家系統(tǒng)電機故障診斷的應用.pdf【免責聲明】本文系網(wǎng)絡轉載,版權歸原作
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡RAS異步電機轉速估計的仿真研究

    ,在一定程度上擴展了轉速估計范圍。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡RAS異步電機轉速估計的仿真研究.pdf【免責聲明】本文系網(wǎng)絡轉載,版權歸原作者
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡的步驟解析

    本文的目的是一個神經(jīng)網(wǎng)絡已經(jīng)通過python或者MATLAB訓練好的神經(jīng)網(wǎng)絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1259次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的步驟解析