chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

詳談深度學習系統(tǒng)中實現(xiàn)記憶能力的唯一技術NTM

如意 ? 來源:OFweek電子工程網 ? 作者:學術頭條 ? 2020-10-08 14:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在計算機科學中,沒有一門學科比深度學習更能從人類的記憶系統(tǒng)中受益。

自早期以來,在深度學習領域,人們就一直致力于對模擬人類記憶的一些關鍵特征系統(tǒng)進行建模。然而,想要為機器系統(tǒng)建立起類人的記憶結構,并非易事。

近日,區(qū)塊鏈分析公司IntoTheBlock CEO、Invector Labs首席科學家、哥倫比亞大學客座教授Jesus Rpdriguez發(fā)表文章,談論從神經科學和認知心理學的角度理解機器的記憶建模。

他認為,神經科學的記憶理論為我們理解智能存儲體系結構的一些主要組成部分提供了基礎,同時,人類的記憶不僅僅是大腦物理結構的副產品,而且還深受周圍環(huán)境的影響。

關記憶的神經科學理論:綁定問題

現(xiàn)代神經科學的記憶理論涉及大腦的三個基本區(qū)域:丘腦(the thalamus)、前額葉(the prefrontal)、皮層和海馬體(cortex &the hippocampus)。

丘腦可以被認為是一個路由器,它負責處理感官信息(視覺、觸覺、語言等),并將其傳遞到大腦的感覺皮層進行評估。經過評估的信息最終到達前額葉皮層,進入我們的意識中,形成短期記憶。同時,這些信息也被傳送到海馬體,海馬體將不同的片段分布到不同的皮質中,形成長期記憶。

而當今神經科學面臨的最大挑戰(zhàn)之一就是,我們如何將分散的記憶碎片重新組合起來,使其在人們回憶時構成連貫的記憶。這就是“綁定問題(the binding problem)”的主要內容。

假設您曾經歷一場考試,那么關于這一事件的記憶將被分解并儲存在大腦的不同區(qū)域中。然而,只需要小小的提示,例如聽到考試提示音或見到當時的同伴,您就能回憶起關于這堂考試的各種記憶。

這是如何做到的呢?

一種理論認為,記憶碎片是由不斷流過大腦的電磁振動聯(lián)系在一起的。這些振動在記憶碎片之間創(chuàng)造了一個時間(而非空間)聯(lián)系,允許它們同時被激活,因而最后成為凝聚一體的記憶。

關記憶的認知心理學理論:啟動與聯(lián)想

此外,為了解釋綁定問題,我們還需要一些超越大腦的結構,以評估能夠影響記憶方式的各種心理背景因素。在認知心理學中,試圖解釋聯(lián)想記憶本質的主要理論之一被稱為啟動效應(the Priming Effect)。

設想一下,當您聽到“考試”這個詞的時候,首先想到的是什么?可能是“書籍”,可能是某個日期,甚至可能是“興奮感”(手動狗頭)。由此可見,僅僅是一個簡單的詞語,就可以喚起人的一系列復雜情緒甚至是其他相關的詞語。而這個過程實際就是:我們正在有效地想起相關的事物,或者說,我們正在“啟動”其他記憶。

這一實驗中最引人注目的其實是,人們根據提示檢索出相關單詞或記憶的速度有多快。在心理學中,這種現(xiàn)象也被稱為聯(lián)想一致化(Associatively Coherent)。

而且,啟動效應不僅適用于詞匯,還適用于情緒、身體反應、本能等認知現(xiàn)象。啟動效應告訴我們,記憶不僅是由主動聯(lián)想方法來回憶的,而且是由“被啟動的想法”來回憶的。

認知心理學的另一個重要內容則是我們回憶起特定事件的頻率。

例如,如果我問你“在過去的十年里參加了多少場考試?” 如果你剛好最近就參加過一次考試或者特別快地得出答案者,那么這個數字很能被高估。相反,如果你并不喜歡上一次的考試經歷,那么這個數字可能被低估。這個認知過程被稱為可得性捷思法(the Availability Heuristic),它解釋了我們的記憶是如何被快速獲得的答案所深深影響。

深度學習的記憶機制:神經圖靈機

那么深度學習算法具體該如何模仿上述這些理論從而形成類人記憶呢?答案其實不難得出:

a) 把一個內存分成若干段,不同片段描述不同的知識領域

b) 將分散的片段重新組合成連貫的信息結構

c) 根據上下文和不直接相關的信息以及外部數據引用來檢索數據

同時,為了了解深度學習算法中的記憶相關性,我們應該區(qū)分內隱記憶implicit memory和外顯記憶Explicit Memory。隱性知識通常是潛意識的,因此很難解釋,例如識別圖片中的猴子或口語句子中的語氣和情緒。顯性知識則很容易以陳述性方式建模。例如,“猴子是一種動物”或“某些形容詞具有攻擊性”,這都是顯性知識的典型例子。

再想象一下傳統(tǒng)的神經網絡結構,它們往往有數百萬個相互連接的節(jié)點,卻缺乏一個工作記憶系統(tǒng),用來存儲已推斷出的知識片段及其相互關系,以便從網絡的不同層加入新信息。

而在這一領域,最流行的技術之一是神經圖靈機(Neural Turing Machines,NTM),由DeepMind于2014年引入。NTM也屬于深層神經網絡, 但是它擴展出一個具有存儲完整向量的記憶單元,并使用直觀推斷(heuristics)來讀寫信息。

例如,NTM實現(xiàn)了一種稱為基于內容的尋址機制,它可以根據輸入信息來檢索向量,這與人類基于文字經驗來回憶相關記憶的方式相似。

此外,NTM還包括一種機制,能夠根據內存單元被尋址的頻率來增加其顯著性。

詳談深度學習系統(tǒng)中實現(xiàn)記憶能力的唯一技術NTM

NTM并不是在深度學習系統(tǒng)中實現(xiàn)記憶能力的唯一技術,但它無疑是最受歡迎的技術之一。

模仿人類記憶的生理和心理功能并不是一件容易的事,這已經成為深度學習領域中最重要的研究領域之一。
責編AJX

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1813

    文章

    49756

    瀏覽量

    261668
  • 記憶
    +關注

    關注

    0

    文章

    6

    瀏覽量

    13966
  • 深度學習
    +關注

    關注

    73

    文章

    5591

    瀏覽量

    123921
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    分享個嵌入式開發(fā)學習路線

    拓展期(3-4個月) 學習嵌入式操作系統(tǒng)(RTOS)和物聯(lián)網通信技術,能開發(fā)“多任務、聯(lián)網”的復雜項目,理解企業(yè)級嵌入式開發(fā)的“架構思維”。這階段的
    發(fā)表于 12-04 11:01

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學習實戰(zhàn)課(11大系列課程,共5000+分鐘)

    行業(yè)市場具備深度學習能力的視覺系統(tǒng)占比已突破40%,催生大量復合型技術崗位需求: ? 崗位缺口:視覺算法工程師全國缺口15萬+,缺陷檢測專項
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學習實戰(zhàn)可(11大系列課程,共5000+分鐘)

    、鋰電池產線的視覺檢測工位。 二、職業(yè)發(fā)展: 目前行業(yè)市場具備深度學習能力的視覺系統(tǒng)占比已突破40%,催生大量復合型技術崗位需求: ? 崗位
    發(fā)表于 12-03 13:50

    深度學習對工業(yè)物聯(lián)網有哪些幫助

    、實施路徑三個維度展開分析: 、深度學習如何突破工業(yè)物聯(lián)網的技術瓶頸? 1. 非結構化數據處理:解鎖“沉睡數據”價值 傳統(tǒng)困境 :工業(yè)物聯(lián)網
    的頭像 發(fā)表于 08-20 14:56 ?769次閱讀

    自動駕駛Transformer大模型會取代深度學習嗎?

    持續(xù)討論。特別是在自動駕駛領域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學習是否已過時”的激烈爭論。然而,從技術原理、算力成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?3929次閱讀
    自動駕駛<b class='flag-5'>中</b>Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學習</b>嗎?

    深度學習賦能:正面吊車載箱號識別系統(tǒng)的核心技術

    支撐。 深度學習驅動的智能識別 傳統(tǒng)OCR技術易受光線、污損或箱體圖案干擾,而新代識別系統(tǒng)通過深度卷積神經網絡(CNN)和注意力機制,
    的頭像 發(fā)表于 05-07 10:10 ?437次閱讀

    【「零基礎開發(fā)AI Agent」閱讀體驗】+ 入門篇學習

    很高興又有機會學習ai技術,這次試讀的是「零基礎開發(fā)AI Agent」,作者葉濤、管鍇、張心雨。 大模型的普及是近三年來的件大事,萬物皆可大模型已成為趨勢。作為大模型開發(fā)應用重要組
    發(fā)表于 05-02 09:26

    記憶示波器校準儀能校準哪些參數?

    記憶示波器校準儀是種綜合性電子計量標準儀器,能夠校準記憶示波器的多項關鍵參數,主要包括以下方面:1. 垂直系統(tǒng)參數 幅度校準:通過標準信號源輸出精確電壓,校準示波器的垂直靈敏度,確保
    發(fā)表于 04-11 14:05

    嵌入式AI技術深度學習:數據樣本預處理過程中使用合適的特征變換對深度學習的意義

    ? 作者:蘇勇Andrew 使用神經網絡實現(xiàn)機器學習,網絡的每個層都將對輸入的數據做次抽象,多層神經網絡構成深度學習的框架,可以
    的頭像 發(fā)表于 04-02 18:21 ?1292次閱讀

    《AI Agent 應用與項目實戰(zhàn)》閱讀心得2——客服機器人、AutoGen框架 、生成式代理

    行適應性學習。生成式代理的技術實現(xiàn)為AI系統(tǒng)帶來了新的發(fā)展方向。項目中的記憶架構設計特別值得關注,它不僅解決了傳統(tǒng)AI
    發(fā)表于 02-25 21:59

    軍事應用深度學習的挑戰(zhàn)與機遇

    人工智能尤其是深度學習技術的最新進展,加速了不同應用領域的創(chuàng)新與發(fā)展。深度學習技術的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?828次閱讀

    長城汽車Coffee Agent與DeepSeek實現(xiàn)技術深度融合

    研發(fā)的大模型,此次融合了DeepSeek R1模型的特點,使其在理解、思考和推理能力上得到了顯著提升。這一技術融合,不僅增強了Coffee Agent的智能性,也為其在更多場景下的應用提供了可能。 DeepSeek的快速上車,得益于長城汽車在AI子
    的頭像 發(fā)表于 02-10 09:41 ?1099次閱讀

    AI自動化生產:深度學習在質量控制的應用

    生產效率、保證產品質量方面展現(xiàn)出非凡的能力。阿丘科技「AI干貨補給站」推出《AI自動化生產:深度學習在質量控制的應用》文章,探討深度
    的頭像 發(fā)表于 01-17 16:35 ?1221次閱讀
    AI自動化生產:<b class='flag-5'>深度</b><b class='flag-5'>學習</b>在質量控制<b class='flag-5'>中</b>的應用

    MCU在車載系統(tǒng)的展望

    MCU在車載系統(tǒng)的展望 以下是MCU在車載系統(tǒng)的展望: 技術發(fā)展趨勢 高性能與低功耗并重 :智能座艙等車載
    發(fā)表于 01-17 12:11

    記憶示波器的原理和應用

    和處理技術,能夠實現(xiàn)對被測信號的精確測量和分析。在實際應用,用戶可以根據具體需求選擇合適的記憶示波器型號和功能。
    發(fā)表于 01-06 15:50