chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

基于神經(jīng)科學的Numenta介紹

Astroys ? 來源:Astroys ? 2023-09-21 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人腦以高效著稱,它以稀疏的表征方式存儲和處理信息。在任何時刻,只有一小部分神經(jīng)元處于活躍狀態(tài)。神經(jīng)科學家相信,他們可以將大腦啟發(fā)的邏輯映射到運行AI模型的算法、數(shù)據(jù)結(jié)構(gòu)和架構(gòu)中,從而提供一個讓AI降低功耗的配方。數(shù)據(jù)科學家是否愿意改變他們基于蠻力計算的AI實踐,這一點尚未確定,因為這種方法似乎越來越難以為繼。

正自籌資金起家的初創(chuàng)公司并不多見,更不用說這家公司在神經(jīng)科學研究領域玩了18年的長線游戲之后,突然推出了一款商業(yè)軟件產(chǎn)品。

更重要的是,這家初創(chuàng)公司的新產(chǎn)品直接向炙手可熱的大語言模型(LLM)AI市場發(fā)出了挑戰(zhàn)。

這家公司就是Numenta,它承諾其受神經(jīng)科學啟發(fā)的軟件可以大幅降低在CPU上運行LLM的功耗。

持懷疑態(tài)度的人可能會認為這種策略是投機取巧。Numenta的CEO Subutai Ahmad認為,這種說法并不用準確。

Numenta將數(shù)十年的神經(jīng)科學研究應用于商業(yè)產(chǎn)品的手段、動機和機遇都出現(xiàn)在AI領域。Numenta的研究人員特別注意到了AI科學家依靠蠻力計算來實現(xiàn)transformer的方式。

當然,神經(jīng)科學和AI并非完全形同陌路。這兩個學科在二十世紀五六十年代相互影響,后來逐漸分道揚鑣。不過,Ahmad表示,神經(jīng)科學和AI一直孤立地存在著,這點令人驚訝。

以ChatGPT為例。

盡管ChatGPT已是當紅炸子雞,但Ahmad認為,ChatGPT消耗的能源太多,最終將難以為繼。他認為,只有應用神經(jīng)科學的基本原理,開發(fā)者才能改變AI邁向死胡同軌跡。

了解Numenta

Numenta與其它大多數(shù)初創(chuàng)公司的區(qū)別在于,其聯(lián)合創(chuàng)始人Jeff Hawkins、Donna Dubinsky和Dileep George的履歷、經(jīng)驗和專業(yè)知識。

Hawkins在90年代是著名的Palm Pilot PDA的設計師。之后,他又在Handspring開創(chuàng)了名為Treo的智能手機。

Dubinsky曾在1980年代負責管理Apple的部分分銷網(wǎng)絡,又曾任Palm的CEO,后來與Hawkins共同創(chuàng)辦了Handspring。

2005年,AI和神經(jīng)科學研究員Dileep George與Hawkins和Dubinsky合作。

每位聯(lián)合創(chuàng)始人都為Numenta帶來了技術(shù)、創(chuàng)業(yè)和激情方面的獨特面向,而Hawkins則因癡迷腦科學而聞名,他是Numenta的公眾導師。他撰寫了兩本書,“On Intelligence”(2004年與Sandra Blakeslee合著)和“A Thousand Brains: A new theory of intelligence”(2021 年)。他在科學雜志上發(fā)表的許多論文經(jīng)常被大量引用。

但具有諷刺意味的是,神經(jīng)科學的進步主要局限于研究機構(gòu),對商業(yè)市場影響甚微。據(jù)Numenta的CEO Ahmad稱,只有極少數(shù)實驗室積極將神經(jīng)科學應用于AI。“我們可能是唯一一家嘗試這樣做的公司?!?/p>

他說,Numenta很幸運能走到今天,但他認為ChatGPT是一個“巨大的功耗”。Ahmad堅信,Numenta基于神經(jīng)科學的數(shù)據(jù)結(jié)構(gòu)和算法能為LLM帶來更高的效率。

Numenta的商業(yè)產(chǎn)品

Numenta上周推出的第一款產(chǎn)品是AI軟件“NuPIC(Numenta Platform for Intelligent Computing)”。

NuPIC是為現(xiàn)有transformer設計的即插即用軟件,可以在CPU上以“極高的吞吐量和低延遲”運行LLM,該公司稱,“速度明顯快于Nvidia A100 GPU”。

Ahmad解釋說,NuPIC將作為“企業(yè)軟件”授權(quán)給“希望將LLM納入工作流程的企業(yè)”。他強調(diào)說,Numenta不提供云服務,因此這不是SaaS。NuPIC授權(quán)用戶將在自己的基礎設施中安裝該軟件,因此“數(shù)據(jù)和模型對他們來說是完全私有的”。

Numenta產(chǎn)品的關(guān)鍵之一是它可以“直接插入”現(xiàn)有的transformer。Ahmad說:“在外界看來,它并沒有什么不同。因此,下圖中的中間部分和界面看起來與AI世界已經(jīng)知道的完全相同。你甚至可以把傳統(tǒng)的transformer換成我們的transformer,整個東西仍然可以工作?!?/p>

wKgaomULmKmAbG2MAADcM3d2HX0684.jpg

Numenta聲稱,其基于神經(jīng)科學的AI解決方案“能讓客戶實現(xiàn)10到100倍以上的性能提升”。這些數(shù)字似乎好得不像真的,但該公司并非憑空捏造。Numenta有與Intel合作完成的案例研究為證。

與Intel和Xilinx的合作

Intel今年在其Xeon Max系列和第四代Intel Xeon可擴展處理器上發(fā)布了x86指令集架構(gòu)的新擴展,稱為AMX(Advanced Matrix Extensions)。AMX設計用于矩陣,以加速AI工作負載的矩陣乘法。

Numenta的團隊從去年開始與Intel合作,當時Intel正在開發(fā)AMX。Ahmad解釋說,Intel正在“利用CPU并添加類似于GPU的指令來進行矩陣乘法運算。但它仍然是CPU,而這些CPU非常靈活”。

Ahmad說,這種靈活性使Numenta“可以將我們的算法移植到這些芯片上”。Intel的一份文件指出:“Numenta展示了他們定制訓練的LLM在Intel Xeon CPU Max系列處理器上運行時,與當前一代AMD Milan CPU的實現(xiàn)相比,在處理器上配備高帶寬內(nèi)存的LLM在大型文檔(長序列長度)上的運行速度要快20倍?!?/p>

Intel總結(jié)說,Numenta已經(jīng)證明“有能力大幅降低在Intel上運行語言模型的總體成本,為客戶釋放全新的自然語言處理能力”。

wKgaomULmKmAZF0VAAKMQBF81X4252.jpg

Numenta的Ahmad則更進一步說:“我們可以讓transformer運行得比Nvidia GPU更快?!?/p>

現(xiàn)在判斷Numenta的軟件是否真的是Nvidia GPU Killer還為時尚早。但在Ahmad看來,Numenta從神經(jīng)科學中學到的基本原理讓公司處于優(yōu)勢地位。“這并不是說我們有什么魔法能讓速度提高100倍。我們所做的是減少計算量。這就是大腦的工作。這就是我們提高效率的方法?!?/p>

Numenta技術(shù)的應用范圍包括計算機視覺、語音識別機器人技術(shù)。

在語音識別領域,Numenta已經(jīng)與Xilinx(已被AMD收購)開展了合作。Numenta演示了其大腦啟發(fā)的稀疏算法如何輔助機器學習,該算法在Xilinx現(xiàn)成的FPGA和GSC(Google Speech Commands)數(shù)據(jù)集上運行。根據(jù)Numenta提交的案例研究,該公司展示了“利用稀疏性擴展深度學習模型的巨大優(yōu)勢”。

神經(jīng)科學與AI

那么,究竟什么是神經(jīng)科學,它與AI有何不同?

神經(jīng)科學側(cè)重于了解神經(jīng)系統(tǒng)(大腦、脊髓和外周神經(jīng))的基本特性以及它們?nèi)绾伟l(fā)揮作用。相比之下,AI的興趣在于開發(fā)機器來完成通常與人類智能相關(guān)的任務。

正如Ahmad所解釋的,在人工神經(jīng)網(wǎng)絡的早期,AI在很大程度上受到了神經(jīng)科學的啟發(fā)。Ahmad說:“20世紀40年代,Donald Hebb提出了神經(jīng)元可以學習的最初想法,而且神經(jīng)元可以學習模式。這啟發(fā)了最早的人工神經(jīng)元,當時被稱為感知器(perceptron)?!?/p>

他補充說,神經(jīng)科學還啟發(fā)了“反向傳播(backpropagation)”,這是深度學習的核心學習算法,一直沿用至今。

David Hunter Hubel和Torsten Wiesel共同獲得了1981年諾貝爾獎,他們研究了視覺皮層的結(jié)構(gòu)和功能。Ahmad解釋說,他們極大地增強了人類對視覺系統(tǒng)如何按層次學習物體特征的理解,首先從邊緣到角落,然后到形狀,最后到物體。

Ahmad強調(diào)說:“這種對層次結(jié)構(gòu)和特征檢測的理解直接啟發(fā)了卷積網(wǎng)絡,這種核心架構(gòu)甚至被用于當今的計算機視覺領域。”

直到Ahmad感興趣的90年代初,神經(jīng)科學家和深度學習研究人員之間的互動還很普遍。

不知從何時起,AI開始專注于GPU和計算。隨著GPU速度越來越快,網(wǎng)絡也越來越大。隨著計算機越來越強大,數(shù)據(jù)科學家依賴的數(shù)據(jù)也越來越多。AI成了更強大和更多閃存的代名詞。

Ahmad援引這一背景,認為當今的AI存在兩個基本問題。其弱點在于“無法持續(xù)學習”,以及對“過多數(shù)據(jù)”的貪得無厭。

根據(jù)他的定義,真正的智能系統(tǒng)是“不斷學習”的。他說,AI系統(tǒng)首先在實驗室中接受訓練,然后部署到現(xiàn)實世界中。但它們不會不斷學習。

與人類不斷漸進地學習不同,代碼還不能真正地“學習”。Ahmad在最近的一篇文章中寫道:“如果一個AI模型今天犯了一個錯誤,那么它將繼續(xù)重復這個錯誤,直到使用新的數(shù)據(jù)對它進行重新訓練?!?/p>

他說:“作為人類,我們通過四處走動來學習,我們了解世界的結(jié)構(gòu),甚至做出預測?!?/p>

想想AI模型是如何學會識別一種新車型的。

Ahmad說,人類只需要看到“一個例子。我會從另一個角度、一天中的不同時間或在下雨天都可以認出那輛車”。Ahmad說,深度學習系統(tǒng)沒有真實的世界模型,“你必須向它們展示數(shù)以千計的各種圖像”?!八仨氂涀∵@輛車的每一個可能的角度”。

神經(jīng)形態(tài)(neuromorphic)計算與神經(jīng)科學有何不同?Ahmad解釋說,神經(jīng)形態(tài)計算是“神經(jīng)科學和AI這一更廣泛領域的一個子集”。雖然神經(jīng)形態(tài)工程的重點通常是構(gòu)建新的、能效極高的硬件系統(tǒng),但Ahmad說:“我們正在開發(fā)更多的軟件和算法。我們將能夠利用芯片行業(yè)正在進行的所有創(chuàng)新,包括CPU、GPU以及所有SIMD指令和架構(gòu)?!?/p>

融資情況

Ahmad說,Numenta的資金主要來自董事會內(nèi)部,其中包括Hawkins和Dubinsky,但也有一些外部投資者。

目前,Numenta規(guī)模仍然很小,只有20名員工。Ahmad補充說:“現(xiàn)在,Numenta正在走向商業(yè)化,我們將在明年的某個時候,很可能是今年晚些時候,進行一輪大規(guī)模融資?!?/p>

過去二十年來,神經(jīng)科學家和數(shù)據(jù)科學家之間的分化很有啟發(fā)性。硅谷通過一個非常男性化的方式實現(xiàn)了驚人的發(fā)展,更大更快的CPU和GPU永遠是贏家。但如今,他們需要想辦法從拼肌肉的死胡同過渡到基于效率的模式。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20258

    瀏覽量

    252533
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    307

    瀏覽量

    6521
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14674
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10297
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    346

    瀏覽量

    1337

原文標題:基于神經(jīng)科學的Numenta能否挑戰(zhàn)強大的Nvidia?

文章出處:【微信號:Astroys,微信公眾號:Astroys】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    應用案例 | 40倍鏡下解析小鼠腦部神經(jīng)元:深視智能sCMOS相機賦能膜片鉗實驗高效開展

    01實驗背景小鼠腦部神經(jīng)元膜片鉗實驗是神經(jīng)科學領域的關(guān)鍵技術(shù),廣泛應用于神經(jīng)系統(tǒng)疾病機制研究、藥物篩選及神經(jīng)環(huán)路解析等核心方向。該實驗的兩大核心難點:一是高倍放大場景下精準識別目標
    的頭像 發(fā)表于 02-02 08:17 ?293次閱讀
    應用案例 | 40倍鏡下解析小鼠腦部<b class='flag-5'>神經(jīng)</b>元:深視智能sCMOS相機賦能膜片鉗實驗高效開展

    柔性神經(jīng)接口與設備是腦機接口的未來嗎?

    HUIYING柔性神經(jīng)接口與設備概述技術(shù)發(fā)展背景與需求驅(qū)動柔性神經(jīng)接口技術(shù)的誕生源于神經(jīng)科學研究中對高時空分辨率和長期穩(wěn)定性的迫切需求。傳統(tǒng)剛性神經(jīng)接口雖然在一定程度上推動了腦
    的頭像 發(fā)表于 12-27 17:03 ?966次閱讀
    柔性<b class='flag-5'>神經(jīng)</b>接口與設備是腦機接口的未來嗎?

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    脈沖神經(jīng)元模型的硬件實現(xiàn)

    如圖所示展示了LIF神經(jīng)元的膜電勢Vmem隨時間戳timestamp動態(tài)變化的過程,當接收到輸入脈沖后,LIF神經(jīng)元的膜電勢值Vmem便會升高,直至達到閾值電壓Vthersh,此時神經(jīng)元產(chǎn)生輸出脈沖
    發(fā)表于 10-24 08:27

    SNN加速器內(nèi)部神經(jīng)元數(shù)據(jù)連接方式

    模塊對傳入的AER脈沖數(shù)據(jù)包進行解碼,并重新解碼建立脈沖序列。 我們介紹了SNN中脈沖通過地址事件表達(AER)的方式編碼成脈沖數(shù)據(jù)包,脈沖數(shù)據(jù)包中包含源神經(jīng)元地址和脈沖發(fā)生的時間戳,下面我們介紹
    發(fā)表于 10-24 07:34

    思必馳與上海交大聯(lián)合實驗室五篇論文入選NeurIPS 2025

    近日,機器學習與計算神經(jīng)科學領域全球頂級學術(shù)頂級會議NeurIPS 2025公布論文錄用結(jié)果,思必馳-上海交大聯(lián)合實驗室共有5篇論文被收錄。NeurIPS(Conference on Neural
    的頭像 發(fā)表于 10-23 15:24 ?882次閱讀
    思必馳與上海交大聯(lián)合實驗室五篇論文入選NeurIPS 2025

    國際類腦計算科學家Yulia Sandamirskaya教授加盟時識科技

    近日,國際類腦計算與神經(jīng)形態(tài)機器人領域知名科學家Yulia Sandamirskaya 教授,作為科學家顧問正式加入時識科技(SynSense)。
    的頭像 發(fā)表于 10-13 13:50 ?758次閱讀

    ATA-4315高壓功率放大器:生物電刺激技術(shù)研究的高精度驅(qū)動核心

    生物電刺激技術(shù)在醫(yī)學和生物科學領域具有廣泛的應用,包括神經(jīng)科學研究、生物醫(yī)學工程和康復醫(yī)學等。例如,在神經(jīng)科學研究中,通過記錄和分析生物電信號,可以了解神經(jīng)元之間的連接和通信方式;在生
    的頭像 發(fā)表于 10-13 11:21 ?417次閱讀
    ATA-4315高壓功率放大器:生物電刺激技術(shù)研究的高精度驅(qū)動核心

    會議回顧 | 深視智能攜新品sCMOS科學相機亮相中國神經(jīng)科學學會第十八屆全國學術(shù)會議

    ·祝賀第十八屆全國學術(shù)會議圓滿舉行中國神經(jīng)科學學會第十八屆全國學術(shù)會議(CNS2025)于9月28日在西安國際會展中心順利閉幕。本次大會匯聚了全球頂尖的科學家與研究學者,我們深感榮幸能參與
    的頭像 發(fā)表于 10-13 08:18 ?650次閱讀
    會議回顧 | 深視智能攜新品sCMOS<b class='flag-5'>科學</b>相機亮相中國<b class='flag-5'>神經(jīng)科學</b>學會第十八屆全國學術(shù)會議

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡架構(gòu),其設計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1252次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)</b>網(wǎng)絡

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    幾年神經(jīng)元計算及類腦芯片的重大進展。 一、云端使用的神經(jīng)形態(tài)計算與類腦芯片 神經(jīng)形態(tài)計算旨在設計和構(gòu)建包括硬件和軟件在內(nèi)的計算機系統(tǒng),通過模擬大腦神經(jīng)元和突觸的工作方式,更高效的執(zhí)行認
    發(fā)表于 09-17 16:43

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    和關(guān)聯(lián)性 AI驅(qū)動科學:研究和模擬人類思維和認識過程。 本章節(jié)作者為我們講解了第五范式,介紹科學發(fā)現(xiàn)的一般方法和流程等。一、科學發(fā)現(xiàn)的5個范式 第一范式:產(chǎn)生于公元1000年左右的阿
    發(fā)表于 09-17 11:45

    大小鼠糖水偏好實驗系統(tǒng)

    對動物行為的理解,還能夠在藥開發(fā)和神經(jīng)科學研究中發(fā)揮重要作用。隨著技術(shù)的不斷進步,我們有理由相信,類似的實驗系統(tǒng)將繼續(xù)推動科學界對復雜行為的深入探索。
    發(fā)表于 08-14 13:40

    簡儀產(chǎn)品在超分辨高速雙光子顯微鏡中的應用

    雙光子顯微成像技術(shù)以紅外飛秒激光作為光源,深入組織內(nèi)部非線性地激發(fā)熒光,雙光子成像能減小激光對生物體的損傷,且具有高空間分辨率,適合長時間觀察。因此,雙光子顯微成像技術(shù)已成為神經(jīng)科學與生物醫(yī)學研究中的關(guān)鍵成像手段。
    的頭像 發(fā)表于 08-04 16:22 ?964次閱讀

    國內(nèi)首例閉環(huán)脊髓神經(jīng)接口系統(tǒng)臨床植入成功,佳量醫(yī)療引領神經(jīng)接口技術(shù)新突破

    2025 年7 月 1 日,中國杭州 ——2025年3月,國內(nèi)領先的神經(jīng)外科和腦科學技術(shù)平臺佳量醫(yī)療自主研發(fā)的閉環(huán)脊髓神經(jīng)接口系統(tǒng)成功完成國內(nèi)首例臨床植入,標志著其通用神經(jīng)接口技術(shù)平臺
    發(fā)表于 07-01 16:13 ?1464次閱讀