chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook確定自研AI芯片,致力于神經(jīng)網(wǎng)絡(luò)的新設(shè)計(jì)

DPVg_AI_era ? 來源:lq ? 2019-02-20 08:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Yann LeCun今天在采訪中確認(rèn)Facebook正在自研AI芯片,追求更高能效,以支持其AI應(yīng)用。Facebook也在尋找新的神經(jīng)網(wǎng)絡(luò)架構(gòu),大力投入于“自我監(jiān)督”系統(tǒng),致力于賦予機(jī)器“常識(shí)”。

人工智能研究的進(jìn)展將與硬件創(chuàng)新密切相關(guān)。

今天,在2019國際固態(tài)電路研討會(huì)(ISSCC)的主旨演講中,F(xiàn)acebook首席AI科學(xué)家Yann LeCun闡述了深度學(xué)習(xí)研究的進(jìn)展將如何影響未來的硬件架構(gòu)。他的論文題為《深度學(xué)習(xí)硬件:過去、現(xiàn)在和未來》(Deep Learning Hardware: Past, Present, and Future)。

并且,LeCun公開確認(rèn)Facebook正在自研AI芯片,這是Facebook首次發(fā)表官方評(píng)論,證實(shí)了其在芯片領(lǐng)域的雄心。

LeCun表示,對DL專用硬件的需求會(huì)不斷增加。動(dòng)態(tài)網(wǎng)絡(luò)、關(guān)聯(lián)存儲(chǔ)器結(jié)構(gòu)以及稀疏激活等新的體系結(jié)構(gòu)概念將影響未來需求的硬件體系結(jié)構(gòu)類型。

“這可能要求我們重新發(fā)明電路中運(yùn)算的方式,”LeCun說。今天的計(jì)算機(jī)芯片通常沒有針對深度學(xué)習(xí)進(jìn)行優(yōu)化,即使使用不太精確的計(jì)算,深度學(xué)習(xí)也可以有效。“因此,研究人員正在嘗試設(shè)計(jì)一種新的方式來更有效地表示數(shù)字。”

推進(jìn)AI領(lǐng)域的一個(gè)關(guān)鍵因素,尤其是在深度學(xué)習(xí)方面,將是確保有能夠支持它的硬件。

這是LeCun演講中的一個(gè)重要議題,他在會(huì)上討論了一份新的研究報(bào)告,概述了未來5到10年芯片廠商和研究人員需要關(guān)注的關(guān)鍵趨勢。

他說:“無論他們建造的是什么,都將影響未來十年AI的發(fā)展?!?/p>

在會(huì)議開始之前,LeCun與Business Insider就AI領(lǐng)域的發(fā)展方向、它對我們?nèi)粘I钪惺褂玫脑O(shè)備的意義、人工智能的現(xiàn)狀以及未來面臨的最大挑戰(zhàn)進(jìn)行了討論。以下是采訪的要點(diǎn)。

為了改善AI性能,機(jī)器必須在能耗方面做得更好

想象有這樣一個(gè)真空吸塵器,它不僅聰明到可以為你的起居室繪制地圖,以便不會(huì)重復(fù)清潔同一個(gè)地方,它還能在撞到障礙物之前檢測到它們。

或者想象有這樣一臺(tái)智能割草機(jī),它可以在修剪草坪時(shí)智能地避開花壇和樹枝。

LeCun說,這樣的小設(shè)備要想實(shí)現(xiàn)、并流行起來,除了Facebook、Alphabet等正在投資的技術(shù),如增強(qiáng)現(xiàn)實(shí)和自動(dòng)駕駛技術(shù),還需要有更節(jié)能的硬件。

更節(jié)能的硬件不僅對這類技術(shù)的蓬勃發(fā)展是必要的,而且對改善Facebook等公司實(shí)時(shí)識(shí)別照片和視頻內(nèi)容的方式也是必要的。LeCun說,要理解視頻中發(fā)生的事情,將活動(dòng)轉(zhuǎn)錄成文本,然后將文本翻譯成另一種語言,以便世界各地的人們能夠?qū)崟r(shí)地理解,需要“巨大”的計(jì)算能力。

Facebook 希望使用AI來幫助審核內(nèi)容

短期內(nèi)AI將繼續(xù)在智能手機(jī)中得到改進(jìn)

LeCun認(rèn)為,未來3年內(nèi),大多數(shù)智能手機(jī)將通過專用處理器將AI直接內(nèi)置到硬件中,這將使實(shí)時(shí)語音翻譯等功能在手機(jī)上更為普遍。

對于那些近年來一直密切關(guān)注智能手機(jī)行業(yè)的人來說,這可能并不意外,因?yàn)樘O果、谷歌、華為等公司已經(jīng)將AI更緊密地整合到自己的移動(dòng)設(shè)備中, LeCun 表示,這將使“各種新應(yīng)用”成為可能。

賦予機(jī)器“常識(shí)”將是未來10年AI研究的一大重點(diǎn)

雖然人類通常通過一般觀察(general observations)來了解世界,但計(jì)算機(jī)通常被訓(xùn)練來執(zhí)行特定的任務(wù)。舉例來說,如果你想設(shè)計(jì)一種能夠檢測照片中的貓的算法,你必須幫助它了解貓的樣子,方法是提供給它一個(gè)巨大的數(shù)據(jù)集,其中可能包括數(shù)千張標(biāo)記有貓的照片。

但LeCun認(rèn)為,未來十年,推動(dòng)AI前進(jìn)的圣杯在于完善一種稱為自監(jiān)督學(xué)習(xí)(self-supervised learning)的技術(shù)。換句話說,使機(jī)器能夠通過數(shù)據(jù)了解世界是如何運(yùn)轉(zhuǎn)的,而不僅僅是學(xué)習(xí)如何解決一個(gè)特定的問題——比如識(shí)別貓。

LeCun表示:“如果我們真的訓(xùn)練(算法)做到這一點(diǎn),那么機(jī)器捕捉上下文并做出更復(fù)雜決策的能力將會(huì)取得重大進(jìn)展?!彼a(bǔ)充說,這樣的技術(shù)目前只對文本有效,對視頻和圖像仍然無效。

這樣的突破可能是Facebook等公司需要的,用以改進(jìn)其平臺(tái)上的內(nèi)容審核,盡管現(xiàn)在還不知道這樣的解決方案何時(shí)會(huì)出現(xiàn)。LeCun說:“這不是一蹴而就的事情?!?/p>

Facebook加入AI芯片競賽,自研ASIC

Facebook認(rèn)識(shí)到,要想在AI領(lǐng)域?qū)崿F(xiàn)下一個(gè)突破,它需要大大提高計(jì)算速度。目前,F(xiàn)acebook已經(jīng)加入與亞馬遜和谷歌的競爭,開發(fā)自己的AI芯片。

LeCun 在接受英國 《金融時(shí)報(bào)》 采訪時(shí)表示,F(xiàn)acebook 希望與多家芯片公司合作開發(fā)新的芯片設(shè)計(jì)——最近宣布了與英特爾合作開展項(xiàng)目——但他也表示,F(xiàn)acebook正在開發(fā)自己的定制 “ASIC” 芯片,以支持其AI程序。

LeCun說:“眾所周知,F(xiàn)acebook會(huì)在需要時(shí)構(gòu)建自己的硬件——例如,構(gòu)建自己的ASIC。遇到任何障礙,我們都將全力以赴?!边@是Facebook首次發(fā)表官方評(píng)論,證實(shí)了其在芯片領(lǐng)域的雄心。

談到公司在芯片方面取得突破的機(jī)會(huì)時(shí),LeCun補(bǔ)充說:“底層肯定有很大的空間?!?/p>

Facebook自研芯片的決定,對英偉達(dá)也構(gòu)成了又一個(gè)長期挑戰(zhàn)。英偉達(dá)是目前用于數(shù)據(jù)中心AI的圖形處理器的主要生產(chǎn)商。由于大型數(shù)據(jù)中心客戶離開,英偉達(dá)正面臨短期困境。

現(xiàn)在,更大的需求是更專業(yè)的AI芯片,其設(shè)計(jì)旨在以閃電般的速度、更低的功耗執(zhí)行單一任務(wù),而不是過去的通用處理器。這種需求不僅吸引了谷歌、亞馬遜、蘋果等公司的投資浪潮,也吸引了幾十家初創(chuàng)企業(yè)。

對新的芯片設(shè)計(jì)和硬件架構(gòu)的關(guān)注表明,需要在基礎(chǔ)計(jì)算方面取得根本性突破,以防止今天的AI成為一個(gè)死胡同。

LeCun 表示,縱觀AI的歷史,在研究人員提出讓該領(lǐng)域得到突破的洞見之前,它往往已經(jīng)在硬件方面取得了很大的進(jìn)步。

“在相當(dāng)長的一段時(shí)間里,人們沒有想到相當(dāng)明顯的想法,”他說,這阻礙了人工智能的發(fā)展。其中就包括反向傳播,這是當(dāng)今深度學(xué)習(xí)系統(tǒng)的一項(xiàng)核心技術(shù),算法可以通過反向傳播來減少錯(cuò)誤。 LeCun 表示,這顯然是對早期研究的延伸,但直到上世紀(jì)90年代計(jì)算機(jī)硬件發(fā)展后,這一技術(shù)才得到廣泛應(yīng)用。

Facebook過去也曾設(shè)計(jì)過其他類型的硬件,例如,在將數(shù)據(jù)中心設(shè)備開源供他人使用之前,為這些設(shè)備提出一些新想法。 LeCun 表示,同樣的方法也將適用于芯片設(shè)計(jì)。他補(bǔ)充說:“我們的目標(biāo)是將其送走?!?/p>

重新設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),模仿更多人類智能

Facebook還將研究重點(diǎn)放在神經(jīng)網(wǎng)絡(luò)的新設(shè)計(jì)上。神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)系統(tǒng)的核心,是圖像和語言識(shí)別等領(lǐng)域最近進(jìn)展的基礎(chǔ)。

30年前,LeCun在 AT&T 貝爾實(shí)驗(yàn)室研究AI芯片時(shí),構(gòu)建了第一個(gè)“卷積”神經(jīng)網(wǎng)絡(luò),這是目前深度學(xué)習(xí)系統(tǒng)常用的神經(jīng)網(wǎng)絡(luò)。

LeCun 表示,F(xiàn)acebook正致力于“一切可以降低功耗(并)改善延遲的事情”,以加快處理速度。但他補(bǔ)充說,實(shí)時(shí)監(jiān)控視頻帶來的巨大需求,將需要新的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)。

Facebook也在尋找新的神經(jīng)網(wǎng)絡(luò)架構(gòu),以模仿人類智能的更多方面,并使系統(tǒng)更自然地進(jìn)行交互。

LeCun說,F(xiàn)acebook正大力投入于“自我監(jiān)督”系統(tǒng),這種系統(tǒng)能夠?qū)χ車氖澜缱龀龈鼜V泛的預(yù)測,而不僅僅是得出直接與它們所接受的數(shù)據(jù)相關(guān)的結(jié)論。這可以使它們對世界產(chǎn)生同樣廣泛的理解,從而使人類能夠應(yīng)對新的情況。

“就新用途而言,F(xiàn)acebook感興趣的一件事是開發(fā)智能數(shù)字助理——具有一定程度的常識(shí)的智能助理,”他說。“它們擁有背景知識(shí),你可以和它們就任何話題進(jìn)行討論?!?/p>

向計(jì)算機(jī)灌輸常識(shí)的想法還處于非常早期的階段,LeCun表示,這種更深層次的智能“不會(huì)很快發(fā)生”。

他說:“能夠在不確定性下進(jìn)行預(yù)測是當(dāng)今的主要挑戰(zhàn)之一。”

Facebook正在參與一項(xiàng)更廣泛的研究努力,旨在增強(qiáng)當(dāng)今的神經(jīng)網(wǎng)絡(luò)。在ISSCC研討會(huì)上,LeCun概述了這項(xiàng)工作。

其中,包括根據(jù)通過它們的數(shù)據(jù)調(diào)整其設(shè)計(jì)的網(wǎng)絡(luò),使其在面對現(xiàn)實(shí)世界的變化時(shí)更加靈活。另一種研究方法是研究只“激活”解決特定問題所需神經(jīng)元的網(wǎng)絡(luò),這種方法與人類大腦的運(yùn)作方式類似,可以大大降低功耗。

研究工作還包括將計(jì)算機(jī)存儲(chǔ)添加到神經(jīng)網(wǎng)絡(luò)中,這樣當(dāng)與人“交談”時(shí),神經(jīng)網(wǎng)絡(luò)就能記住更多的信息,并形成更強(qiáng)的語境感。

神經(jīng)網(wǎng)絡(luò)的進(jìn)步可能會(huì)對驅(qū)動(dòng)它們的芯片的設(shè)計(jì)產(chǎn)生連鎖反應(yīng),這可能會(huì)為制造當(dāng)今領(lǐng)先AI芯片的公司帶來更多競爭。

LeCun 表示,谷歌的TPU——最強(qiáng)大的機(jī)器學(xué)習(xí)數(shù)據(jù)中心芯片——“仍相當(dāng)通用”。但“它們做出的假設(shè)不一定適用于未來的神經(jīng)網(wǎng)絡(luò)架構(gòu)?!?/p>

另一方面,芯片設(shè)計(jì)的靈活性也有其他缺點(diǎn)。例如,微軟計(jì)劃在其所有數(shù)據(jù)中心服務(wù)器上安裝一種不同類型的芯片,即FPGA(現(xiàn)場可編程門陣列)。這些芯片在使用方式上更加靈活,但在處理大量數(shù)據(jù)方面效率較低,這使它們與專為特定任務(wù)而優(yōu)化的芯片相比處于劣勢。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4829

    瀏覽量

    106867
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    58372
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2072

    瀏覽量

    36586

原文標(biāo)題:LeCun:賦予機(jī)器 “常識(shí)” ,重新設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)將是AI 研究重點(diǎn)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?723次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+神經(jīng)形態(tài)計(jì)算、類腦芯片

    AI芯片不僅包括深度學(xué)細(xì)AI加速器,還有另外一個(gè)主要列別:類腦芯片。類腦芯片是模擬人腦神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 09-17 16:43

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    連接定義了神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。 不同神經(jīng)網(wǎng)絡(luò)的DNN: 一、基于大模型的AI芯片 1、Transformer 模型與引擎 1.1 Transformer 模型概述 Transforme
    發(fā)表于 09-12 17:30

    【書籍評(píng)測活動(dòng)NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    神經(jīng)網(wǎng)絡(luò)。 材料創(chuàng)新 這部分將視角投向化學(xué)與生物領(lǐng)域,探索 “濕件”的可能性,重新定義AI芯片的形態(tài)。 化學(xué)計(jì)算開辟了全新路徑,通過酸堿反應(yīng)構(gòu)建邏輯門與神經(jīng)網(wǎng)絡(luò),讓化學(xué)反應(yīng)成為計(jì)算的
    發(fā)表于 07-28 13:54

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    發(fā)者能使用 NVIDIA GeForce RTX GPU 中的 AI Tensor Cores,在游戲的圖形渲染管線內(nèi)加速神經(jīng)網(wǎng)絡(luò)渲染。
    的頭像 發(fā)表于 04-07 11:33 ?896次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?1361次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)步驟詳解

    BP神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)步驟主要包括以下幾個(gè)階段:網(wǎng)絡(luò)初始化、前向傳播、誤差計(jì)算、反向傳播和權(quán)重更新。以下是對這些步驟的詳細(xì)解釋: 一、網(wǎng)絡(luò)初始化 確定網(wǎng)
    的頭像 發(fā)表于 02-12 15:50 ?1151次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?1626次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?1317次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?1373次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?1557次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,神經(jīng)元之間通過
    的頭像 發(fā)表于 01-23 13:52 ?859次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?2286次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法