chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

了解深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的現(xiàn)狀,英特爾FPGA實(shí)施神經(jīng)網(wǎng)絡(luò)的必然之選

電子工程師 ? 來(lái)源:lq ? 2018-12-17 16:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在腦認(rèn)知科學(xué)中有這么一個(gè)觀點(diǎn),如果幾個(gè)神經(jīng)元之間經(jīng)常構(gòu)成連通路,且通過(guò)這幾個(gè)神經(jīng)元進(jìn)行信息傳遞不如兩者直接通過(guò)在彼此中間“搭橋”進(jìn)行信息傳遞來(lái)得快,那么大腦結(jié)構(gòu)就會(huì)根據(jù)細(xì)胞結(jié)構(gòu)上信息傳遞的頻率在兩者之間幫助生出一個(gè)神經(jīng)元來(lái)幫助更高效的獲取與處理大腦信息。

從上面這個(gè)內(nèi)容中我們可以發(fā)現(xiàn),現(xiàn)在人工智能的發(fā)展并不足夠完美,但我們依然受類(lèi)似的生物系統(tǒng)啟發(fā)從而提出神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并將之用于人工智能技術(shù)的發(fā)展?,F(xiàn)在,通過(guò)融合強(qiáng)大計(jì)算資源和用于神經(jīng)元的新型架構(gòu),神經(jīng)網(wǎng)絡(luò)已然在計(jì)算機(jī)視覺(jué)和機(jī)器翻譯等很多領(lǐng)域都取得了最先進(jìn)的成果。

然而相對(duì)來(lái)說(shuō),這樣的技術(shù)發(fā)展可都有各種嚴(yán)格的要求,尤其速度。那么我們現(xiàn)代人在大數(shù)據(jù)噴發(fā)的今天,是怎么做到計(jì)算與速度兩者皆備的呢?在此之前,我們不妨先來(lái)了解深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的現(xiàn)狀。

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)現(xiàn)狀

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)系統(tǒng)目前已能夠?yàn)樵S多人提供最佳解決方案,并已用于圖像識(shí)別和自然語(yǔ)言處理的大型計(jì)算問(wèn)題。更多的人使用傳統(tǒng)的處理來(lái)模仿神經(jīng)網(wǎng)絡(luò)并創(chuàng)建一個(gè)系統(tǒng),并通過(guò)觀察來(lái)學(xué)習(xí)。雖然我們?cè)谶@個(gè)領(lǐng)域已經(jīng)取得了很大進(jìn)展,但基于Web的神經(jīng)網(wǎng)絡(luò)高性能系統(tǒng)開(kāi)發(fā)等多種技術(shù),在功耗,成本和性能方面仍然存在重大挑戰(zhàn)。

此外,最廣泛使用的深度學(xué)習(xí)系統(tǒng)是卷積神經(jīng)網(wǎng)絡(luò)(細(xì)胞神經(jīng)網(wǎng)絡(luò))。這些系統(tǒng)使用神經(jīng)元的前饋人工網(wǎng)絡(luò)執(zhí)行圖像識(shí)別。如有線電視新聞網(wǎng)是由層組成。其中,池化層通過(guò)最大值或值平均,池化減少變化圖像特定區(qū)域的共同特征。CNN層的數(shù)量與圖像識(shí)別的準(zhǔn)確性相關(guān);更多圖層需要更多系統(tǒng)性能。這些層可以獨(dú)立運(yùn)行。

圖1:二維卷積層

多核處理系統(tǒng)使用外部存儲(chǔ)器緩沖每層之間的數(shù)據(jù),這需要大量的內(nèi)存與帶寬。到目前為止,神經(jīng)網(wǎng)絡(luò)中性能最強(qiáng)的功能是卷積自己。傳統(tǒng)的處理器內(nèi)核必須為每個(gè)內(nèi)核執(zhí)行大量指令。卷積需要大量的處理與帶寬。

實(shí)現(xiàn)CNN的有效實(shí)施有兩個(gè)主要挑戰(zhàn)。首先是能夠在管道中執(zhí)行函數(shù),將數(shù)據(jù)從上一個(gè)層傳遞到下一個(gè)。第二是有效地執(zhí)行卷積函數(shù)。另外,這些功能應(yīng)該用一種方法構(gòu)建允許輕松重新編程不同類(lèi)型的硬件和移植到未來(lái)的高級(jí)硬件,否則,每個(gè)新的實(shí)現(xiàn)都需要廣泛的重新優(yōu)化。

英特爾FPGA,實(shí)施神經(jīng)網(wǎng)絡(luò)的必然之選

在英特爾公司,F(xiàn)PGA 當(dāng)稱(chēng)實(shí)施神經(jīng)網(wǎng)絡(luò)的必然之選,它可在同一設(shè)備上處理計(jì)算、邏輯和存儲(chǔ)資源中的不同算法。與其它同行對(duì)手的裝置相比,其性能更快,用戶(hù)可通過(guò)硬件來(lái)完成核心部分運(yùn)算。加上軟件開(kāi)發(fā)者可使用 OpenCL?1C 級(jí)編程標(biāo)準(zhǔn),將 FPGA 作為標(biāo)準(zhǔn) CPU 的加速器,更加無(wú)需處理硬件級(jí)設(shè)計(jì)。

“Why?因?yàn)樗軐⒂?jì)算,邏輯和內(nèi)存資源結(jié)合在一起共同使用。再加上英特爾?FPGASDK的幫助,使得它能夠適用于各種加速應(yīng)用并使用更多復(fù)雜的算法。軟件開(kāi)發(fā)人員也可以使用OpenCL C級(jí)編程標(biāo)準(zhǔn)。”

此外,英特爾已經(jīng)開(kāi)發(fā)出可擴(kuò)展的卷積神經(jīng)網(wǎng)絡(luò)參考設(shè)計(jì),并用于使用OpenCL編程的深度學(xué)習(xí)系統(tǒng)。(使用OpenCL SDK構(gòu)建的語(yǔ)言)這個(gè)設(shè)計(jì)首先是在Stratix?V器件系列上實(shí)現(xiàn),現(xiàn)在適用于Arria?10器件。設(shè)計(jì)表現(xiàn)是使用兩個(gè)流行的CNN基準(zhǔn)進(jìn)行基準(zhǔn)測(cè)試:CIFAR-10和ImageNet。(典型的GPU實(shí)現(xiàn)批處理圖像需要大量的外部存儲(chǔ)器帶寬。相比之下,F(xiàn)PGA可以一次性處理圖像,芯片上的數(shù)據(jù)重用率更高,外部使用更少內(nèi)存帶寬。)

圖2:神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)通道

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:從“腦認(rèn)知科學(xué)”看神經(jīng)元之旅,你對(duì)深度神經(jīng)網(wǎng)絡(luò)該有這樣的認(rèn)知

文章出處:【微信號(hào):FPGAer_Club,微信公眾號(hào):FPGAer俱樂(lè)部】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類(lèi)別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫(xiě)數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?708次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專(zhuān)家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專(zhuān)家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?903次閱讀
    基于<b class='flag-5'>FPGA</b>搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)原則

    ,僅作為數(shù)據(jù)輸入的接口。輸入層的神經(jīng)元個(gè)數(shù)通常與輸入數(shù)據(jù)的特征數(shù)量相對(duì)應(yīng)。 隱藏層 :對(duì)輸入信號(hào)進(jìn)行非線性變換,是神經(jīng)網(wǎng)絡(luò)的核心部分,負(fù)責(zé)學(xué)習(xí)輸入與輸出之間的復(fù)雜映射關(guān)系。隱藏層可以有一層或多層,層數(shù)和
    的頭像 發(fā)表于 02-12 16:41 ?1259次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?1324次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?1438次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?1599次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)學(xué)習(xí)算法。該算法通過(guò)計(jì)算每層網(wǎng)絡(luò)的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?1289次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播
    的頭像 發(fā)表于 02-12 15:15 ?1358次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過(guò)程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?1534次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠學(xué)習(xí)到復(fù)雜的特征表達(dá),適用于處理非線性問(wèn)題。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中應(yīng)用的分析: 一、BP
    的頭像 發(fā)表于 02-12 15:12 ?1193次閱讀

    深度學(xué)習(xí)入門(mén):簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)
    的頭像 發(fā)表于 01-23 13:52 ?852次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?2265次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法