chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

寒武紀(jì)歷代深度學(xué)習(xí)處理器的各種參數(shù)信息

倩倩 ? 來(lái)源:我是天邊飄過(guò)一朵云 ? 2020-04-17 09:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

寒武紀(jì)神經(jīng)網(wǎng)絡(luò)處理器是中科院計(jì)算技術(shù)研究所發(fā)布的能運(yùn)行深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)人工智能算法的處理器硬件架構(gòu),下面是小編整理的寒武紀(jì)歷代深度學(xué)習(xí)處理器的各種參數(shù)信息,大家不妨來(lái)看看。

1. 寒武紀(jì)1號(hào):DianNao

陳天石等人提出的DianNao是寒武紀(jì)系列的第一個(gè)原型處理器結(jié)構(gòu),包含一個(gè)處理器核,主頻為0.98GHz,峰值性能達(dá)每秒4520億次神經(jīng)網(wǎng)絡(luò)基本運(yùn)算(如加法、乘法等),65mm工藝下功耗為0.485W,面積3.02平方毫米。在若干代表性神經(jīng)網(wǎng)絡(luò)上的實(shí)驗(yàn)結(jié)果表明,DianNao的平均性能超過(guò)主流CPU核的100倍,面積和功耗僅為CPU核的1/30~1/5,效能提升達(dá)三個(gè)數(shù)量級(jí);DianNao的平均性能與主流通用圖形處理器(NVIDIA K20M)相當(dāng),但面積和功耗僅為后者的百分之一量級(jí)。

DianNao要解決的核心問(wèn)題是如何使有限的內(nèi)存帶寬滿足運(yùn)算功能部件的需求,使運(yùn)算和訪存之間達(dá)到平衡,從而實(shí)現(xiàn)高效能比。其難點(diǎn)在于選取運(yùn)算功能部件的數(shù)量、組織策略以及片上隨機(jī)存儲(chǔ)器(RAM)的結(jié)構(gòu)參數(shù)。由于整個(gè)結(jié)構(gòu)參數(shù)空間有上千萬(wàn)種選擇,而模擬器運(yùn)行速度不及真實(shí)芯片的十萬(wàn)分之一,我們不可能蠻力嘗試各種可能的設(shè)計(jì)參數(shù)。為解決此問(wèn)題,提出了一套基于機(jī)器學(xué)習(xí)的處理器性能建模方法,并基于該模型最終為DianNao選定了各項(xiàng)設(shè)計(jì)參數(shù),在運(yùn)算和訪存間實(shí)現(xiàn)了平衡,顯著提升了執(zhí)行神經(jīng)網(wǎng)絡(luò)算法時(shí)的效能。

即使數(shù)據(jù)已經(jīng)從內(nèi)存移到了片上,搬運(yùn)的能耗依然非常高。英偉達(dá)公司首席科學(xué)家史蒂夫·凱科勒(Steve Keckler)曾經(jīng)出,在40m工藝下,將64位數(shù)據(jù)搬運(yùn)20毫米的能耗是做64位浮點(diǎn)乘法的數(shù)倍。因此,要降低處理器功耗,僅僅降低運(yùn)算功耗是不夠的,必須對(duì)片上數(shù)據(jù)搬運(yùn)進(jìn)行優(yōu)化。我們提出了對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行分塊處理,將不同類型的數(shù)據(jù)塊存放在不同的片上隨機(jī)存儲(chǔ)器中,并建立理論模型來(lái)刻畫隨機(jī)存儲(chǔ)器與隨機(jī)存儲(chǔ)器、隨機(jī)存儲(chǔ)器與運(yùn)算部件、隨機(jī)存儲(chǔ)器與內(nèi)存之間的搬運(yùn)次數(shù),進(jìn)而優(yōu)化神經(jīng)網(wǎng)絡(luò)運(yùn)算所需的數(shù)據(jù)搬運(yùn)次數(shù)。相對(duì)于CPU/GPU上基于緩存層次的數(shù)據(jù)搬運(yùn),DianNao可將數(shù)據(jù)搬運(yùn)次數(shù)減少至前者的1/30~1/10。

2. 寒武紀(jì)2號(hào):DaDianNao

近年來(lái)興起的深度神經(jīng)網(wǎng)絡(luò)在模式識(shí)別領(lǐng)域取得了很好的應(yīng)用效果,但這類神經(jīng)網(wǎng)絡(luò)的隱層數(shù)量和突觸數(shù)量遠(yuǎn)多于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)。例如,著名的谷歌大腦包括了100多億個(gè)突觸。百度采用的大規(guī)模深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)包含200多億個(gè)突觸。急劇增長(zhǎng)的神經(jīng)網(wǎng)絡(luò)規(guī)模給神經(jīng)網(wǎng)絡(luò)處理器帶來(lái)了挑戰(zhàn)。單個(gè)核已經(jīng)難以滿足不斷增長(zhǎng)的應(yīng)用需求。將神經(jīng)網(wǎng)絡(luò)處理器擴(kuò)展至多核成為自然之選。DaDianNao在DianNao的基礎(chǔ)上進(jìn)一步擴(kuò)大了處理器的規(guī)模,包含16個(gè)處理器核和更大的片上存儲(chǔ),并支持多處理器芯片間直接高速互連,避免了高昂的內(nèi)存訪問(wèn)開(kāi)銷。在28nm工藝下,DaDianNao的主頻為606MHz,面積67.7平方毫米,功耗約16W。單芯片性能超過(guò)了主流GPU的21倍,而能耗僅為主流GPU的1/330。64芯片組成的計(jì)算系統(tǒng)的性能較主流GPU提升450倍,但總能耗僅為后者的1/150。

3. 寒武紀(jì)3號(hào):PuDianNao

神經(jīng)網(wǎng)絡(luò)已成為模式識(shí)別等領(lǐng)域的主流算法,但用戶很多時(shí)候可能更傾向于使用其他一些經(jīng)典的機(jī)器學(xué)習(xí)算法。例如程序化交易中經(jīng)常使用線性回歸這類可解釋性好、復(fù)雜度低的算法。在此背景下,我們研發(fā)了寒武紀(jì)3號(hào)多用途機(jī)器學(xué)習(xí)處理器---PuDianNao,可支持k-最近鄰、k-均值、樸素貝葉斯、線性回歸、支持向量機(jī)、決策樹、神經(jīng)網(wǎng)絡(luò)等近10種代表性機(jī)器學(xué)習(xí)算法。在65nm工藝下,PuDianNao的主頻為1GHz,峰值性能達(dá)每秒10560億次基本操作,面積3.51平方毫米,功耗為0.596W。PuDianNao運(yùn)行上述機(jī)器學(xué)習(xí)算法吋的平均性能與主流通用圖形處理器相當(dāng),但面積和功耗僅為后者的百分之一量級(jí)。PuDianNao的結(jié)構(gòu)設(shè)計(jì)主要有兩個(gè)難點(diǎn):運(yùn)算單元設(shè)計(jì)和存儲(chǔ)層次設(shè)計(jì),分別對(duì)應(yīng)于機(jī)器學(xué)習(xí)的運(yùn)算特征和結(jié)構(gòu)特征。其中運(yùn)算單元設(shè)計(jì)的出發(fā)點(diǎn)是高效實(shí)現(xiàn)機(jī)器學(xué)習(xí)最頻繁的運(yùn)算操作,而存儲(chǔ)層次設(shè)計(jì)則主要根據(jù)訪存特征提高各機(jī)器學(xué)習(xí)算法中數(shù)據(jù)的片內(nèi)重用,降低片外訪存帶寬的需求,充分發(fā)揮運(yùn)算單元的計(jì)算能力,避免片外訪存成為性能瓶頸。在運(yùn)算單元設(shè)計(jì)方面,提出了一種機(jī)器學(xué)習(xí)運(yùn)算單元(Machine Learning Unit, MLU)來(lái)支持各種機(jī)器學(xué)習(xí)方法中共有的核心運(yùn)算,包括:點(diǎn)積(線性回歸、支持向量機(jī)、神經(jīng)網(wǎng)絡(luò))、距離計(jì)算(k-最近鄰、k-均值)計(jì)數(shù)(決策樹和樸素貝葉斯)、排序(k-最近鄰、k-均值)和非線性函數(shù)計(jì)算(支持向量機(jī)和神經(jīng)網(wǎng)絡(luò))等。機(jī)器學(xué)習(xí)運(yùn)算單元被分成了計(jì)數(shù)器、加法器、乘法器、加法樹、Acc和Misc6個(gè)流水線階段。

在存儲(chǔ)層次設(shè)計(jì)方面,設(shè)計(jì)了HotBuf(HB)、ColdBuf(CB)和OutputBuf(OB)3個(gè)片上數(shù)據(jù)緩存HotBuf存儲(chǔ)輸入數(shù)據(jù),具有最短重用距離的數(shù)據(jù)。ColdBuf存放相對(duì)較長(zhǎng)重用距離的輸入數(shù)據(jù)。OutputBuf存儲(chǔ)輸出數(shù)據(jù)或者臨時(shí)結(jié)果。這樣設(shè)計(jì)的原因有兩個(gè):第一,在各種機(jī)器學(xué)習(xí)算法中,數(shù)據(jù)的重用距離通??梢苑譃閮深惢蛉?,因此設(shè)計(jì)了3個(gè)片上數(shù)據(jù)緩存;第二,機(jī)器學(xué)習(xí)算法中不同類型的數(shù)據(jù)讀取寬度不同,因此設(shè)置了分開(kāi)的緩存來(lái)降低不同的寬度帶來(lái)的開(kāi)銷。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103673
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95414
  • 寒武紀(jì)
    +關(guān)注

    關(guān)注

    11

    文章

    200

    瀏覽量

    74336
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    寒武紀(jì)“炸裂”財(cái)報(bào)!一季度營(yíng)收增長(zhǎng)40倍,積極備貨應(yīng)對(duì)“爆單”?

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)寒武紀(jì),交出一份炸裂財(cái)報(bào)!在4月18日,寒武紀(jì)公布了2024年年報(bào)和2025年一季度報(bào)告,其中2024年全年?duì)I收11.74億元,同比增長(zhǎng)65.56%;虧損4.52億元
    的頭像 發(fā)表于 04-22 09:07 ?1457次閱讀
    <b class='flag-5'>寒武紀(jì)</b>“炸裂”財(cái)報(bào)!一季度營(yíng)收增長(zhǎng)40倍,積極備貨應(yīng)對(duì)“爆單”?

    寒武紀(jì)3000億市值與GPU廠商密集IPO,AI芯片正是當(dāng)打之年

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)就在最近,寒武紀(jì)市值沖上3000億元,創(chuàng)造了半導(dǎo)體企業(yè)的市值奇跡。2024年1月10日收盤當(dāng)天寒武紀(jì)股價(jià)報(bào)729.97元,上漲2.48%,市值3047億元。盤中最
    的頭像 發(fā)表于 01-20 08:16 ?3747次閱讀
    <b class='flag-5'>寒武紀(jì)</b>3000億市值與GPU廠商密集IPO,AI芯片正是當(dāng)打之年

    寒武紀(jì)基于思元370芯片的MLU370-X8 智能加速卡產(chǎn)品手冊(cè)詳解

    MLU370-X8智能加速卡是全面升級(jí)的數(shù)據(jù)中心訓(xùn)推一體AI加速卡,基于寒武紀(jì)全新一代思元370芯片,接口為PCIe 4.0 X16,是全高全長(zhǎng)雙寬(FHFL-Dual-Slot)的標(biāo)準(zhǔn)PCIe加速卡,適用于業(yè)內(nèi)最新的CPU平臺(tái),可輕松搭載于最先進(jìn)的人工智能服務(wù),快速實(shí)
    的頭像 發(fā)表于 04-24 17:57 ?1478次閱讀
    <b class='flag-5'>寒武紀(jì)</b>基于思元370芯片的MLU370-X8 智能加速卡產(chǎn)品手冊(cè)詳解

    寒武紀(jì)思元370芯片參數(shù)特性詳解

    寒武紀(jì)首次采用chiplet技術(shù)將2顆AI計(jì)算芯粒封裝為一顆AI芯片,通過(guò)不同芯粒組合規(guī)格多樣化的產(chǎn)品,為用戶提供適用不同場(chǎng)景的高性價(jià)比AI芯片。
    的頭像 發(fā)表于 04-24 17:49 ?1254次閱讀
    <b class='flag-5'>寒武紀(jì)</b>思元370芯片<b class='flag-5'>參數(shù)</b>特性詳解

    TPU處理器的特性和工作原理

    張量處理單元(TPU,Tensor Processing Unit)是一種專門為深度學(xué)習(xí)應(yīng)用設(shè)計(jì)的硬件加速。它的開(kāi)發(fā)源于對(duì)人工智能(AI)和機(jī)器學(xué)
    的頭像 發(fā)表于 04-22 09:41 ?1479次閱讀
    TPU<b class='flag-5'>處理器</b>的特性和工作原理

    寒武紀(jì)一季度營(yíng)收大漲4230% 凈利潤(rùn)3.55億 扭虧為盈

    4月18日晚間,國(guó)產(chǎn)AI芯片龍頭寒武紀(jì)發(fā)布了財(cái)務(wù)報(bào)告,包括有2025年第一季度財(cái)務(wù)報(bào)告和2024年年度財(cái)務(wù)報(bào)告。 在2025年第一季度,寒武紀(jì)營(yíng)收達(dá)到11.11億,同比增長(zhǎng)高達(dá)4230.22
    的頭像 發(fā)表于 04-19 14:15 ?1064次閱讀

    美國(guó)業(yè)務(wù)收入占比低,寒武紀(jì)等回應(yīng)加征關(guān)稅

    相關(guān)產(chǎn)品和技進(jìn)行了限制。本次加征關(guān)稅,對(duì)公司的經(jīng)營(yíng)管理不會(huì)造成實(shí)質(zhì)性影響。 ? 公司自成立以來(lái)一直專注于人工智能芯片產(chǎn)品的研發(fā)與技術(shù)創(chuàng)新,致力于打造人工智能領(lǐng)域的核心處理器芯片,公司的主營(yíng)業(yè)務(wù)是應(yīng)用于各類云服務(wù)、邊緣計(jì)算設(shè)備、終端設(shè)
    發(fā)表于 04-12 00:59 ?664次閱讀
    美國(guó)業(yè)務(wù)收入占比低,<b class='flag-5'>寒武紀(jì)</b>等回應(yīng)加征關(guān)稅

    寒武紀(jì)增資全資子公司上海寒武紀(jì)

    近日,寒武紀(jì)科技公司發(fā)布公告,宣布了一項(xiàng)重要的增資計(jì)劃。為了保障募投項(xiàng)目的順利實(shí)施,并滿足全資子公司上海寒武紀(jì)的實(shí)際運(yùn)營(yíng)需求,寒武紀(jì)決定使用募集資金1500萬(wàn)元及自有資金1.85億元,合計(jì)2億元
    的頭像 發(fā)表于 02-05 13:44 ?787次閱讀

    量子處理器是什么_量子處理器原理

    量子處理器(QPU)是量子計(jì)算機(jī)的核心部件,它利用量子力學(xué)原理進(jìn)行高速數(shù)學(xué)和邏輯運(yùn)算、存儲(chǔ)及處理量子信息。以下是對(duì)量子處理器的詳細(xì)介紹:
    的頭像 發(fā)表于 01-27 11:53 ?959次閱讀

    寒武紀(jì)發(fā)布2024年度業(yè)績(jī)預(yù)告

    昨日晚間,國(guó)內(nèi)領(lǐng)先的智能芯片設(shè)計(jì)企業(yè)寒武紀(jì)發(fā)布了其2024年度的業(yè)績(jī)預(yù)告。據(jù)公告顯示,公司預(yù)計(jì)全年?duì)I業(yè)收入將在10.7億元至12億元之間,與去年同期相比,實(shí)現(xiàn)了50.83%至69.16%的顯著增長(zhǎng)
    的頭像 發(fā)表于 01-15 10:30 ?781次閱讀

    NPU與傳統(tǒng)處理器的區(qū)別是什么

    和GPU相比,NPU在處理深度學(xué)習(xí)任務(wù)時(shí)展現(xiàn)出了顯著的優(yōu)勢(shì)。 1. 設(shè)計(jì)目的 傳統(tǒng)處理器: CPU(中央處理單元): CPU是通用
    的頭像 發(fā)表于 11-15 09:29 ?1241次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對(duì)深度學(xué)習(xí)算法優(yōu)化的
    的頭像 發(fā)表于 11-14 15:17 ?1924次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識(shí)別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識(shí)別、自動(dòng)駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過(guò)程。 二、自然語(yǔ)言處理 自然語(yǔ)言處理(NLP)是
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?617次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    并行計(jì)算的能力,可以在硬件層面并行處理大量數(shù)據(jù)。這種并行處理能力使得 FPGA 在執(zhí)行深度學(xué)習(xí)算法時(shí)速度遠(yuǎn)超傳統(tǒng)處理器,能夠提供更低的延遲和
    發(fā)表于 09-27 20:53