chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

許多不同的硬件架構(gòu)在深度學(xué)習(xí)市場(chǎng)中共存

0BFC_eet_china ? 來源:未知 ? 作者:伍文輝 ? 2017-12-22 08:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在深度神經(jīng)網(wǎng)絡(luò)(DNN)發(fā)展的簡(jiǎn)短歷史中,業(yè)界不斷嘗試各種可提升性能的硬件架構(gòu)。通用CPU最容易編程,但每瓦特性能的效率最低。GPU針對(duì)平行浮點(diǎn)運(yùn)算進(jìn)行了優(yōu)化,性能也比CPU更高幾倍。因此,當(dāng)GPU供貨商有了一大批新客戶,他們開始增強(qiáng)設(shè)計(jì),以進(jìn)一步提高DNN效率。例如,Nvidia新的Volta架構(gòu)增加專用矩陣乘法單元,加速了常見的DNN運(yùn)算。

即使是增強(qiáng)型的GPU,仍然受其圖形專用邏輯的拖累。此外,盡管大多數(shù)的訓(xùn)練仍然使用浮點(diǎn)運(yùn)算,但近來的趨勢(shì)是使用整數(shù)運(yùn)算進(jìn)行DNN推論。例如Nvidia Volta的整數(shù)性能,但仍然建議使用浮點(diǎn)運(yùn)算進(jìn)行推論。芯片設(shè)計(jì)人員很清楚,整數(shù)單元比浮點(diǎn)單元更小且功效更高得多;當(dāng)使用8位(或更小)整數(shù)而非16位或32位浮點(diǎn)數(shù)時(shí),其優(yōu)勢(shì)更加明顯。

相較于GPU,DSP則是針對(duì)整數(shù)數(shù)學(xué)而設(shè)計(jì)的,特別適用于卷積神經(jīng)網(wǎng)絡(luò)(CNN)中的卷積函數(shù)。向量DSP使用寬SIMD單元進(jìn)一步加速推論計(jì)算,例如,Cadence的C5 DSP核心包括四個(gè)2048位寬度的SIMD單元;因此,核心在每個(gè)周期內(nèi)可以完成1,024個(gè)8位整數(shù)乘法累加(MAC)作業(yè)。在16nm設(shè)計(jì)中,它能每秒處理超過1兆個(gè)MAC運(yùn)算。聯(lián)發(fā)科技(MediaTek)即取得了Cadence的DSP IP授權(quán),用于其最新智能手機(jī)處理器的DNN加速器。

新架構(gòu)的機(jī)會(huì)

最有效率的架構(gòu)是從頭開始設(shè)計(jì)DNN,消除其它應(yīng)用的特性,并針對(duì)DNN需要的特定計(jì)算進(jìn)行優(yōu)化。這些架構(gòu)能建置于專用ASIC或銷售至系統(tǒng)制造商的芯片(這些芯片稱為專用標(biāo)準(zhǔn)產(chǎn)品或ASSP)中。最顯著的DNN ASIC是Google的TPU,它為推論任務(wù)進(jìn)行了優(yōu)化,主要包括65,536個(gè)MAC單元的脈動(dòng)數(shù)組和28MB內(nèi)存,以容納DNN權(quán)重和累加器。TPU使用一個(gè)簡(jiǎn)單的四階流水線,而且只執(zhí)行少數(shù)指令。

多家新創(chuàng)公司也在為DNN開發(fā)客制架構(gòu)。英特爾(Intel)去年收購(gòu)了其中的一家(Nervana),并計(jì)劃在今年年底前出樣其第一款A(yù)SSP;但該公司尚未透露該架構(gòu)的任何細(xì)節(jié)。Wave Computing為DNN開發(fā)了數(shù)據(jù)流處理器。其它為此獲得眾多資金的新創(chuàng)公司包括Cerebras、Graphcore和Groq。我們預(yù)計(jì)這些公司至少有幾家會(huì)在2018年投產(chǎn)組件。

另一種建置優(yōu)化架構(gòu)的方法是利用FPGA。微軟(Microsoft)廣泛采用FPGA作為其Catapult和Brainwave計(jì)劃的一部份;百度(Baidu)、Facebook以及其它云端服務(wù)器供貨商(CSP)也使用FPGA加速DNN。這種方法避免了數(shù)百萬美元的ASIC和ASSP投片費(fèi)用,并提供了更快的產(chǎn)品驗(yàn)證時(shí)程;只要設(shè)計(jì)改動(dòng),F(xiàn)PGA就能在幾分鐘內(nèi)重新編程和設(shè)計(jì)。但它們作業(yè)于較低的時(shí)鐘速率,并且比ASIC所能容納的邏輯塊更少得多。圖1總結(jié)了我們對(duì)這些解決方案之間相對(duì)效率的看法。

許多不同的硬件架構(gòu)在深度學(xué)習(xí)市場(chǎng)中共存
圖1:根據(jù)不同的硬件設(shè)計(jì),各種深度學(xué)習(xí)加速器之間的性能/功耗比至少存在兩個(gè)數(shù)量級(jí)的差異

有些公司藉由客制程度更高的加速器來強(qiáng)化現(xiàn)有設(shè)計(jì),從而提供了一定的空間與彈性,例如,Nvidia專為自動(dòng)駕駛車設(shè)計(jì)的Xavier芯片增加了一個(gè)整數(shù)數(shù)學(xué)模塊以加速DNN推論。Ceva和新思科技(Synopsys)設(shè)計(jì)了類似的單元,以便增強(qiáng)其SIMD DSP核心。這些模塊只包含大量的整數(shù)MAC單元,從而提高了數(shù)學(xué)運(yùn)算效率。然而,由于他們并未置換底層的GPU或DSP架構(gòu),所以也不像從頭設(shè)計(jì)那么有效率。

客制設(shè)計(jì)的挑戰(zhàn)之一在于深度學(xué)習(xí)算法持續(xù)迅速發(fā)展中。時(shí)下最流行的DNN開發(fā)工具TensorFlow兩年前才出現(xiàn),數(shù)據(jù)科學(xué)家們已經(jīng)在評(píng)估新的DNN結(jié)構(gòu)、卷積函數(shù)和數(shù)據(jù)格式了。對(duì)于兩年后的DNN來說,如今為現(xiàn)有工作負(fù)載客制的設(shè)計(jì)可能不再是理想的選擇,或甚至無法發(fā)揮作用。為了解決這個(gè)問題,大多數(shù)的ASIC和ASSP設(shè)計(jì)都是可編程且靈活的,但是FPGA提供了最大靈活度。例如,微軟已經(jīng)將專有的9位浮點(diǎn)格式定義為其Brainwave深度學(xué)習(xí)平臺(tái)的一部份。

融會(huì)貫通各種選擇

縱觀深度學(xué)習(xí)發(fā)展史,半導(dǎo)體產(chǎn)業(yè)通常首先在通用CPU中實(shí)現(xiàn)新應(yīng)用。如果應(yīng)用適用于現(xiàn)有的專用芯片,如GPU和DSP,那么接下來可能會(huì)轉(zhuǎn)移到這兩者。隨著時(shí)間的推移,如果新應(yīng)用發(fā)展成一個(gè)規(guī)模市場(chǎng),業(yè)界公司就會(huì)開始開發(fā)ASIC和ASSP,雖然這些組件可能保留一定的可編程性。只有當(dāng)算法變得極其穩(wěn)定時(shí)(例如MPEG),才能真的看到以固定功能邏輯的應(yīng)用建置。

深度學(xué)習(xí)目前也正按這一發(fā)展路線展開。GPU和DSP顯然是適用的,而且因需求夠高,所以ASIC開始出現(xiàn)。幾家新創(chuàng)公司和其它公司正在開發(fā)即將在2018年及其后出貨的ASSP。至于少量或利基應(yīng)用,F(xiàn)PGA通常更受歡迎;深度學(xué)習(xí)已經(jīng)顯示出足以為ASIC投片帶來的前景了。

然而,哪一種DNN架構(gòu)將會(huì)勝出?如今看來還不夠明朗。盡管深度學(xué)習(xí)市場(chǎng)正迅速成長(zhǎng),但仍遠(yuǎn)低于PC、智能手機(jī)和汽車市場(chǎng)。因此,ASIC和ASSP的商業(yè)案例看起來還微不足道。相形之下,像英特爾和Nvidia這樣的公司可以采用來自其它市場(chǎng)的高性能處理器,并增強(qiáng)其深度學(xué)習(xí),透過大量的軟件支持和持續(xù)的更新以提供具競(jìng)爭(zhēng)力的產(chǎn)品。未來幾年,我們將會(huì)看到許多不同的硬件架構(gòu)在深度學(xué)習(xí)市場(chǎng)中共存。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5586

    瀏覽量

    123641
  • 硬件架構(gòu)
    +關(guān)注

    關(guān)注

    0

    文章

    30

    瀏覽量

    9271
  • dnn
    dnn
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    9404

原文標(biāo)題:誰才是深度學(xué)習(xí)架構(gòu)之王?

文章出處:【微信號(hào):eet-china,微信公眾號(hào):電子工程專輯】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來,隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?3771次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    GPU架構(gòu)深度解析

    GPU架構(gòu)深度解析從圖形處理到通用計(jì)算的進(jìn)化之路圖形處理單元(GPU),作為現(xiàn)代計(jì)算機(jī)中不可或缺的一部分,已經(jīng)從最初的圖形渲染專用處理器,發(fā)展成為強(qiáng)大的并行計(jì)算引擎,廣泛應(yīng)用于人工智能、科學(xué)計(jì)算
    的頭像 發(fā)表于 05-30 10:36 ?858次閱讀
    GPU<b class='flag-5'>架構(gòu)</b><b class='flag-5'>深度</b>解析

    Arm 公司面向 PC 市場(chǎng)的 ?Arm Niva? 深度解讀

    子系統(tǒng)(CSS)? ? 的垂直領(lǐng)域延伸,Niva 旨在通過軟硬件深度整合,解決傳統(tǒng) x86 架構(gòu)能效比、AI 加速與生態(tài)兼容性上的痛點(diǎn)。以下結(jié)合技術(shù)
    的頭像 發(fā)表于 05-29 09:56 ?1144次閱讀

    Arm 公司面向移動(dòng)端市場(chǎng)的 ?Arm Lumex? 深度解讀

    子系統(tǒng)(CSS)? ? 移動(dòng)端的落地形態(tài),Lumex 旨在通過高度集成化的軟硬件方案,解決移動(dòng)設(shè)備 AI 性能、能效比與開發(fā)效率上的挑戰(zhàn)。以下從技術(shù)架構(gòu)、性能突破、應(yīng)用場(chǎng)景、生態(tài)系
    的頭像 發(fā)表于 05-29 09:54 ?3850次閱讀

    EZ-USB SX3 CYUSB3017-BZXI 能否與PolarFire MicrochipFPGA 同一電氣設(shè)計(jì)中共存

    雖然 SX3 配置實(shí)用程序不支持給定的 FPGA,但EZ-USB SX3 CYUSB3017-BZXI 能否與PolarFire MicrochipFPGA 同一電氣設(shè)計(jì)中共存?
    發(fā)表于 05-23 07:10

    OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無法導(dǎo)出INT8模型怎么解決?

    無法 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?712次閱讀

    AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制中的應(yīng)用

    隨著科技的飛速發(fā)展,人工智能(AI)與深度學(xué)習(xí)技術(shù)正逐步滲透到各個(gè)行業(yè),特別是自動(dòng)化生產(chǎn)中,其潛力與價(jià)值愈發(fā)凸顯。深度學(xué)習(xí)軟件不僅使人工和
    的頭像 發(fā)表于 01-17 16:35 ?1040次閱讀
    AI自動(dòng)化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>在</b>質(zhì)量控制中的應(yīng)用

    GPU深度學(xué)習(xí)中的應(yīng)用 GPUs圖形設(shè)計(jì)中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)深度學(xué)習(xí)中扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?1959次閱讀

    NPU深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對(duì)深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?2545次閱讀

    pcie深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用
    的頭像 發(fā)表于 11-13 10:39 ?1668次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度
    的頭像 發(fā)表于 10-27 11:13 ?1911次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)自動(dòng)駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?1323次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPG
    的頭像 發(fā)表于 10-25 09:22 ?1527次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?3379次閱讀