chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

華為麒麟970的NPU(神經(jīng)網(wǎng)絡(luò)處理器)到底是什么鬼

5RJg_mcuworld ? 2018-02-12 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

所謂的HiAI移動(dòng)計(jì)算架構(gòu),主要有四部分組成,CPU、GPU、ISP/DSP和NPU。作為全球第一枚集成專(zhuān)用NPU的移動(dòng)芯片,華為重點(diǎn)介紹NPU神經(jīng)網(wǎng)絡(luò)單元,聲稱(chēng)在HiAI架構(gòu)下AI性能密度大幅優(yōu)于CPU和GPU,能夠用更少的能耗更快的完成更多任務(wù),大幅提升芯片的運(yùn)算效率。

AI芯片能夠以人類(lèi)的思考方式來(lái)理解人類(lèi)訴求,具備高處理速度,高密度和高能效比,而麒麟970只是個(gè)開(kāi)始,并超越競(jìng)爭(zhēng)對(duì)手。

CPU部分,麒麟970與上一代麒麟960一樣為八核心設(shè)計(jì),由4個(gè)主頻為2.4GHz的Cortex-A73大內(nèi)核與4個(gè)主頻1.8GHz的Cortex-A53內(nèi)核組成,性能上無(wú)變化,畢竟同樣架構(gòu)頻率,傳聞所說(shuō)的2.8GHz主頻吊打驍龍835并沒(méi)能實(shí)現(xiàn),但跑分上追平驍龍835應(yīng)該沒(méi)問(wèn)題,并且得益于10納米工藝的進(jìn)步能效提升20%。

更具體來(lái)說(shuō),在16位浮點(diǎn)數(shù)(即FP16)時(shí),麒麟970內(nèi)置的NPU運(yùn)算能力達(dá)到1.92 TFLOPs,在AI人工智能深度學(xué)習(xí)下,所有硬件能夠協(xié)調(diào)芯片內(nèi)部的各個(gè)組件及手機(jī)硬件,如ISP、DSP,保持處理某些特定任務(wù)時(shí),提升速度并低功耗運(yùn)作。例如有了NPU的加成,在圖像識(shí)別任務(wù)上,對(duì)比Cortex-A73 CPU 性能提升25倍,能效提升50倍之多,拍攝1000張照片僅僅消耗4000mAh電池手機(jī)0.19%的電量,圖像識(shí)別速度可達(dá)到約2000張/分鐘。

相比之下,三星S8使用CPU處理每分鐘僅95張,蘋(píng)果iPhone 7 Plus同時(shí)使用CPU和GPU,每分鐘也僅能識(shí)別487張,華為完勝。

簡(jiǎn)而言之,麒麟970有了NPU單元之后,至少在拍照和圖像處理上,比之前單純依賴(lài)CPU和GPU要快得多。而對(duì)于競(jìng)爭(zhēng)對(duì)手,麒麟970最直接的就是保持高效率,并且更加的省電。未來(lái)AI獨(dú)立單元內(nèi)置于芯片一定是趨勢(shì),蘋(píng)果也在做,只是華為搶先開(kāi)了個(gè)頭.

華為麒麟970的NPU(神經(jīng)網(wǎng)絡(luò)處理器)到底是什么鬼

日前,美國(guó)知名科技媒體Android Authority主筆Gary Sims對(duì)麒麟970進(jìn)行了深度解讀,講述了麒麟970的人工智能NPU的工作原理,對(duì)芯片設(shè)計(jì)的深遠(yuǎn)影響,以及為用戶使用場(chǎng)景帶來(lái)的跨越式體驗(yàn)。

“神經(jīng)網(wǎng)絡(luò)(Neural Networks)”和“機(jī)器學(xué)習(xí)(Machine Learning)”是近兩年移動(dòng)處理器領(lǐng)域最流行的兩個(gè)詞。華為麒麟970的NPU(神經(jīng)網(wǎng)絡(luò)處理器)、Google Pixel 2內(nèi)置的IPU(圖像處理器),以及蘋(píng)果A11 Bionic,都是實(shí)現(xiàn)上述功能特性的專(zhuān)用硬件解決方案。

既然華為、Google和蘋(píng)果都在都在探索神經(jīng)引擎處理器,你可能以為機(jī)器學(xué)習(xí)需要特定的硬件。其實(shí)不然,神經(jīng)網(wǎng)絡(luò)可以在任何形式的處理器上運(yùn)行,從微處理器到CPU、GPU甚至是DSP。

所以,問(wèn)題的根本不在于處理器是否能利用神經(jīng)神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí),而在于它到底有多快,能提升多少效率。

如果時(shí)間倒退回30年前,當(dāng)年的桌面處理器是沒(méi)有的FPU(浮點(diǎn)運(yùn)算單元)芯片的,在486之后,Intel把FPU集成到了CPU內(nèi)部,浮點(diǎn)運(yùn)算性能大幅提升。而在很多實(shí)例計(jì)算中,全都是浮點(diǎn)數(shù)運(yùn)算。這樣以來(lái),有FPU和沒(méi)有FPU,運(yùn)算效率天差之別。

而如今,移動(dòng)處理器中的NPU也是類(lèi)似的情況。你可能覺(jué)得我們并不需要NPU,就能使用神經(jīng)網(wǎng)絡(luò),但實(shí)時(shí)情況是,華為正在用事實(shí)案例證明,當(dāng)遇到實(shí)時(shí)處理運(yùn)算的情況,NPU是必須的。

簡(jiǎn)單來(lái)說(shuō),“神經(jīng)網(wǎng)絡(luò)”可以理解為“機(jī)器學(xué)習(xí)”中“教”一臺(tái)機(jī)器區(qū)別分辨不同“事物”的一系列技術(shù)中的一種。上述“事物”可以是一張照片、一個(gè)單詞甚至是一種動(dòng)物的聲音,諸如此類(lèi)。

“神經(jīng)網(wǎng)絡(luò)”由很多“神經(jīng)元”組成,這些“神經(jīng)元”可以接收輸入信號(hào),然后通過(guò)網(wǎng)絡(luò)再向外傳播信號(hào),這取決于輸入的強(qiáng)度和自身閾值。

舉個(gè)簡(jiǎn)單的例子,神經(jīng)網(wǎng)絡(luò)正在監(jiān)測(cè)一組燈其中一個(gè)的開(kāi)關(guān),但在網(wǎng)絡(luò)中,這些燈的狀態(tài)只能0或者1來(lái)表達(dá),但不同的燈可能會(huì)出現(xiàn)一樣的開(kāi)關(guān)狀態(tài)。

那么問(wèn)題來(lái)了,神經(jīng)網(wǎng)絡(luò)怎么知道是該輸出0還是該輸出1呢?沒(méi)有規(guī)則或者程序能告訴神經(jīng)網(wǎng)絡(luò),輸出我們想得到的邏輯答案。

唯一的方面就是對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。大量的“樣本”和預(yù)期結(jié)果一起被注入到神經(jīng)網(wǎng)絡(luò)中,各種各樣的閾值反復(fù)微調(diào),不斷產(chǎn)生接近預(yù)期的結(jié)果。這個(gè)階段可以稱(chēng)為“訓(xùn)練階段”。

這聽(tīng)起來(lái)很簡(jiǎn)單,但實(shí)際上相當(dāng)復(fù)雜,尤其是遇到語(yǔ)言、圖像這種復(fù)雜樣本的時(shí)候。一旦訓(xùn)練達(dá)成,神經(jīng)網(wǎng)絡(luò)會(huì)自動(dòng)學(xué)會(huì)輸出預(yù)期結(jié)果,即便輸入的“樣本”之前從來(lái)沒(méi)有見(jiàn)過(guò)。

神經(jīng)網(wǎng)絡(luò)訓(xùn)練成功后,本質(zhì)上就成了一種靜態(tài)神經(jīng)網(wǎng)絡(luò)模型,它就能應(yīng)用在數(shù)以百萬(wàn)計(jì)的設(shè)備上用于推理,在CPU、GPU甚至是DSP上運(yùn)行。這個(gè)階段可以稱(chēng)為“推理階段”。

Gary Sims指出,“推理階段”的難度要低于“訓(xùn)練階段”,而這正是NPU發(fā)揮專(zhuān)長(zhǎng)的地方。

所以,華為麒麟970最大的不同是,專(zhuān)門(mén)設(shè)置了NPU硬件芯片,它在處理靜態(tài)神經(jīng)網(wǎng)絡(luò)模型方面有得天獨(dú)厚的優(yōu)勢(shì),不僅更快,還更有效率。事實(shí)上,NPU甚至能以17-33fps實(shí)時(shí)處理智能手機(jī)攝像頭拍攝的“直播”視頻。

從架構(gòu)來(lái)看,麒麟970像是一臺(tái)“發(fā)電站”,內(nèi)置8顆CPU和12顆GPU,另有移動(dòng)網(wǎng)絡(luò)連接以及多媒體處理模塊,晶體管規(guī)模達(dá)到了史無(wú)前例的55億顆。據(jù)華為透露,NPU大約內(nèi)含1.5億晶體管,不到整個(gè)芯片的3%。

這對(duì)于一款移動(dòng)處理器來(lái)說(shuō)尤為重要。首先,NPU的加入不會(huì)明顯增大處理器的尺寸、成本,這就意味著,NPU不僅能放入旗艦手機(jī),一些中端手機(jī)也能適用。在未來(lái)5年,NPU將對(duì)Soc設(shè)計(jì)產(chǎn)生深遠(yuǎn)影響。

其次是功耗和效率。NPU并非“電老虎”會(huì)犧牲手機(jī)的續(xù)航,相反它能高效的幫CPU承擔(dān)大量推理運(yùn)算的任務(wù),反而能節(jié)省不少功耗。

在最后的總結(jié)中,Gary Sims表示,如果華為能吸引更多第三方App開(kāi)發(fā)者使用NPU,其前景不可限量。想象一下,當(dāng)App在使用圖像、聲音、語(yǔ)音識(shí)別的時(shí)候,全部都能本地處理,不再需要網(wǎng)絡(luò)連接或者云服務(wù),App的使用體驗(yàn)將大大提升和加強(qiáng)。

試想,一名游客直接通過(guò)相機(jī)App就能認(rèn)出當(dāng)?shù)氐貥?biāo),App能智能識(shí)別你的食物并給出相應(yīng)的卡路里熟知、提醒食物過(guò)敏......

你認(rèn)為,NPU會(huì)像當(dāng)年FPU之于CPU一樣,成為移動(dòng)Soc芯片的標(biāo)準(zhǔn)嗎?不妨在評(píng)論中發(fā)表自己的看法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:外媒:終于看懂Kirin 970的NPU

文章出處:【微信號(hào):mcuworld,微信公眾號(hào):嵌入式資訊精選】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類(lèi)別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫(xiě)數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過(guò) read
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    神經(jīng)元,但卻能產(chǎn)生復(fù)雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,LNN旨在通過(guò)模擬大腦中神經(jīng)元之間的動(dòng)態(tài)連接來(lái)處理信息,這種網(wǎng)絡(luò)能夠順序
    的頭像 發(fā)表于 09-28 10:03 ?707次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    問(wèn)題。因此,并行計(jì)算與加速技術(shù)在神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用中變得至關(guān)重要,它們能夠顯著提升神經(jīng)網(wǎng)絡(luò)的性能和效率,滿足實(shí)際應(yīng)用中對(duì)快速響應(yīng)和大規(guī)模數(shù)據(jù)處理的需求。神經(jīng)網(wǎng)絡(luò)并行
    的頭像 發(fā)表于 09-17 13:31 ?888次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    【「芯片通識(shí)課:一本書(shū)讀懂芯片技術(shù)」閱讀體驗(yàn)】從deepseek看今天芯片發(fā)展

    的: 神經(jīng)網(wǎng)絡(luò)處理器NPU)是一種模仿人腦神經(jīng)網(wǎng)絡(luò)的電路系統(tǒng),是實(shí)現(xiàn)人工智能中神經(jīng)網(wǎng)絡(luò)計(jì)算的專(zhuān)用處理器
    發(fā)表于 04-02 17:25

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過(guò)權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) : CNN主要由卷積層、池化層和全連接層組成。
    的頭像 發(fā)表于 02-12 15:53 ?1311次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?1592次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?1279次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過(guò)逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的
    的頭像 發(fā)表于 02-12 15:15 ?1342次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負(fù)責(zé)接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡(luò)的核心部分,它可以通過(guò)一層或多層神經(jīng)元對(duì)輸入數(shù)據(jù)進(jìn)行加權(quán)求和,并通過(guò)非線性激活函數(shù)(如ReLU、sigmoid或tanh)進(jìn)行
    的頭像 發(fā)表于 02-12 15:13 ?1522次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到復(fù)雜的特征表達(dá),適用于處理非線性問(wèn)題。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中應(yīng)用的分析: 一、BP
    的頭像 發(fā)表于 02-12 15:12 ?1189次閱讀

    NPU是如何發(fā)展起來(lái)的?性能受哪些因素影響?

    (電子發(fā)燒友網(wǎng)綜合報(bào)道) NPU是一種專(zhuān)門(mén)用于加速神經(jīng)網(wǎng)絡(luò)計(jì)算的硬件處理器。隨著人工智能和深度學(xué)習(xí)技術(shù)的快速發(fā)展,傳統(tǒng)的CPU和GPU在處理復(fù)雜的
    的頭像 發(fā)表于 02-05 07:50 ?3494次閱讀

    深度學(xué)習(xí)入門(mén):簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,神經(jīng)元之間通過(guò)
    的頭像 發(fā)表于 01-23 13:52 ?846次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?2256次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法