chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

華為麒麟970的NPU(神經(jīng)網(wǎng)絡(luò)處理器)到底是什么鬼

5RJg_mcuworld ? 2018-02-12 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

所謂的HiAI移動(dòng)計(jì)算架構(gòu),主要有四部分組成,CPUGPU、ISP/DSP和NPU。作為全球第一枚集成專用NPU的移動(dòng)芯片,華為重點(diǎn)介紹NPU神經(jīng)網(wǎng)絡(luò)單元,聲稱在HiAI架構(gòu)下AI性能密度大幅優(yōu)于CPU和GPU,能夠用更少的能耗更快的完成更多任務(wù),大幅提升芯片的運(yùn)算效率。

AI芯片能夠以人類的思考方式來(lái)理解人類訴求,具備高處理速度,高密度和高能效比,而麒麟970只是個(gè)開始,并超越競(jìng)爭(zhēng)對(duì)手。

CPU部分,麒麟970與上一代麒麟960一樣為八核心設(shè)計(jì),由4個(gè)主頻為2.4GHz的Cortex-A73大內(nèi)核與4個(gè)主頻1.8GHz的Cortex-A53內(nèi)核組成,性能上無(wú)變化,畢竟同樣架構(gòu)頻率,傳聞所說(shuō)的2.8GHz主頻吊打驍龍835并沒(méi)能實(shí)現(xiàn),但跑分上追平驍龍835應(yīng)該沒(méi)問(wèn)題,并且得益于10納米工藝的進(jìn)步能效提升20%。

更具體來(lái)說(shuō),在16位浮點(diǎn)數(shù)(即FP16)時(shí),麒麟970內(nèi)置的NPU運(yùn)算能力達(dá)到1.92 TFLOPs,在AI人工智能深度學(xué)習(xí)下,所有硬件能夠協(xié)調(diào)芯片內(nèi)部的各個(gè)組件及手機(jī)硬件,如ISP、DSP,保持處理某些特定任務(wù)時(shí),提升速度并低功耗運(yùn)作。例如有了NPU的加成,在圖像識(shí)別任務(wù)上,對(duì)比Cortex-A73 CPU 性能提升25倍,能效提升50倍之多,拍攝1000張照片僅僅消耗4000mAh電池手機(jī)0.19%的電量,圖像識(shí)別速度可達(dá)到約2000張/分鐘。

相比之下,三星S8使用CPU處理每分鐘僅95張,蘋果iPhone 7 Plus同時(shí)使用CPU和GPU,每分鐘也僅能識(shí)別487張,華為完勝。

簡(jiǎn)而言之,麒麟970有了NPU單元之后,至少在拍照和圖像處理上,比之前單純依賴CPU和GPU要快得多。而對(duì)于競(jìng)爭(zhēng)對(duì)手,麒麟970最直接的就是保持高效率,并且更加的省電。未來(lái)AI獨(dú)立單元內(nèi)置于芯片一定是趨勢(shì),蘋果也在做,只是華為搶先開了個(gè)頭.

華為麒麟970的NPU(神經(jīng)網(wǎng)絡(luò)處理器)到底是什么鬼

日前,美國(guó)知名科技媒體Android Authority主筆Gary Sims對(duì)麒麟970進(jìn)行了深度解讀,講述了麒麟970的人工智能NPU的工作原理,對(duì)芯片設(shè)計(jì)的深遠(yuǎn)影響,以及為用戶使用場(chǎng)景帶來(lái)的跨越式體驗(yàn)。

“神經(jīng)網(wǎng)絡(luò)(Neural Networks)”和“機(jī)器學(xué)習(xí)(Machine Learning)”是近兩年移動(dòng)處理器領(lǐng)域最流行的兩個(gè)詞。華為麒麟970的NPU(神經(jīng)網(wǎng)絡(luò)處理器)、Google Pixel 2內(nèi)置的IPU(圖像處理器),以及蘋果A11 Bionic,都是實(shí)現(xiàn)上述功能特性的專用硬件解決方案。

既然華為、Google和蘋果都在都在探索神經(jīng)引擎處理器,你可能以為機(jī)器學(xué)習(xí)需要特定的硬件。其實(shí)不然,神經(jīng)網(wǎng)絡(luò)可以在任何形式的處理器上運(yùn)行,從微處理器到CPU、GPU甚至是DSP。

所以,問(wèn)題的根本不在于處理器是否能利用神經(jīng)神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí),而在于它到底有多快,能提升多少效率。

如果時(shí)間倒退回30年前,當(dāng)年的桌面處理器是沒(méi)有的FPU(浮點(diǎn)運(yùn)算單元)芯片的,在486之后,Intel把FPU集成到了CPU內(nèi)部,浮點(diǎn)運(yùn)算性能大幅提升。而在很多實(shí)例計(jì)算中,全都是浮點(diǎn)數(shù)運(yùn)算。這樣以來(lái),有FPU和沒(méi)有FPU,運(yùn)算效率天差之別。

而如今,移動(dòng)處理器中的NPU也是類似的情況。你可能覺(jué)得我們并不需要NPU,就能使用神經(jīng)網(wǎng)絡(luò),但實(shí)時(shí)情況是,華為正在用事實(shí)案例證明,當(dāng)遇到實(shí)時(shí)處理運(yùn)算的情況,NPU是必須的。

簡(jiǎn)單來(lái)說(shuō),“神經(jīng)網(wǎng)絡(luò)”可以理解為“機(jī)器學(xué)習(xí)”中“教”一臺(tái)機(jī)器區(qū)別分辨不同“事物”的一系列技術(shù)中的一種。上述“事物”可以是一張照片、一個(gè)單詞甚至是一種動(dòng)物的聲音,諸如此類。

“神經(jīng)網(wǎng)絡(luò)”由很多“神經(jīng)元”組成,這些“神經(jīng)元”可以接收輸入信號(hào),然后通過(guò)網(wǎng)絡(luò)再向外傳播信號(hào),這取決于輸入的強(qiáng)度和自身閾值。

舉個(gè)簡(jiǎn)單的例子,神經(jīng)網(wǎng)絡(luò)正在監(jiān)測(cè)一組燈其中一個(gè)的開關(guān),但在網(wǎng)絡(luò)中,這些燈的狀態(tài)只能0或者1來(lái)表達(dá),但不同的燈可能會(huì)出現(xiàn)一樣的開關(guān)狀態(tài)。

那么問(wèn)題來(lái)了,神經(jīng)網(wǎng)絡(luò)怎么知道是該輸出0還是該輸出1呢?沒(méi)有規(guī)則或者程序能告訴神經(jīng)網(wǎng)絡(luò),輸出我們想得到的邏輯答案。

唯一的方面就是對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。大量的“樣本”和預(yù)期結(jié)果一起被注入到神經(jīng)網(wǎng)絡(luò)中,各種各樣的閾值反復(fù)微調(diào),不斷產(chǎn)生接近預(yù)期的結(jié)果。這個(gè)階段可以稱為“訓(xùn)練階段”。

這聽起來(lái)很簡(jiǎn)單,但實(shí)際上相當(dāng)復(fù)雜,尤其是遇到語(yǔ)言、圖像這種復(fù)雜樣本的時(shí)候。一旦訓(xùn)練達(dá)成,神經(jīng)網(wǎng)絡(luò)會(huì)自動(dòng)學(xué)會(huì)輸出預(yù)期結(jié)果,即便輸入的“樣本”之前從來(lái)沒(méi)有見(jiàn)過(guò)。

神經(jīng)網(wǎng)絡(luò)訓(xùn)練成功后,本質(zhì)上就成了一種靜態(tài)神經(jīng)網(wǎng)絡(luò)模型,它就能應(yīng)用在數(shù)以百萬(wàn)計(jì)的設(shè)備上用于推理,在CPU、GPU甚至是DSP上運(yùn)行。這個(gè)階段可以稱為“推理階段”。

Gary Sims指出,“推理階段”的難度要低于“訓(xùn)練階段”,而這正是NPU發(fā)揮專長(zhǎng)的地方。

所以,華為麒麟970最大的不同是,專門設(shè)置了NPU硬件芯片,它在處理靜態(tài)神經(jīng)網(wǎng)絡(luò)模型方面有得天獨(dú)厚的優(yōu)勢(shì),不僅更快,還更有效率。事實(shí)上,NPU甚至能以17-33fps實(shí)時(shí)處理智能手機(jī)攝像頭拍攝的“直播”視頻。

從架構(gòu)來(lái)看,麒麟970像是一臺(tái)“發(fā)電站”,內(nèi)置8顆CPU和12顆GPU,另有移動(dòng)網(wǎng)絡(luò)連接以及多媒體處理模塊,晶體管規(guī)模達(dá)到了史無(wú)前例的55億顆。據(jù)華為透露,NPU大約內(nèi)含1.5億晶體管,不到整個(gè)芯片的3%。

這對(duì)于一款移動(dòng)處理器來(lái)說(shuō)尤為重要。首先,NPU的加入不會(huì)明顯增大處理器的尺寸、成本,這就意味著,NPU不僅能放入旗艦手機(jī),一些中端手機(jī)也能適用。在未來(lái)5年,NPU將對(duì)Soc設(shè)計(jì)產(chǎn)生深遠(yuǎn)影響。

其次是功耗和效率。NPU并非“電老虎”會(huì)犧牲手機(jī)的續(xù)航,相反它能高效的幫CPU承擔(dān)大量推理運(yùn)算的任務(wù),反而能節(jié)省不少功耗。

在最后的總結(jié)中,Gary Sims表示,如果華為能吸引更多第三方App開發(fā)者使用NPU,其前景不可限量。想象一下,當(dāng)App在使用圖像、聲音、語(yǔ)音識(shí)別的時(shí)候,全部都能本地處理,不再需要網(wǎng)絡(luò)連接或者云服務(wù),App的使用體驗(yàn)將大大提升和加強(qiáng)。

試想,一名游客直接通過(guò)相機(jī)App就能認(rèn)出當(dāng)?shù)氐貥?biāo),App能智能識(shí)別你的食物并給出相應(yīng)的卡路里熟知、提醒食物過(guò)敏......

你認(rèn)為,NPU會(huì)像當(dāng)年FPU之于CPU一樣,成為移動(dòng)Soc芯片的標(biāo)準(zhǔn)嗎?不妨在評(píng)論中發(fā)表自己的看法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:外媒:終于看懂Kirin 970的NPU

文章出處:【微信號(hào):mcuworld,微信公眾號(hào):嵌入式資訊精選】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過(guò) read
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    神經(jīng)元,但卻能產(chǎn)生復(fù)雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,LNN旨在通過(guò)模擬大腦中神經(jīng)元之間的動(dòng)態(tài)連接來(lái)處理信息,這種網(wǎng)絡(luò)能夠順序
    的頭像 發(fā)表于 09-28 10:03 ?353次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過(guò)權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) : CNN主要由卷積層、池化層和全連接層組成。
    的頭像 發(fā)表于 02-12 15:53 ?1062次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過(guò)逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的
    的頭像 發(fā)表于 02-12 15:15 ?1195次閱讀

    NPU是如何發(fā)展起來(lái)的?性能受哪些因素影響?

    (電子發(fā)燒友網(wǎng)綜合報(bào)道) NPU是一種專門用于加速神經(jīng)網(wǎng)絡(luò)計(jì)算的硬件處理器。隨著人工智能和深度學(xué)習(xí)技術(shù)的快速發(fā)展,傳統(tǒng)的CPU和GPU在處理復(fù)雜的
    的頭像 發(fā)表于 02-05 07:50 ?3248次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1817次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語(yǔ)音處理等領(lǐng)域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?1068次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?2261次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1811次閱讀

    NPU與傳統(tǒng)處理器的區(qū)別是什么

    隨著人工智能技術(shù)的快速發(fā)展,深度學(xué)習(xí)成為了推動(dòng)這一進(jìn)步的核心動(dòng)力。深度學(xué)習(xí)模型,尤其是神經(jīng)網(wǎng)絡(luò),需要大量的并行計(jì)算能力來(lái)訓(xùn)練和推理。為了滿足這一需求,NPU神經(jīng)處理單元)應(yīng)運(yùn)而生,與
    的頭像 發(fā)表于 11-15 09:29 ?2029次閱讀

    NPU在邊緣計(jì)算中的優(yōu)勢(shì)

    隨著物聯(lián)網(wǎng)(IoT)和5G技術(shù)的發(fā)展,邊緣計(jì)算作為一種新興的計(jì)算模式,正在逐漸成為處理和分析數(shù)據(jù)的重要手段。 NPU的定義與功能 NPU是一種專門為深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)運(yùn)算設(shè)計(jì)的
    的頭像 發(fā)表于 11-15 09:13 ?1574次閱讀

    什么是NPU芯片及其功能

    在人工智能(AI)技術(shù)迅猛發(fā)展的今天,NPU芯片已經(jīng)成為推動(dòng)這一領(lǐng)域進(jìn)步的關(guān)鍵技術(shù)之一。NPU芯片,即神經(jīng)網(wǎng)絡(luò)處理單元,是一種專門為深度學(xué)習(xí)算法設(shè)計(jì)的硬件加速
    的頭像 發(fā)表于 11-14 15:48 ?6595次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長(zhǎng)期依賴問(wèn)題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)
    的頭像 發(fā)表于 11-13 10:05 ?2008次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解決這一問(wèn)題,LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)
    的頭像 發(fā)表于 11-13 09:58 ?1543次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語(yǔ)言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長(zhǎng)期依
    的頭像 發(fā)表于 11-13 09:53 ?2282次閱讀