chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

華為麒麟970的NPU(神經網絡處理器)到底是什么鬼

5RJg_mcuworld ? 2018-02-12 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

所謂的HiAI移動計算架構,主要有四部分組成,CPU、GPU、ISP/DSP和NPU。作為全球第一枚集成專用NPU的移動芯片,華為重點介紹NPU神經網絡單元,聲稱在HiAI架構下AI性能密度大幅優(yōu)于CPU和GPU,能夠用更少的能耗更快的完成更多任務,大幅提升芯片的運算效率。

AI芯片能夠以人類的思考方式來理解人類訴求,具備高處理速度,高密度和高能效比,而麒麟970只是個開始,并超越競爭對手。

CPU部分,麒麟970與上一代麒麟960一樣為八核心設計,由4個主頻為2.4GHz的Cortex-A73大內核與4個主頻1.8GHz的Cortex-A53內核組成,性能上無變化,畢竟同樣架構頻率,傳聞所說的2.8GHz主頻吊打驍龍835并沒能實現,但跑分上追平驍龍835應該沒問題,并且得益于10納米工藝的進步能效提升20%。

更具體來說,在16位浮點數(即FP16)時,麒麟970內置的NPU運算能力達到1.92 TFLOPs,在AI人工智能深度學習下,所有硬件能夠協(xié)調芯片內部的各個組件及手機硬件,如ISP、DSP,保持處理某些特定任務時,提升速度并低功耗運作。例如有了NPU的加成,在圖像識別任務上,對比Cortex-A73 CPU 性能提升25倍,能效提升50倍之多,拍攝1000張照片僅僅消耗4000mAh電池手機0.19%的電量,圖像識別速度可達到約2000張/分鐘。

相比之下,三星S8使用CPU處理每分鐘僅95張,蘋果iPhone 7 Plus同時使用CPU和GPU,每分鐘也僅能識別487張,華為完勝。

簡而言之,麒麟970有了NPU單元之后,至少在拍照和圖像處理上,比之前單純依賴CPU和GPU要快得多。而對于競爭對手,麒麟970最直接的就是保持高效率,并且更加的省電。未來AI獨立單元內置于芯片一定是趨勢,蘋果也在做,只是華為搶先開了個頭.

華為麒麟970的NPU(神經網絡處理器)到底是什么鬼

日前,美國知名科技媒體Android Authority主筆Gary Sims對麒麟970進行了深度解讀,講述了麒麟970的人工智能NPU的工作原理,對芯片設計的深遠影響,以及為用戶使用場景帶來的跨越式體驗。

“神經網絡(Neural Networks)”和“機器學習(Machine Learning)”是近兩年移動處理器領域最流行的兩個詞。華為麒麟970的NPU(神經網絡處理器)、Google Pixel 2內置的IPU(圖像處理器),以及蘋果A11 Bionic,都是實現上述功能特性的專用硬件解決方案。

既然華為、Google和蘋果都在都在探索神經引擎處理器,你可能以為機器學習需要特定的硬件。其實不然,神經網絡可以在任何形式的處理器上運行,從微處理器到CPU、GPU甚至是DSP。

所以,問題的根本不在于處理器是否能利用神經神經網絡和機器學習,而在于它到底有多快,能提升多少效率。

如果時間倒退回30年前,當年的桌面處理器是沒有的FPU(浮點運算單元)芯片的,在486之后,Intel把FPU集成到了CPU內部,浮點運算性能大幅提升。而在很多實例計算中,全都是浮點數運算。這樣以來,有FPU和沒有FPU,運算效率天差之別。

而如今,移動處理器中的NPU也是類似的情況。你可能覺得我們并不需要NPU,就能使用神經網絡,但實時情況是,華為正在用事實案例證明,當遇到實時處理運算的情況,NPU是必須的。

簡單來說,“神經網絡”可以理解為“機器學習”中“教”一臺機器區(qū)別分辨不同“事物”的一系列技術中的一種。上述“事物”可以是一張照片、一個單詞甚至是一種動物的聲音,諸如此類。

“神經網絡”由很多“神經元”組成,這些“神經元”可以接收輸入信號,然后通過網絡再向外傳播信號,這取決于輸入的強度和自身閾值。

舉個簡單的例子,神經網絡正在監(jiān)測一組燈其中一個的開關,但在網絡中,這些燈的狀態(tài)只能0或者1來表達,但不同的燈可能會出現一樣的開關狀態(tài)。

那么問題來了,神經網絡怎么知道是該輸出0還是該輸出1呢?沒有規(guī)則或者程序能告訴神經網絡,輸出我們想得到的邏輯答案。

唯一的方面就是對神經網絡進行訓練。大量的“樣本”和預期結果一起被注入到神經網絡中,各種各樣的閾值反復微調,不斷產生接近預期的結果。這個階段可以稱為“訓練階段”。

這聽起來很簡單,但實際上相當復雜,尤其是遇到語言、圖像這種復雜樣本的時候。一旦訓練達成,神經網絡會自動學會輸出預期結果,即便輸入的“樣本”之前從來沒有見過。

神經網絡訓練成功后,本質上就成了一種靜態(tài)神經網絡模型,它就能應用在數以百萬計的設備上用于推理,在CPU、GPU甚至是DSP上運行。這個階段可以稱為“推理階段”。

Gary Sims指出,“推理階段”的難度要低于“訓練階段”,而這正是NPU發(fā)揮專長的地方。

所以,華為麒麟970最大的不同是,專門設置了NPU硬件芯片,它在處理靜態(tài)神經網絡模型方面有得天獨厚的優(yōu)勢,不僅更快,還更有效率。事實上,NPU甚至能以17-33fps實時處理智能手機攝像頭拍攝的“直播”視頻。

從架構來看,麒麟970像是一臺“發(fā)電站”,內置8顆CPU和12顆GPU,另有移動網絡連接以及多媒體處理模塊,晶體管規(guī)模達到了史無前例的55億顆。據華為透露,NPU大約內含1.5億晶體管,不到整個芯片的3%。

這對于一款移動處理器來說尤為重要。首先,NPU的加入不會明顯增大處理器的尺寸、成本,這就意味著,NPU不僅能放入旗艦手機,一些中端手機也能適用。在未來5年,NPU將對Soc設計產生深遠影響。

其次是功耗和效率。NPU并非“電老虎”會犧牲手機的續(xù)航,相反它能高效的幫CPU承擔大量推理運算的任務,反而能節(jié)省不少功耗。

在最后的總結中,Gary Sims表示,如果華為能吸引更多第三方App開發(fā)者使用NPU,其前景不可限量。想象一下,當App在使用圖像、聲音、語音識別的時候,全部都能本地處理,不再需要網絡連接或者云服務,App的使用體驗將大大提升和加強。

試想,一名游客直接通過相機App就能認出當地地標,App能智能識別你的食物并給出相應的卡路里熟知、提醒食物過敏......

你認為,NPU會像當年FPU之于CPU一樣,成為移動Soc芯片的標準嗎?不妨在評論中發(fā)表自己的看法。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4827

    瀏覽量

    106803
  • 機器學習
    +關注

    關注

    66

    文章

    8541

    瀏覽量

    136236
  • 麒麟970
    +關注

    關注

    10

    文章

    264

    瀏覽量

    64052

原文標題:外媒:終于看懂Kirin 970的NPU

文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NMSIS神經網絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經網絡內核,旨在最大限度地提高 Nuclei N 處理器內核上的神經網絡的性能并最??大限度地減少其內存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數字識別的神經網絡
    發(fā)表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    在完成神經網絡量化后,需要將神經網絡部署到硬件加速上。首先需要將所有權重數據以及輸入數據導入到存儲內。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 read
    發(fā)表于 10-20 08:00

    液態(tài)神經網絡(LNN):時間連續(xù)性與動態(tài)適應性的神經網絡

    神經元,但卻能產生復雜的行為。受此啟發(fā),與傳統(tǒng)的神經網絡相比,LNN旨在通過模擬大腦中神經元之間的動態(tài)連接來處理信息,這種網絡能夠順序
    的頭像 發(fā)表于 09-28 10:03 ?707次閱讀
    液態(tài)<b class='flag-5'>神經網絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經網絡</b>

    神經網絡的并行計算與加速技術

    問題。因此,并行計算與加速技術在神經網絡研究和應用中變得至關重要,它們能夠顯著提升神經網絡的性能和效率,滿足實際應用中對快速響應和大規(guī)模數據處理的需求。神經網絡并行
    的頭像 發(fā)表于 09-17 13:31 ?888次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    【「芯片通識課:一本書讀懂芯片技術」閱讀體驗】從deepseek看今天芯片發(fā)展

    的: 神經網絡處理器NPU)是一種模仿人腦神經網絡的電路系統(tǒng),是實現人工智能中神經網絡計算的專用處理器
    發(fā)表于 04-02 17:25

    BP神經網絡與卷積神經網絡的比較

    多層。 每一層都由若干個神經元構成,神經元之間通過權重連接。信號在神經網絡中是前向傳播的,而誤差是反向傳播的。 卷積神經網絡(CNN) : CNN主要由卷積層、池化層和全連接層組成。
    的頭像 發(fā)表于 02-12 15:53 ?1316次閱讀

    BP神經網絡的優(yōu)缺點分析

    BP神經網絡(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經網絡優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?1596次閱讀

    什么是BP神經網絡的反向傳播算法

    BP神經網絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經網絡的有效方法。以下是關于BP神經網絡的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?1282次閱讀

    BP神經網絡與深度學習的關系

    ),是一種多層前饋神經網絡,它通過反向傳播算法進行訓練。BP神經網絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調整網絡權重,目的是最小化網絡的輸出誤差。 二、深度學習的
    的頭像 發(fā)表于 02-12 15:15 ?1351次閱讀

    BP神經網絡的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負責接收外部輸入數據,這些數據隨后被傳遞到隱藏層。隱藏層是BP神經網絡的核心部分,它可以通過一層或多層神經元對輸入數據進行加權求和,并通過非線性激活函數(如ReLU、sigmoid或tanh)進行
    的頭像 發(fā)表于 02-12 15:13 ?1528次閱讀

    BP神經網絡在圖像識別中的應用

    BP神經網絡在圖像識別中發(fā)揮著重要作用,其多層結構使得網絡能夠學習到復雜的特征表達,適用于處理非線性問題。以下是對BP神經網絡在圖像識別中應用的分析: 一、BP
    的頭像 發(fā)表于 02-12 15:12 ?1191次閱讀

    NPU是如何發(fā)展起來的?性能受哪些因素影響?

    (電子發(fā)燒友網綜合報道) NPU是一種專門用于加速神經網絡計算的硬件處理器。隨著人工智能和深度學習技術的快速發(fā)展,傳統(tǒng)的CPU和GPU在處理復雜的
    的頭像 發(fā)表于 02-05 07:50 ?3503次閱讀

    深度學習入門:簡單神經網絡的構建與實現

    深度學習中,神經網絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經網絡。 神經網絡由多個神經元組成,神經元之間通過
    的頭像 發(fā)表于 01-23 13:52 ?847次閱讀

    人工神經網絡的原理和多種神經網絡架構方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經網絡的原理和多種神經網絡架構方法,供各位老師選擇。 01 人工神經網絡 ? 人工神經網絡模型之所
    的頭像 發(fā)表于 01-09 10:24 ?2258次閱讀
    人工<b class='flag-5'>神經網絡</b>的原理和多種<b class='flag-5'>神經網絡</b>架構方法