chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google的深度學(xué)習(xí)框架TensorFlow的優(yōu)勢分析

wFVr_Hardware_1 ? 來源:硬十AI ? 作者:硬十AI ? 2022-11-21 10:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1、Scalar、Vector、Marix、Tensor,點線面體一個都不少

我們先從點線面體的視角形象理解一下。點,標(biāo)量(scalar);線,向量(vector);面,矩陣(matrix);體,張量(tensor)。我們再詳細(xì)看一下他們的定義

Scalar定義:標(biāo)量是只有大小、沒有方向的“量”。一個具體的數(shù)值就能表征,如重量、溫度、長度等。

Vector定義:向量是即有大小、又有方向的“量”。由大小和方向共同決定,如力、速度等。

Matrix定義:矩陣是一個“按照長方陣列排列”的數(shù)組,而行數(shù)與列數(shù)都等于N的矩陣稱為N階矩陣,在卷積核中我們常用3x3或5x5矩陣。

Tensor定義:張量是一個“維度很多”的數(shù)組,它創(chuàng)造出了更高維度的矩陣、向量,在深度學(xué)習(xí)知識域的術(shù)語中張量也可解釋為數(shù)學(xué)意義的標(biāo)量、向量和矩陣等的抽象。即標(biāo)量定義為0級張量,向量定義為1級張量,矩陣定義為2級張量,將在三維堆疊的矩陣定義為3級張量,參考下圖。

621a5aee-68dd-11ed-8abf-dac502259ad0.png

2、深度學(xué)習(xí)依賴Tensor運算,GPU解決了算力瓶頸(1)卷積網(wǎng)絡(luò)神經(jīng)中有海量的矩陣運算,包括矩陣乘法和矩陣加法 參考機器學(xué)習(xí)中的函數(shù)(4) - 全連接限制發(fā)展,卷積網(wǎng)絡(luò)閃亮登場卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為是實現(xiàn)深度學(xué)習(xí)的重要方法之一,整個網(wǎng)絡(luò)第一步就是應(yīng)用卷積進行特征提取,通過幾輪反復(fù)后獲得優(yōu)質(zhì)數(shù)據(jù),達成改善數(shù)據(jù)品質(zhì)的目標(biāo),我們一起復(fù)習(xí)一下卷積層工作的這兩個關(guān)鍵步驟。

首先,進行圖像轉(zhuǎn)換:先把我們眼中的“圖像”變成計算機眼中的“圖像”。

625cb592-68dd-11ed-8abf-dac502259ad0.png

下一步,選擇一個卷積核進行“濾波”:假設(shè)以一個2×2的小型矩陣作為卷積核,這樣的矩陣也被稱為“濾波器”。如果把卷積核分別應(yīng)用到輸入的圖像數(shù)據(jù)矩陣上(如上圖計算機眼中的貓),執(zhí)行卷積運算得到這個圖像的特征圖譜(Feature Map)。從下圖體現(xiàn)看到,圖像的特性提取本質(zhì)上就是一個線性運算,這樣的卷積操作也被稱為線性濾波。

628d5724-68dd-11ed-8abf-dac502259ad0.png

2012年,辛頓(Hinton)和他的博士生(Alex Krizhevsky)等提出了經(jīng)典的Alexnet,它強化了典型CNN的架構(gòu),這個網(wǎng)絡(luò)中卷積層更深更寬,通過大量的”卷積層->激活層->池化層”的執(zhí)行過程提純數(shù)據(jù),因此在這個網(wǎng)絡(luò)中有海量的矩陣運算,包括矩陣乘法和矩陣加法。

62a4b34c-68dd-11ed-8abf-dac502259ad0.png

(2)應(yīng)用GPU解決算力瓶頸,Tensor是最基礎(chǔ)的運算單元

Alexnet之所以是經(jīng)典中的經(jīng)典,除了它強化了典型CNN的架構(gòu)外,還有其它創(chuàng)新點,如首次在CNN中應(yīng)用了ReLU激活函數(shù)、Dropout機制,最大池化(Max pooling)等技術(shù)等。還有一點特別重要,Alexnet成功使用GPU加速訓(xùn)練過程(還開源了CUDA代碼),上世紀(jì)90年代限制Yann LeCun等人工智能科學(xué)家的計算機硬件“算力瓶頸”被逐步打開。

深度學(xué)習(xí)為什么需要GPU呢?因為只有GPU能夠提供“暴力計算”能力,降低訓(xùn)練時間。大家都知道,GPU處理器擁有豐富的計算單元ALU,它相對于CPU處理器架構(gòu)的優(yōu)勢就在于能執(zhí)行“并行運算”,參考下圖中的一個簡單的矩陣乘法就是矩陣某一行的每一個數(shù)字,分別和向量的每一個數(shù)字相乘之后再相加,這就是并行運算。

62b4497e-68dd-11ed-8abf-dac502259ad0.png

而如剛才討論的深度學(xué)習(xí)中的運算大部分都是矩陣運算,讓計算從“單個的”變成“批處理的”,充分利用GPU的資源。而Tensor是專門針對GPU來設(shè)計的,Tensor作為一個可以運行在GPU上的多維數(shù)據(jù),加速運算速度,提升運算效率。參考深度學(xué)習(xí)靠框架,期待國產(chǎn)展雄風(fēng)中的討論,在一個框架中,必須有“張量對象”和“對張量的計算”作基礎(chǔ),TensorFlow、PyTorch等等主流框架中,張量Tensor都是最基礎(chǔ)的運算單元。

3、提升Tensor效率,大家各顯神通 現(xiàn)在主要的GPU廠家為了能夠提高芯片在AI、HPC等應(yīng)用場景下的加速能力,都在芯片計算單元的設(shè)計上花大力氣,不斷創(chuàng)新優(yōu)化。比如AMD的CDNA架構(gòu)中計算是通過Compute Unit來實現(xiàn)的,在Compute unit中就有Scalar、Vector、Matrix等不同的計算功能模塊,針對不同的計算需求各司其職。Nvidia的計算是通過SM來實現(xiàn)的,SM中計算從Cuda Core發(fā)展到Tensor Core,針對Tensor的計算效率越來越高,到今年三月份發(fā)布的H100系列中,Tensor Core已經(jīng)發(fā)展到了第四代。而Google干脆就把自己的芯片定義為TPU(Tensor processing Unit),充分發(fā)揮Tensor加速能力,其中主要的模塊就是海量的矩陣乘法單元。(1)英偉達的Tensor Core 今年3月份黃教主穿著皮衣發(fā)布了H100(Hopper系列),Nvidia每一代GPU都是用一個大神的名字命名,這個系列是向Grace Hopper致敬,她被譽為計算機軟件工程***、編譯語言COBOL之母。她也被譽為是計算機史上第一個發(fā)現(xiàn)Bug的人,有這樣一個故事,1947年9月9日當(dāng)人們測試Mark II計算機時,它突然發(fā)生了故障。經(jīng)過幾個小時的檢查后,工作人員發(fā)現(xiàn)了一只飛蛾被打死在面板F的第70號繼電器中,飛蛾取出后,機器便恢復(fù)了正常。當(dāng)時為Mark II計算機工作的女計算機科學(xué)家Hopper將這只飛蛾粘帖到當(dāng)天的工作手冊中,并在上面加了一行注釋,時間是15:45。隨著這個故事傳開,更多的人開始使用Bug一詞來指代計算機中的設(shè)計錯誤,而Hopper登記的那只飛蛾看作是計算機里上第一個被記錄在文檔中的Bug,以后debug(除蟲)變成了排除故障的計算機術(shù)語。

62eef60a-68dd-11ed-8abf-dac502259ad0.png

讓我們回到英偉達GPU的計算單元設(shè)計,Nvidia的9代GPU中計算單元架構(gòu)演進過程如下,Tesla2.0(初代)-> Fermi(Cuda core提升算力)-> Kepler(core數(shù)量大量增長)-> Maxwell(Cuda core結(jié)構(gòu)優(yōu)化)-> Pascal(算力提升)-> Volta(第一代Tensor core提出,優(yōu)化對深度學(xué)習(xí)的能力) -> Turning(第二代Tensor core)-> Ampere(第三代Tensor core)-> Hopper(第四代Tensor core),其中從Volta開始,每一代Tensor Core的升級都能帶來算力X倍的提升。Tensor core專門為深度學(xué)習(xí)矩陣運算設(shè)計,和前幾代的“全能型”的浮點運算單元CUDA core相比,Tensor core運算場景更有針對性,算力能力更強,下圖就是NV一個計算單元SM中各種模塊的組成,各種類型的計算模塊配置齊全。

632f709a-68dd-11ed-8abf-dac502259ad0.png

再詳細(xì)討論一下Tensor Core,Tensor Core是專為執(zhí)行張量或矩陣運算而設(shè)計的專用執(zhí)行單元,每個時鐘執(zhí)行一次矩陣乘法,包含批次的混合精度乘法操作(區(qū)別于Cuda core每個時鐘執(zhí)行單次混合精度的乘加操作),矩陣乘法(GEMM)運算是神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推理的核心,Tenore Core更加高效。參考下圖(藍(lán)色和紫色為輸入,綠色是計算結(jié)果,中心的灰色部分就是計算單元),第一代Tencor Core加入Votal后,以4x4 矩陣乘法運算時為例,參考英偉達白皮書上的數(shù)據(jù),優(yōu)化后與前一代的Pascal相比,用于訓(xùn)練的算力峰值提升了 12 倍,用于推理的算力峰值提升了6 倍。

63516970-68dd-11ed-8abf-dac502259ad0.png

(2)Google的TPU

2013年,Google意識到數(shù)據(jù)中心快速增長的算力需求方向,從神經(jīng)網(wǎng)絡(luò)興起開始矩陣乘加成為重要的計算loading,同時商用GPU很貴,也為了降低成本,Google選擇了擼起袖子自己干,定制了Tensor Processing Unit(TPU)專用芯片,發(fā)展到現(xiàn)在已經(jīng)經(jīng)歷了4代了。

TPU V1:2014年推出,主要用于推理,第一代TPU指令很少,能夠支持矩陣乘法(MatrixMultiple / Convole) 和特定的激活功能(activation)。

TPU V2:2017年推出,可用于訓(xùn)練,這一代芯片指令集豐富了;提升計算能力,可以支持反向傳播了;內(nèi)存應(yīng)用了高帶寬的HBM;針對集群方案提供了芯片擴展能力。

TPU V3:2018年推出,在V2的結(jié)構(gòu)上進一步優(yōu)化,對各個功能模塊的性能都做了提升。

TPU V4:2022年推出,算力繼續(xù)大幅度提升,尤其是集群能力不斷優(yōu)化后,TPU成為谷歌云平臺上很關(guān)鍵的一環(huán)。

相信Google會在Tensor processing unit的路徑上繼續(xù)加速,對于云大廠來說,這是業(yè)務(wù)底座。

4、只有硬件是不夠的,TensorFlow讓Tenor流動起來 我們看到了各個廠家在硬件上的不懈努力和快速進步,當(dāng)然,只有硬件是遠(yuǎn)遠(yuǎn)不夠的,一個好的Deep Learning Framework才能發(fā)揮這些硬件的能力,我們還是從最出名的框架TensorFlow說起。

2011年,Google公司開發(fā)了它的第一代分布式機器學(xué)習(xí)系統(tǒng)DistBelief。著名計算機科學(xué)家杰夫·迪恩(Jeff Dean)和深度學(xué)習(xí)專家吳恩達(Andrew )都是這個項目的成員。通過杰夫·迪恩等人設(shè)計的DistBelief,Google可利用它自己數(shù)據(jù)中心數(shù)以萬計的CPU核,建立深度神經(jīng)網(wǎng)絡(luò)。借助DistBelief,Google的語音識別正確率比之前提升了25%。除此之外,DistBelief在圖像識別上也大顯神威。2012年6月,《紐約時報》報道了Google通過向DistBelief提供數(shù)百萬份YouTube視頻,來讓該系統(tǒng)學(xué)習(xí)貓的關(guān)鍵特征,DistBelief展示了他的自學(xué)習(xí)能力。DistBelief作為谷歌X-實驗室的“黑科技”開始是是閉源的,Google在2015年11月,Google將它的升級版實現(xiàn)正式開源(遵循Apache 2.0)。而這個升級版的DistBelief,也有了一個我們熟悉的名字,它就是未來深度學(xué)習(xí)框架的主角“TensorFlow”。

TensorFlow命名源于其運行原理,即“讓張量(Tensor)流動起來(Flow)”,這是深度學(xué)習(xí)處理數(shù)據(jù)的核心特征。TensorFlow顯示了張量從數(shù)據(jù)流圖的一端流動到另一端的整個計算過程,生動形象地描述了復(fù)雜數(shù)據(jù)結(jié)構(gòu)在人工神經(jīng)網(wǎng)絡(luò)中的流動、傳輸、分析和處理模式。

636b68fc-68dd-11ed-8abf-dac502259ad0.png

Google的深度學(xué)習(xí)框架TensorFlow的有三大優(yōu)點

形象直觀:TensorFlow有一個非常直觀的構(gòu)架,它有一個“張量流”,用戶可以借助它的工具(如TensorBoard)很容易地、可視化地看到張量流動的每一個環(huán)節(jié)。

部署簡單:TensorFlow可輕松地在各種處理器上部署,進行分布式計算,為大數(shù)據(jù)分析提供計算能力的支撐。

平臺兼容:TensorFlow跨平臺性好,不僅可在Linux、Mac和Windows系統(tǒng)中運行,還可在移動終端下工作。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1801

    瀏覽量

    60272
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5591

    瀏覽量

    123914

原文標(biāo)題:【AI】深度學(xué)習(xí)框架(1)

文章出處:【微信號:Hardware_10W,微信公眾號:硬件十萬個為什么】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    累計5000+分鐘內(nèi)容 二、課程優(yōu)勢 技術(shù)壁壘構(gòu)建: 形成\"視覺算法+運動控制+深度學(xué)習(xí)\"的復(fù)合技術(shù)棧,建立差異化競爭優(yōu)勢 項目落地能力: 掌握從需求
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)可(11大系列課程,共5000+分鐘)

    領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成一直是行業(yè)痛點。課程提供獨家開發(fā)的labview調(diào)用框架,實現(xiàn)從模型訓(xùn)練(Python)到部署(LabVIEW)的無縫銜接,已成功應(yīng)用于DIP、AOI
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    檢測應(yīng)用 微細(xì)缺陷識別:檢測肉眼難以發(fā)現(xiàn)的微小缺陷和異常 紋理分析:對材料表面紋理進行智能分析和缺陷識別 3D表面重建:通過深度學(xué)習(xí)進行高精度3D建模和檢測 電子行業(yè)應(yīng)用 PCB板復(fù)雜
    的頭像 發(fā)表于 11-27 10:19 ?56次閱讀

    人工智能AI必備的5款開源軟件推薦!

    開發(fā)領(lǐng)域里幾乎“人手必備”的軟件——它們不僅讓學(xué)習(xí)更輕松,也讓產(chǎn)品更快落地。 一、TensorFlow深度學(xué)習(xí)界的“老將” 提起智能算法的訓(xùn)練框架
    的頭像 發(fā)表于 11-19 15:35 ?155次閱讀
    人工智能AI必備的5款開源軟件推薦!

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實施路徑三個維度展開分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?762次閱讀

    Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    Nordic Semiconductor 于 2025 年收購了 Neuton.AI,這是一家專注于超小型機器學(xué)習(xí)(TinyML)解決方案的公司。 Neuton 開發(fā)了一種獨特的神經(jīng)網(wǎng)絡(luò)框架,能夠
    發(fā)表于 06-28 14:18

    存儲示波器的存儲深度對信號分析有什么影響?

    存儲深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器在單次采集過程中能夠記錄的采樣點數(shù)量。存儲深度對信號分析的影響貫穿時域細(xì)節(jié)捕捉、頻域分析精度、觸發(fā)穩(wěn)定
    發(fā)表于 05-27 14:39

    百度飛槳框架3.0正式版發(fā)布

    大模型訓(xùn)練成本高?推理效率低?硬件適配難? 4月1日,百度發(fā)布 飛槳框架3.0正式版 !五大特性專為大模型設(shè)計。 作為大模型時代的Infra“基礎(chǔ)設(shè)施”,深度學(xué)習(xí)框架的重要性愈發(fā)凸顯,
    的頭像 發(fā)表于 04-02 19:03 ?1042次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1286次閱讀

    用樹莓派搞深度學(xué)習(xí)TensorFlow啟動!

    介紹本頁面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個專為深度學(xué)習(xí)開發(fā)的大型軟件庫,它消耗大量資源。您可
    的頭像 發(fā)表于 03-25 09:33 ?968次閱讀
    用樹莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?<b class='flag-5'>TensorFlow</b>啟動!

    靈汐科技開源類腦深度學(xué)習(xí)應(yīng)用開發(fā)平臺BIDL

    近年來,類腦計算作為人工智能領(lǐng)域的重要方向,以其低功耗、高效率、高容錯性等優(yōu)勢,展現(xiàn)出巨大的發(fā)展?jié)摿?。然而,類腦計算開發(fā)門檻高、與傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)(ANN)難以結(jié)合、缺乏高效易用的開源框架和豐
    的頭像 發(fā)表于 03-05 09:13 ?1492次閱讀
    靈汐科技開源類腦<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>應(yīng)用開發(fā)平臺BIDL

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?823次閱讀

    Triton編譯器的優(yōu)勢與劣勢分析

    Triton編譯器作為一種新興的深度學(xué)習(xí)編譯器,具有一系列顯著的優(yōu)勢,同時也存在一些潛在的劣勢。以下是對Triton編譯器優(yōu)勢與劣勢的分析
    的頭像 發(fā)表于 12-25 09:07 ?1874次閱讀

    Triton編譯器在機器學(xué)習(xí)中的應(yīng)用

    多種深度學(xué)習(xí)框架,如TensorFlow、PyTorch、ONNX等,使得開發(fā)者能夠輕松地將不同框架下訓(xùn)練的模型部署到GPU上。 2. Tr
    的頭像 發(fā)表于 12-24 18:13 ?1633次閱讀

    AUTOSAR通信框架優(yōu)勢 AUTOSAR通信實例與應(yīng)用場景

    AUTOSAR通信框架優(yōu)勢 AUTOSAR(AUTomotive Open System ARchitecture)是一個全球性的汽車軟件架構(gòu)合作伙伴計劃,旨在創(chuàng)建并建立一個開放的標(biāo)準(zhǔn)化軟件架構(gòu)
    的頭像 發(fā)表于 12-17 14:58 ?1720次閱讀