chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于馭勢通往深度學(xué)習(xí)之路的分析和介紹

VtWH_馭勢未 ? 來源:djl ? 2019-09-19 17:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI天團出道已久,成員都是集顏值和才華于一身的男紙,之前我們已經(jīng)見過其中三位了,壓軸出場的到底是誰?

更為重要的是,他會帶給我們關(guān)于人工智能的什么新鮮東東呢?

王宇航,博士畢業(yè)于中國科學(xué)院自動化研究所,現(xiàn)階段主要研究方向包括:深度學(xué)習(xí)、圖像語義分割、目標檢測、網(wǎng)絡(luò)模型壓縮與加速等。

宇航告訴我們,深度神經(jīng)網(wǎng)絡(luò)也可以是一個“Transformer”,它可以在使用時根據(jù)輸入數(shù)據(jù)動態(tài)地調(diào)整自己的結(jié)構(gòu)。至于為什么要設(shè)計這樣的網(wǎng)絡(luò)結(jié)構(gòu),宇航用“殺雞焉用牛刀”來形容它。

隨著近年來深度學(xué)習(xí)的快速發(fā)展,我們已經(jīng)能夠獲得越來越精確的模型實現(xiàn)對圖像目標的識別,而相應(yīng)地,模型的體積也在成倍地增長,這給模型的部署和應(yīng)用帶來了很大的麻煩。因此,很多學(xué)者一直致力于給深度神經(jīng)網(wǎng)絡(luò)模型“減重”,從而實現(xiàn)效果和速度的平衡。

其中的主要方法包括對模型和知識進行蒸餾,對模型進行剪枝,以及對模型參數(shù)進行分解和量化等等。這些方法都能夠提高模型中“有效計算”的密度,從而使模型變得更加高效。如果說這些方法是獲得了更加高效的“靜態(tài)”模型的話,另一類方法則采用“動態(tài)”的模型來提高應(yīng)用端的計算效率,它們針對不同的輸入數(shù)據(jù)動態(tài)地調(diào)整網(wǎng)絡(luò)的前向過程,去除不必要的計算,從而達到加速的目的。

首先,我們可以分析一下深度神經(jīng)網(wǎng)絡(luò)模型在訓(xùn)練和預(yù)測過程中的不同:在訓(xùn)練的過程中,我們要求模型對來自不同場景不同類別的目標都進行學(xué)習(xí)和辨別,以豐富其“知識儲備”,并因此不得不引入更多的神經(jīng)元和網(wǎng)絡(luò)連接。

而在預(yù)測階段,我們的需求往往集中于個體圖像的識別,而應(yīng)對這樣相對單一的場景和目標,往往不需要我們使出全部的“看家本領(lǐng)”,只需要使用一部分相關(guān)知識針對性地去解決就可以了。

對于深度神經(jīng)網(wǎng)絡(luò)模型,參數(shù),或者說神經(jīng)元之間的連接,就是它的“知識”,而針對不同的數(shù)據(jù)對網(wǎng)絡(luò)連接進行選擇, 就可以動態(tài)地調(diào)整網(wǎng)絡(luò)的計算過程,對于比較容易辨認的圖像進行較少的編碼和計算,而對于比較難以辨認的圖像進行較多的編碼和計算,從而提高網(wǎng)絡(luò)預(yù)測的整體效率。

本文介紹的這兩篇文章都是基于這樣的出發(fā)點,而它們的關(guān)注點又各自不同。

“Runtime” 一文主要關(guān)注于減少網(wǎng)絡(luò)中卷積層的channel數(shù)量,如下圖所示:

關(guān)于馭勢通往深度學(xué)習(xí)之路的分析和介紹

為了簡化模型,他們將網(wǎng)絡(luò)中每一個卷積層的卷積核分為k組,根據(jù)網(wǎng)絡(luò)各前層的輸出特征決定在本層中使用的卷積核數(shù)量m(1≤m≤k),并僅使用前m組卷積核參與運算,從而通過減小m來削減層與層之間的連接,達到channel pruning的效果。

而 “SkipNet”一文則主要關(guān)注網(wǎng)絡(luò)中l(wèi)ayer的數(shù)量,其主要思想如下圖所示:

關(guān)于馭勢通往深度學(xué)習(xí)之路的分析和介紹

他們?yōu)榫W(wǎng)絡(luò)中的每一個層(或每一組層)學(xué)習(xí)一個“門”,并基于網(wǎng)絡(luò)各前層的輸出特征進行判斷,是將前一層輸出的特征圖輸入本層進行計算還是直接越過本層將其送入后續(xù)網(wǎng)絡(luò),從而通過“skip”掉盡可能多的層來實現(xiàn)加速的目的。

從直觀上來講,這兩篇文章分別從動態(tài)削減模型的“寬度”和“深度”的角度,實現(xiàn)了對預(yù)測過程中網(wǎng)絡(luò)計算的約減。

那么如何實現(xiàn)對網(wǎng)絡(luò)連接方式的動態(tài)調(diào)整呢?

在網(wǎng)絡(luò)由淺至深的過程中,對于網(wǎng)絡(luò)中每一層連接方式的選擇(對于“Runtime” 一文是選擇該層使用的卷積核數(shù)量,而對于 “SkipNet”一文是選擇該層參與計算與否)可以看作一個序列決策過程,因此,這兩篇文章均選擇了強化學(xué)習(xí)的方式建模這一過程。將原始的主體CNN網(wǎng)絡(luò)作為“Environment”,學(xué)習(xí)一個額外的輕量的CNN或RNN網(wǎng)絡(luò)作為“Agent”來產(chǎn)生決策序列。其中,對于原CNN網(wǎng)絡(luò)每一層的決策,作為一個“Action”都將帶來相應(yīng)的“Reward”。

為了在最大限度地壓縮網(wǎng)絡(luò)計算的同時最大化網(wǎng)絡(luò)的分類精度,在構(gòu)建“Reward”函數(shù)的過程中,需要同時考慮兩個部分:1.對“Action”約減計算量的獎勵,即prune掉的channel越多或skip掉的layer越多,獲得獎勵越大;2.網(wǎng)絡(luò)最終的分類預(yù)測損失,即最終分類預(yù)測的log損失越小,獲得獎勵越大。由于這兩部分的梯度計算方式不同,因此在對模型目標函數(shù)進行優(yōu)化的過程中,會構(gòu)成一個“強化學(xué)習(xí)+監(jiān)督學(xué)習(xí)”的混合學(xué)習(xí)框架。

在具體的算法實現(xiàn)中,這兩篇文章對于“Reward”函數(shù)的設(shè)計和優(yōu)化策略的選擇各有不同。“Runtime”一文采取了交替更新的方式,而“SkipNet”一文則采用了混合優(yōu)化的方式,具體的細節(jié)我們就不在這里詳述了。

對于方法的效果,這兩篇文章都給出了嚴謹?shù)臄?shù)據(jù)對比和可視化結(jié)果分析,大家可以根據(jù)興趣進行更深入的閱讀和研究。而動態(tài)網(wǎng)絡(luò)結(jié)構(gòu)的意義,可能也不止于單純的約減計算。網(wǎng)絡(luò)連接的改變實際上影響著整個特征編碼的過程,以“SkipNet”為例,對n個網(wǎng)絡(luò)層的選擇可能會帶來2^n種不同的特征編碼方式,而在訓(xùn)練這種動態(tài)選擇策略的過程中,可能也會一定程度地解耦層與層之間的依賴關(guān)系,這也會為我們?nèi)蘸笤O(shè)計更具“自適應(yīng)性”的網(wǎng)絡(luò)結(jié)構(gòu)和研究網(wǎng)絡(luò)中信息的傳遞及融合方式帶來更多的啟發(fā)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    存儲示波器的存儲深度對信號分析有什么影響?

    存儲深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器在單次采集過程中能夠記錄的采樣點數(shù)量。存儲深度對信號分析的影響貫穿時域細節(jié)捕捉、頻域分析精度、觸發(fā)穩(wěn)定
    發(fā)表于 05-27 14:39

    首款概念跑車亮相2025上海車展

    2025上海國際車展,騰首款概念跑車——騰Z震撼全球首秀,采用Pure Emotion“心流形·本真之境”全新設(shè)計理念,并將搭載中國首款全棧自研的線控轉(zhuǎn)向系統(tǒng)、云輦-M、全線控底盤、易三方等
    的頭像 發(fā)表于 04-25 16:22 ?320次閱讀

    工業(yè)互聯(lián)進階之路:串口服務(wù)器與物聯(lián)網(wǎng)技術(shù)的深度融合

    工業(yè)互聯(lián)進階之路:串口服務(wù)器與物聯(lián)網(wǎng)技術(shù)的深度融合
    的頭像 發(fā)表于 03-24 09:39 ?292次閱讀
    工業(yè)互聯(lián)進階<b class='flag-5'>之路</b>:串口服務(wù)器與物聯(lián)網(wǎng)技術(shù)的<b class='flag-5'>深度</b>融合

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    ,并廣泛介紹深度學(xué)習(xí)在兩個主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報行動和自主平臺。最后,討論了相關(guān)的威脅、機遇、技術(shù)和實際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無所不能,需要謹慎應(yīng)用,同時考慮到其局限性、網(wǎng)絡(luò)安全威脅以及
    的頭像 發(fā)表于 02-14 11:15 ?540次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?866次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1924次閱讀

    更準、更深度、更貼近業(yè)務(wù) 數(shù)科技智能分析助手SwiftAgent報告功能全面升級

    近期全球金融業(yè)領(lǐng)域的盛事——Swift國際銀行業(yè)運營大會(簡稱“Sibos年會”)完美收官,數(shù)科技數(shù)據(jù)智能產(chǎn)品總經(jīng)理岑潤哲在此次大會上深度剖析大模型時代Data+AI的創(chuàng)新能力,并發(fā)布了
    的頭像 發(fā)表于 10-30 10:45 ?573次閱讀
    更準、更<b class='flag-5'>深度</b>、更貼近業(yè)務(wù) 數(shù)<b class='flag-5'>勢</b>科技智能<b class='flag-5'>分析</b>助手SwiftAgent報告功能全面升級

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?662次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    激光雷達技術(shù)的基于深度學(xué)習(xí)的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1073次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1239次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :
    的頭像 發(fā)表于 10-23 15:25 ?2901次閱讀

    FPGA做深度學(xué)習(xí)能走多遠?

    的發(fā)展前景較為廣闊,但也面臨一些挑戰(zhàn)。以下是一些關(guān)于 FPGA 在深度學(xué)習(xí)中應(yīng)用前景的觀點,僅供參考: ? 優(yōu)勢方面: ? 高度定制化的計算架構(gòu):FPGA 可以根據(jù)深度
    發(fā)表于 09-27 20:53

    卡特彼勒推出“通往可持續(xù)發(fā)展之路”計劃

    近日,卡特彼勒宣布推出一項名為“通往可持續(xù)發(fā)展之路”(Pathways to Sustainability)的全新教育計劃,旨在助力采礦、采石場和骨料行業(yè)客戶的能源轉(zhuǎn)型之旅。該計劃為期四年,將為參與者提供全面、多元的學(xué)習(xí)機會、能
    的頭像 發(fā)表于 09-18 17:43 ?894次閱讀

    中科數(shù)分析DPU在云原生網(wǎng)絡(luò)與智算網(wǎng)絡(luò)中的實際應(yīng)用

    CCF Chip 2024,精彩不能停!7月21日下午,中科數(shù)在第二屆中國計算機學(xué)會(CCF)芯片大會的“數(shù)專屬時刻”仍在繼續(xù),數(shù)組織承辦“DPU技術(shù)趨勢和應(yīng)用——DPU在云原生與智算網(wǎng)絡(luò)中
    的頭像 發(fā)表于 08-02 11:21 ?1172次閱讀