chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度探析7大類深度CNN創(chuàng)新架構(gòu)

電子工程師 ? 來源:cc ? 2019-01-27 11:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種特殊類型的神經(jīng)網(wǎng)絡(luò),在各種競(jìng)賽基準(zhǔn)上表現(xiàn)出了當(dāng)前最優(yōu)結(jié)果。深度 CNN 架構(gòu)在挑戰(zhàn)性基準(zhǔn)任務(wù)比賽中實(shí)現(xiàn)的高性能表明,創(chuàng)新的架構(gòu)理念以及參數(shù)優(yōu)化可以提高 CNN 在各種視覺相關(guān)任務(wù)上的性能。本綜述將最近的 CNN 架構(gòu)創(chuàng)新分為七個(gè)不同的類別,分別基于空間利用、深度、多路徑、寬度、特征圖利用、通道提升和注意力。

引言

通過 1989 年 LeCun 處理網(wǎng)格狀拓?fù)鋽?shù)據(jù)(圖像和時(shí)間系列數(shù)據(jù))的研究,CNN 首次受到關(guān)注。CNN 被視為理解圖像內(nèi)容的最好技術(shù)之一,并且在圖像識(shí)別、分割、檢測(cè)和檢索相關(guān)任務(wù)上表現(xiàn)出了當(dāng)前最佳性能。CNN 的成功引起了學(xué)界外的注意。在產(chǎn)業(yè)界,如谷歌、微軟、AT&T、NEC 和 Facebook 這樣的公司都設(shè)立了研究團(tuán)隊(duì)來探索 CNN 的新架構(gòu)。目前,圖像處理競(jìng)賽中的大多數(shù)領(lǐng)跑者都會(huì)采用基于深度 CNN 的模型。

自 2012 年以來,關(guān)于 CNN 架構(gòu)的不同創(chuàng)新被提出來。這些創(chuàng)新可分為參數(shù)優(yōu)化、正則化、結(jié)構(gòu)重組等。但是據(jù)觀察,CNN 網(wǎng)絡(luò)的性能提升應(yīng)主要?dú)w功于處理單元的重構(gòu)和新模塊的設(shè)計(jì)。自 AlexNet 在 ImageNet 數(shù)據(jù)集上展現(xiàn)出了非凡的性能后,基于 CNN 的應(yīng)用變得越來越普及。類似地,Zeiler 和 Fergus 介紹了特征分層可視化的概念,這改變了用深度架構(gòu)(如 VGG)在簡(jiǎn)單的低空間分辨率中提取特征的趨勢(shì)。如今,大多數(shù)新架構(gòu)都是基于 VGG 引入的簡(jiǎn)單原則和同質(zhì)化拓?fù)錁?gòu)建的。

另一方面,谷歌團(tuán)隊(duì)引入了一個(gè)非常著名的關(guān)于拆分、轉(zhuǎn)換和合并的概念,稱為 Inception 模塊。初始?jí)K第一次使用了層內(nèi)分支的概念,允許在不同空間尺度上提取特征。2015 年,為了訓(xùn)練深度 CNN,Resnet 引入的殘差連接概念變得很有名,并且,后來的大多數(shù)網(wǎng)絡(luò)像 Inception-ResNet,WideResNet,ResNext 等都在使用它。與此類似,一些像 WideResnet、Pyramidal Nets、Xception 這樣的架構(gòu)都引入了多層轉(zhuǎn)換的概念,通過額外的基數(shù)和增加的寬度來實(shí)現(xiàn)。因此,研究的重點(diǎn)從參數(shù)優(yōu)化和連接再次調(diào)整,轉(zhuǎn)向了網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)(層結(jié)構(gòu))。這引發(fā)了許多像通道提升、空間和通道利用、基于注意力的信息處理等新的架構(gòu)概念。

本文結(jié)構(gòu)如下:

圖 1:文章結(jié)構(gòu)

圖 2:典型模式識(shí)別(OR)系統(tǒng)的基本布局。PR 系統(tǒng)分為三個(gè)階段:階段 1 和數(shù)據(jù)挖掘相關(guān),階段 2 執(zhí)行預(yù)處理和特征選擇,而階段 3 基于模型選擇、調(diào)參和分析。CNN 有良好的特征提取能力和強(qiáng)大的鑒別能力,因此在一個(gè) PR 系統(tǒng)中,它可以用于特征提取/生成和模型選擇階段。

4 CNN 中的架構(gòu)創(chuàng)新

自 1989 年至今,CNN 架構(gòu)已經(jīng)有了很多不同的改進(jìn)。CNN 中的所有創(chuàng)新都是通過深度和空間相結(jié)合實(shí)現(xiàn)的。根據(jù)架構(gòu)修改的類型,CNN 可以大致分為 7 類:基于空間利用、深度、多路徑、寬度、通道提升、特征圖利用和注意力的 CNN。深度 CNN 架構(gòu)的分類如圖 3 所示。

圖 3:深度 CNN 架構(gòu)分類

4.1 基于空間利用的 CNN

CNN 有大量參數(shù),如處理單元數(shù)量(神經(jīng)元)、層數(shù)、濾波器大小、步幅、學(xué)習(xí)率和激活函數(shù)等。由于 CNN 考慮輸入像素的鄰域(局部性),可以使用不同大小的濾波器來探索不同級(jí)別的相關(guān)性。因此,在 2000 年初,研究人員利用空間變換來提升性能,此外,還評(píng)估了不同大小的濾波器對(duì)網(wǎng)絡(luò)學(xué)習(xí)率的影響。不同大小的濾波器封裝不同級(jí)別的粒度;通常,較小的濾波器提取細(xì)粒度信息,而較大的濾波器提取粗粒度信息。這樣,通過調(diào)整濾波器大小,CNN 可以在粗粒度和細(xì)粒度的細(xì)節(jié)上都表現(xiàn)很好。

4.2 基于深度的 CNN

深度 CNN 架構(gòu)基于這樣一種假設(shè):隨著深度的增加,網(wǎng)絡(luò)可以通過大量非線性映射和改進(jìn)的特征表示更好地逼近目標(biāo)函數(shù)。網(wǎng)絡(luò)深度在監(jiān)督學(xué)習(xí)的成功中起了重要作用。理論研究已表明,深度網(wǎng)絡(luò)能夠以指數(shù)方式比淺層網(wǎng)絡(luò)更有效地表示特定的 20 個(gè)函數(shù)類型。2001 年,Csáji 表示了通用近似定理,指出單個(gè)隱藏層足夠逼近任何函數(shù),但這需要指數(shù)級(jí)的神經(jīng)元,因而通常導(dǎo)致計(jì)算上行不通。在這方面,Bengio 和 elalleau 認(rèn)為更深的網(wǎng)絡(luò)有潛力在更少的成本下保持網(wǎng)絡(luò)的表現(xiàn)能力。2013 年,Bengio 等人通過 實(shí)證表明,對(duì)于復(fù)雜的任務(wù),深度網(wǎng)絡(luò)在計(jì)算和統(tǒng)計(jì)上都更有效。在 2014-ILSVR 競(jìng)賽中表現(xiàn)最佳的 Inception 和 VGG 則進(jìn)一步說明,深度是調(diào)節(jié)網(wǎng)絡(luò)學(xué)習(xí)能力的重要維度。

一旦特征被提取,只要其相對(duì)于其他位置的近似位置被保留,其提取位置就變得沒那么重要了。池化或下采樣(如卷積)是一種有趣的局部操作。它總結(jié)了感受野附近的類似信息,并輸出了該局部區(qū)域內(nèi)的主要反應(yīng)。作為卷積運(yùn)算的輸出結(jié)果,特征圖案可能會(huì)出現(xiàn)在圖像中的不同位置。

4.3 基于多路徑的 CNN

深度網(wǎng)絡(luò)的訓(xùn)練頗具挑戰(zhàn)性,這也是近來很多深度網(wǎng)絡(luò)研究的主題。深度 CNN 為復(fù)雜任務(wù)提供了高效的計(jì)算和統(tǒng)計(jì)。但是,更深的網(wǎng)絡(luò)可能會(huì)遭遇性能下降或梯度消失/爆炸的問題,而這通常是由增加深度而非過擬合造成的。梯度消失問題不僅會(huì)導(dǎo)致更高的測(cè)試誤差,還會(huì)導(dǎo)致更高的訓(xùn)練誤差。為了訓(xùn)練更深的網(wǎng)絡(luò),多路徑或跨層連接的概念被提出。多路徑或捷徑連接可以通過跳過一些中間層,系統(tǒng)地將一層連接到另一層,以使特定的信息流跨過層。跨層連接將網(wǎng)絡(luò)劃分為幾塊。這些路徑也嘗試通過使較低層訪問梯度來解決梯度消失問題。為此,使用了不同類型的捷徑連接,如零填充、基于投影、dropout 和 1x1 連接等。

激活函數(shù)是一種決策函數(shù),有助于學(xué)習(xí)復(fù)雜的模式。選擇適當(dāng)?shù)募せ詈瘮?shù)可以加速學(xué)習(xí)過程。卷積特征圖的激活函數(shù)定義為等式(3)。

4.4 基于寬度的多連接 CNN

2012 至 2015 年,網(wǎng)絡(luò)架構(gòu)的重點(diǎn)是深度的力量,以及多通道監(jiān)管連接在網(wǎng)絡(luò)正則化中的重要性。然而,網(wǎng)絡(luò)的寬度和深度一樣重要。通過在一層之內(nèi)并行使用多處理單元,多層感知機(jī)獲得了在感知機(jī)上映射復(fù)雜函數(shù)的優(yōu)勢(shì)。這表明寬度和深度一樣是定義學(xué)習(xí)原則的一個(gè)重要參數(shù)。Lu 等人和 Hanin & Sellke 最近表明,帶有線性整流激活函數(shù)的神經(jīng)網(wǎng)絡(luò)要足夠?qū)挷拍茈S著深度增加保持通用的近似特性。并且,如果網(wǎng)絡(luò)的最大寬度不大于輸入維度,緊致集上的連續(xù)函數(shù)類無法被任意深度的網(wǎng)絡(luò)很好地近似。因此,多層堆疊(增加層)可能不會(huì)增加神經(jīng)網(wǎng)絡(luò)的表征能力。與深度架構(gòu)相關(guān)的一個(gè)重要問題是,有些層或處理單元可能無法學(xué)習(xí)有用的特征。為了解決這一問題,研究的重點(diǎn)從深度和較窄的架構(gòu)轉(zhuǎn)移到了較淺和較寬的架構(gòu)上。

4.5 基于特征圖(通道特征圖)開發(fā)的 CNN

CNN 因其分層學(xué)習(xí)和自動(dòng)特征提取能力而聞名于 MV 任務(wù)中。特征選擇在決定分類、分割和檢測(cè)模塊的性能上起著重要作用。傳統(tǒng)特征提取技術(shù)中分類模塊的性能要受限于特征的單一性。相較于傳統(tǒng)技術(shù),CNN 使用多階段特征提取,根據(jù)分配的輸入來提取不同類型的特征(CNN 中稱之為特征圖)。但是,一些特征圖有很少或者幾乎沒有目標(biāo)鑒別作用。巨大的特征集有噪聲效應(yīng),會(huì)導(dǎo)致網(wǎng)絡(luò)過擬合。這表明,除了網(wǎng)絡(luò)工程外,特定類別特征圖的選取對(duì)改進(jìn)網(wǎng)絡(luò)的泛化性能至關(guān)重要。在這一部分,特征圖和通道會(huì)交替使用,因?yàn)楹芏嘌芯空咭呀?jīng)用通道這個(gè)詞代替了特征圖。

4.6. 基于通道(輸入通道)利用的 CNN

圖像表征在決定圖像處理算法的性能方面起著重要作用。圖像的良好表征可以定義來自緊湊代碼的圖像的突出特征。在不同的研究中,不同類型的傳統(tǒng)濾波器被用來提取單一類型圖像的不同級(jí)別信息。這些不同的表征被用作模型的輸入,以提高性能。CNN 是一個(gè)很好的特征學(xué)習(xí)器,它能根據(jù)問題自動(dòng)提取鑒別特征。但是,CNN 的學(xué)習(xí)依賴于輸入表征。如果輸入中缺乏多樣性和類別定義信息,CNN 作為鑒別器的性能就會(huì)受到影響。為此,輔助學(xué)習(xí)器的概念被引入到 CNN 中來提升網(wǎng)絡(luò)的輸入表征。

4.7 基于注意力的 CNN

不同的抽象級(jí)別在定義神經(jīng)網(wǎng)絡(luò)的鑒別能力方面有著重要的作用。除此之外,選擇與上下文相關(guān)的特征對(duì)于圖像定位和識(shí)別也很重要。在人類的視覺系統(tǒng)中,這種現(xiàn)象叫做注意力。人類在一次又一次的匆匆一瞥中觀察場(chǎng)景并注意與上下文相關(guān)的部分。在這個(gè)過程中,人類不僅注意選擇的區(qū)域,而且推理出關(guān)于那個(gè)位置的物體的不同解釋。因此,它有助于人類以更好的方式來抓取視覺結(jié)構(gòu)。類似的解釋能力被添加到像 RNN 和 LSTM 這樣的神經(jīng)網(wǎng)絡(luò)中。上述網(wǎng)絡(luò)利用注意力模塊來生成序列數(shù)據(jù),并且根據(jù)新樣本在先前迭代中的出現(xiàn)來對(duì)其加權(quán)。不同的研究者把注意力概念加入到 CNN 中來改進(jìn)表征和克服數(shù)據(jù)的計(jì)算限制問題。注意力概念有助于讓 CNN 變得更加智能,使其在雜亂的背景和復(fù)雜的場(chǎng)景中也能識(shí)別物體。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4820

    瀏覽量

    106346
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23172

原文標(biāo)題:7大類深度CNN架構(gòu)創(chuàng)新綜述

文章出處:【微信號(hào):aicapital,微信公眾號(hào):全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    毫米之間定成敗:PCB背鉆深度設(shè)計(jì)與生產(chǎn)如何精準(zhǔn)把控

    高速先生成員--王輝東 關(guān)于PCB的背鉆,上期我們講了背鉆XY方向的精準(zhǔn)控制《別讓孔偏毀了信號(hào)!PCB 背鉆的 XY 精準(zhǔn)度如何做到分毫不差?》,這一期我們重點(diǎn)講一下背鉆Z方向(深度)的控制
    發(fā)表于 07-28 14:20

    RK3128 Android 7.1 進(jìn)入深度休眠流程分析

    RK3128 Android 7.1 進(jìn)入深度休眠流程分析RK3128是瑞芯微電子推出的一款低功耗四核Cortex-A7處理器,運(yùn)行Android 7.1系統(tǒng)時(shí)進(jìn)入深度休眠(Deep Sleep
    發(fā)表于 07-22 10:45

    中軟國(guó)際AI深度應(yīng)用創(chuàng)新論壇成功舉辦

    近日,2025華為開發(fā)者大會(huì)期間,中軟國(guó)際成功舉辦AI深度應(yīng)用創(chuàng)新論壇,發(fā)布全棧AI戰(zhàn)略,分享研討了公司打造的全場(chǎng)景最新人工智能領(lǐng)域產(chǎn)品與服務(wù)體系,并聯(lián)合硅基流動(dòng)重磅推出覆蓋AI全生命周期的企業(yè)級(jí)解決方案。
    的頭像 發(fā)表于 06-26 14:22 ?617次閱讀

    GPU架構(gòu)深度解析

    GPU架構(gòu)深度解析從圖形處理到通用計(jì)算的進(jìn)化之路圖形處理單元(GPU),作為現(xiàn)代計(jì)算機(jī)中不可或缺的一部分,已經(jīng)從最初的圖形渲染專用處理器,發(fā)展成為強(qiáng)大的并行計(jì)算引擎,廣泛應(yīng)用于人工智能、科學(xué)計(jì)算
    的頭像 發(fā)表于 05-30 10:36 ?931次閱讀
    GPU<b class='flag-5'>架構(gòu)</b><b class='flag-5'>深度</b>解析

    存儲(chǔ)示波器的存儲(chǔ)深度對(duì)信號(hào)分析有什么影響?

    存儲(chǔ)深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器在單次采集過程中能夠記錄的采樣點(diǎn)數(shù)量。存儲(chǔ)深度對(duì)信號(hào)分析的影響貫穿時(shí)域細(xì)節(jié)捕捉、頻域分析精度、觸發(fā)穩(wěn)定性等多個(gè)維度
    發(fā)表于 05-27 14:39

    兆易創(chuàng)新人形機(jī)器人方案 深度解讀

    三個(gè)維度展開深度解讀: 一、核心產(chǎn)品型號(hào)與應(yīng)用場(chǎng)景 (一)主控MCU:多場(chǎng)景精準(zhǔn)適配 GD32H7系列(高性能計(jì)算) 代表型號(hào) :GD32H75E(Cortex-M7內(nèi)核,600MHz主頻) 特性 : 雙發(fā)射6級(jí)流水線
    的頭像 發(fā)表于 05-07 15:56 ?1048次閱讀

    解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析

    解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析 ——立即下載白皮書,搶占智能汽車發(fā)展先機(jī) *附件:解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析.pdf 為什么這份白皮書值
    的頭像 發(fā)表于 04-27 11:58 ?924次閱讀

    大模型時(shí)代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬級(jí)別,僅需在單張消費(fèi)顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,
    的頭像 發(fā)表于 04-25 11:43 ?517次閱讀
    大模型時(shí)代的<b class='flag-5'>深度</b>學(xué)習(xí)框架

    出海企業(yè)數(shù)字化為什么需要雙層架構(gòu)ERP?工博深度解析SAP ERP公有云方案

    出海企業(yè)數(shù)字化為什么需要雙層架構(gòu)ERP?深度解讀SAP S/4HANA Cloud公有云如何平衡總部控制力與子公司靈活性,實(shí)現(xiàn)合規(guī)、降本、快速創(chuàng)新。涵蓋四大核心優(yōu)勢(shì):標(biāo)準(zhǔn)化集成、敏捷部署、風(fēng)險(xiǎn)控制與本地化合規(guī),助力企業(yè)全球化增長(zhǎng)
    的頭像 發(fā)表于 03-28 15:01 ?544次閱讀
    出海企業(yè)數(shù)字化為什么需要雙層<b class='flag-5'>架構(gòu)</b>ERP?工博<b class='flag-5'>深度</b>解析SAP ERP公有云方案

    【AIBOX 應(yīng)用案例】單目深度估計(jì)

    ?Firefly所推出的NVIDIA系列的AIBOX可實(shí)現(xiàn)深度估計(jì),該技術(shù)是一種從單張或者多張圖像預(yù)測(cè)場(chǎng)景深度信息的技術(shù),廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,尤其是在三維重建、場(chǎng)景理解和環(huán)境感知等任務(wù)中起到
    的頭像 發(fā)表于 03-19 16:33 ?762次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b>估計(jì)

    飛騰公司榮獲2024年中國(guó)產(chǎn)學(xué)研深度融合好案例

    ? ? ? 3月16日,由中國(guó)產(chǎn)學(xué)研合作促進(jìn)會(huì)主辦的? 第十六屆中國(guó)產(chǎn)學(xué)研合作創(chuàng)新大會(huì) ? 在北京舉行,飛騰公司榮獲? “2024 年中國(guó)產(chǎn)學(xué)研深度融合好案例” ,公司副總經(jīng)理郭御風(fēng)作為獲獎(jiǎng)單位代表
    的頭像 發(fā)表于 03-19 09:02 ?977次閱讀

    靈汐科技開源深度學(xué)習(xí)應(yīng)用開發(fā)平臺(tái)BIDL

    富案例等問題,一直制約著其廣泛應(yīng)用。為了突破這一瓶頸,靈汐科技聯(lián)合腦啟社區(qū)正式宣布開源深度學(xué)習(xí)應(yīng)用開發(fā)平臺(tái)BIDL(Brain-inspired Deep Learning)。
    的頭像 發(fā)表于 03-05 09:13 ?1318次閱讀
    靈汐科技開源<b class='flag-5'>類</b>腦<b class='flag-5'>深度</b>學(xué)習(xí)應(yīng)用開發(fā)平臺(tái)BIDL

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述深度學(xué)習(xí)的歷史和
    的頭像 發(fā)表于 02-14 11:15 ?736次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?2613次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)的核心應(yīng)用領(lǐng)域之一,GPU在加速圖像識(shí)別模型訓(xùn)練方面發(fā)揮著關(guān)鍵作用。通過利用GPU的并行計(jì)算
    的頭像 發(fā)表于 10-27 11:13 ?1969次閱讀