chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

單個(gè)CNN就能夠在多個(gè)數(shù)據(jù)集上實(shí)現(xiàn)SOTA

OpenCV學(xué)堂 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2022-07-21 10:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在 VGG、U-Net、TCN 網(wǎng)絡(luò)中... CNN 雖然功能強(qiáng)大,但必須針對特定問題、數(shù)據(jù)類型、長度和分辨率進(jìn)行定制,才能發(fā)揮其作用。我們不禁會問,可以設(shè)計(jì)出一個(gè)在所有這些網(wǎng)絡(luò)中都運(yùn)行良好的單一 CNN 嗎? 本文中,來自阿姆斯特丹自由大學(xué)、阿姆斯特丹大學(xué)、斯坦福大學(xué)的研究者提出了 CCNN,單個(gè) CNN 就能夠在多個(gè)數(shù)據(jù)集(例如 LRA)上實(shí)現(xiàn) SOTA !

1eb82160-083d-11ed-ba43-dac502259ad0.png

1998 年 LeCun 等人提出卷積神經(jīng)網(wǎng)絡(luò) (CNN),這是一類廣泛用于機(jī)器學(xué)習(xí)深度學(xué)習(xí)模型。由于 CNN 具有高性能和高效率等特點(diǎn),使其在跨序列、視覺和高維數(shù)據(jù)的多個(gè)應(yīng)用程序中實(shí)現(xiàn) SOTA 性能。然而,CNN(以及一般的神經(jīng)網(wǎng)絡(luò))存在一個(gè)嚴(yán)重缺陷,這些架構(gòu)必須針對特定應(yīng)用進(jìn)行定制,以便處理不同的數(shù)據(jù)長度、分辨率和維度。這反過來又導(dǎo)致大量特定于任務(wù)的 CNN 架構(gòu)出現(xiàn)。 數(shù)據(jù)可以有許多不同的長度,例如圖像可以是 32x32 或 1024x1024。標(biāo)準(zhǔn) CNN 存在的問題是,它們的卷積核是局部的,這需要為每個(gè)長度定制一個(gè)精心選擇的步長和池化層來捕獲整個(gè)上下文自定義架構(gòu)。此外,許多數(shù)據(jù)本質(zhì)上是連續(xù)的,在不同的分辨率下具有相同的語義,例如圖像可以在任意分辨率下捕獲,并具有相同的語義內(nèi)容,音頻可以在 16kHz 或 44.1kHz 采樣,但人耳聽起來仍然是相同的。 然而,由于卷積核的離散性,傳統(tǒng)的 CNN 不能跨分辨率使用。當(dāng)考慮具有相同 CNN 的不同維度數(shù)據(jù)時(shí),這兩個(gè)問題會進(jìn)一步加劇,例如序列(1D)、視覺(2D)和高維數(shù)據(jù)(3D、4D),因?yàn)椴煌木S度以不同的特征長度和分辨率運(yùn)行,例如一秒音頻的長度很容易達(dá)到 16000,這與基準(zhǔn)數(shù)據(jù)集中的圖像大小形成強(qiáng)烈對比。 在本文中,研究者提出了邁向通用 CNN 架構(gòu)。其目標(biāo)是構(gòu)建一個(gè)單一的 CNN 架構(gòu),可以用于任意分辨率、長度和維度的數(shù)據(jù)。標(biāo)準(zhǔn) CNN 需要特定于任務(wù)的架構(gòu),因?yàn)槠渚矸e核的離散性將內(nèi)核綁定到特定的數(shù)據(jù)分辨率,并且由于構(gòu)建大型離散卷積核所需的大量參數(shù),它們不適合對全局上下文進(jìn)行建模。 因此,為了構(gòu)建一個(gè)通用的 CNN 架構(gòu),關(guān)鍵是開發(fā)一個(gè)分辨率不可知的卷積層,該卷積層能夠以參數(shù)有效的方式對遠(yuǎn)程依賴關(guān)系進(jìn)行建模。該研究入選 ICML 2022 。

1ed26bce-083d-11ed-ba43-dac502259ad0.png

  • 論文地址:https://arxiv.org/pdf/2206.03398.pdf
  • 代碼地址:https://github.com/david-knigge/ccnn
本文的貢獻(xiàn)如下:
  • 該研究提出 Continuous CNN(CCNN):一個(gè)簡單、通用的 CNN,可以跨數(shù)據(jù)分辨率和維度使用,而不需要結(jié)構(gòu)修改。CCNN 在序列 (1D)、視覺 (2D) 任務(wù)、以及不規(guī)則采樣數(shù)據(jù)和測試時(shí)間分辨率變化的任務(wù)上超過 SOTA;
  • 該研究對現(xiàn)有的 CCNN 方法提供了幾種改進(jìn),使它們能夠匹配當(dāng)前 SOTA 方法,例如 S4。主要改進(jìn)包括核生成器網(wǎng)絡(luò)的初始化、卷積層修改以及 CNN 的整體結(jié)構(gòu)。
連續(xù)核卷積 連續(xù)核卷積將小型神經(jīng)網(wǎng)絡(luò)1ee43fde-083d-11ed-ba43-dac502259ad0.png作為核生成器網(wǎng)絡(luò),同時(shí)將卷積核參數(shù)化為連續(xù)函數(shù)。該網(wǎng)絡(luò)將坐標(biāo)1eedaba0-083d-11ed-ba43-dac502259ad0.png映射到該位置的卷積核值:1ef62e42-083d-11ed-ba43-dac502259ad0.png(圖 1a)。通過將 K 個(gè)坐標(biāo)1f020b40-083d-11ed-ba43-dac502259ad0.png向量通過 G_Kernel,可以構(gòu)造一個(gè)大小相等的卷積核 K,即1f0bdcce-083d-11ed-ba43-dac502259ad0.png隨后,在輸入信號1f1556e6-083d-11ed-ba43-dac502259ad0.png和生成的卷積核1f1ee8fa-083d-11ed-ba43-dac502259ad0.png間進(jìn)行卷積運(yùn)算,以構(gòu)造輸出特征表示1f2b7dae-083d-11ed-ba43-dac502259ad0.png,即1f374efe-083d-11ed-ba43-dac502259ad0.png。

1f42603c-083d-11ed-ba43-dac502259ad0.png

任意數(shù)據(jù)維度的一般操作。通過改變輸入坐標(biāo) c_i 的維數(shù) D,核生成器網(wǎng)絡(luò) G_Kernel 可用于構(gòu)造任意維數(shù)的卷積核。因此可以使用相同的操作來處理序列 D=1、視覺 D=2 和更高維數(shù)據(jù) D≥3。 不同輸入分辨率的等效響應(yīng)。如果輸入信號 x 有分辨率變化,例如最初在 8KHz 觀察到的音頻現(xiàn)在在 16KHz 觀察到,則與離散卷積核進(jìn)行卷積以產(chǎn)生不同的響應(yīng),因?yàn)楹藢⒃诿總€(gè)分辨率下覆蓋不同的輸入子集。另一方面,連續(xù)核是分辨率無關(guān)的,因此無論輸入的分辨率如何,它都能夠識別輸入。 當(dāng)以不同的分辨率(例如更高的分辨率)呈現(xiàn)輸入時(shí),通過核生成器網(wǎng)絡(luò)傳遞更精細(xì)的坐標(biāo)網(wǎng)格就足夠了,以便以相應(yīng)的分辨率構(gòu)造相同的核。對于以分辨率 r (1) 和 r (2) 采樣的信號 x 和連續(xù)卷積核 K,兩種分辨率下的卷積大約等于與分辨率變化成比例的因子:

1f574fa6-083d-11ed-ba43-dac502259ad0.jpg

CCNN:在 ND 中建模遠(yuǎn)程依賴關(guān)系 具有連續(xù)核卷積的殘差塊改進(jìn)。該研究對 FlexNet 架構(gòu)進(jìn)行了修改 ,其殘差網(wǎng)絡(luò)由類似于 S4 網(wǎng)絡(luò)的塊組成。CCNN 架構(gòu)如下圖 2 所示。

1f61fc3a-083d-11ed-ba43-dac502259ad0.png

基于這些觀察,該研究構(gòu)建了 FlexConv 的深度(depth-wise)可分離版本,其中通道(channel-wise)卷積是使用核生成器網(wǎng)絡(luò)1f750168-083d-11ed-ba43-dac502259ad0.png生成的核計(jì)算的,之后是從 N_in 到 N_out 進(jìn)行逐點(diǎn)卷積。這種變化允許構(gòu)建更廣泛的 CCNN—— 從 30 到 110 個(gè)隱藏通道,而不會增加網(wǎng)絡(luò)參數(shù)或計(jì)算復(fù)雜度。

正確初始化核生成器網(wǎng)絡(luò) G_Kernel。該研究觀察到,在以前的研究中核生成器網(wǎng)絡(luò)沒有正確初始化。在初始化前,人們希望卷積層的輸入和輸出的方差保持相等,以避免梯度爆炸和消失,即 Var (x)=Var (y)。因此,卷積核被初始化為具有方差 Var (K)=gain^2 /(in channels ? kernel size) 的形式,其增益取決于所使用的非線性。 然而,神經(jīng)網(wǎng)絡(luò)的初始化使輸入的 unitary 方差保留在輸出。因此,當(dāng)用作核生成器網(wǎng)絡(luò)時(shí),標(biāo)準(zhǔn)初始化方法導(dǎo)致核具有 unitary 方差,即 Var (K)=1。結(jié)果,使用神經(jīng)網(wǎng)絡(luò)作為核生成器網(wǎng)絡(luò)的 CNN 經(jīng)歷了與通道?內(nèi)核大小成比例的特征表示方差的逐層增長。例如,研究者觀察到 CKCNNs 和 FlexNets 在初始化時(shí)的 logits 大約為 1e^19。這是不可取的,這可能導(dǎo)致訓(xùn)練不穩(wěn)定和需要低學(xué)習(xí)率。 為了解決這個(gè)問題,該研究要求 G_Kernel 輸出方差等于 gain^2 /(in_channels?kernel_size)而不是 1。他們通過、1f83ab5a-083d-11ed-ba43-dac502259ad0.png重新加權(quán)核生成器網(wǎng)絡(luò)的最后一層。因此,核生成器網(wǎng)絡(luò)輸出的方差遵循傳統(tǒng)卷積核的初始化,而 CCNN 的 logits 在初始化時(shí)呈現(xiàn)單一方差。

實(shí)驗(yàn)結(jié)果 如下表 1-4 所示,CCNN 模型在所有任務(wù)中都表現(xiàn)良好。 首先是 1D 圖像分類 CCNN 在多個(gè)連續(xù)基準(zhǔn)上獲得 SOTA,例如 Long Range Arena、語音識別、1D 圖像分類,所有這些都在單一架構(gòu)中實(shí)現(xiàn)的。CCNN 通常比其他方法模型更小架構(gòu)更簡單。 然后是 2D 圖像分類:通過單一架構(gòu),CCNN 可以匹配并超越更深的 CNN。

1f9235e4-083d-11ed-ba43-dac502259ad0.jpg

對 ND 進(jìn)行遠(yuǎn)程依賴建模的重要性。原則上可以將所有任務(wù)視為不考慮 2D 結(jié)構(gòu)的序列任務(wù),該研究只需改變進(jìn)入核生成器網(wǎng)絡(luò)的坐標(biāo)維數(shù),就可以在多維空間上輕松定義 CCNN。有趣的是,該研究觀察到,通過在 LRA 基準(zhǔn)測試中考慮圖像和 Pathfinder 任務(wù)的 2D 特性,可以獲得更好的結(jié)果(上表 3)。 在具有 2D 圖像的 PathFinder 中,最大的 CCNN 獲得了 96.00% 的準(zhǔn)確率,比之前 SOTA 高出近 10 個(gè)點(diǎn),并在扁平圖像上的表現(xiàn)明顯優(yōu)于 CCNN。 此外,在原始 2D 數(shù)據(jù)上訓(xùn)練的模型顯示出比它們的序列對應(yīng)物更快的收斂(圖 3)。具有小卷積核的 2D CNN,例如 ResNet-18,由于中間池化層缺乏細(xì)粒度的全局上下文建模,無法解決 Pathfinder。

1fa137ec-083d-11ed-ba43-dac502259ad0.png

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 架構(gòu)
    +關(guān)注

    關(guān)注

    1

    文章

    532

    瀏覽量

    26500
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5589

    瀏覽量

    123880
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23240

原文標(biāo)題:解決CNN固有缺陷, CCNN憑借單一架構(gòu),實(shí)現(xiàn)多項(xiàng)SOTA

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及MCU200T仿真測試

    數(shù)的提出很大程度的解決了BP算法優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問題。當(dāng)x>0 時(shí),梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x<0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個(gè)模型非常巨大。所以要想實(shí)現(xiàn)輕量級的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。?b class='flag-5'>CNN神經(jīng)網(wǎng)絡(luò)是通過權(quán)值共享的方式,利用卷積運(yùn)算從圖像中提取線性紋理。
    發(fā)表于 10-28 08:02

    卷積運(yùn)算分析

    數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    蜂鳥E203的浮點(diǎn)指令F的一些實(shí)現(xiàn)細(xì)節(jié)

    蜂鳥E203的浮點(diǎn)指令F的一些實(shí)現(xiàn)細(xì)節(jié) 既然E203不是多發(fā)射,且為了節(jié)省面積,一些指令使用FPU內(nèi)的同一個(gè)子模塊來執(zhí)行,即FPU同時(shí)只能進(jìn)行一種計(jì)算,我們只FPU內(nèi)部署了11個(gè)子模塊,每種
    發(fā)表于 10-24 08:57

    指令P擴(kuò)展的主要內(nèi)容

    ;SIMD指令擴(kuò)展,SIMD指令可以單個(gè)指令中執(zhí)行多個(gè)相同或類似的操作,可以提高處理器的運(yùn)算速度,通過添加SIMD指令,可以提高處理器的計(jì)算能力。 2. 指令P擴(kuò)展的主要代碼 /
    發(fā)表于 10-21 10:50

    HMI-4G套裝,輕松搞定“數(shù)據(jù)云+異地遠(yuǎn)程運(yùn)維”

    工業(yè)現(xiàn)場設(shè)備分散、環(huán)境復(fù)雜、網(wǎng)絡(luò)難部署?宏 HMI-4G 套裝一站搞定!輕松打破數(shù)據(jù)孤島,實(shí)現(xiàn)數(shù)據(jù)云與遠(yuǎn)程運(yùn)維。文末附有真實(shí)客戶案例,歡
    的頭像 發(fā)表于 08-14 16:46 ?850次閱讀
    宏<b class='flag-5'>集</b>HMI-4G套裝,輕松搞定“<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>上</b>云+異地遠(yuǎn)程運(yùn)維”

    AURIX tc367通過 MCU SOTA 更新邏輯 IC 閃存是否可行?

    你好專家:我的用例是 MCU 通過 SPI 連接到邏輯 IC,邏輯 IC 連接到 8MB 閃存,但 MCU PFLASH 大小為 2MB,通過 MCU SOTA 更新邏輯 IC 閃存是否可行?
    發(fā)表于 08-11 06:36

    求助,關(guān)于TC387使能以及配置SOTA 中一些問題求解

    設(shè)置寫保護(hù)密碼, 而設(shè)置為CONFIRMED則必須有密碼,設(shè)置密碼后,后續(xù)對UCB的操作是否每次都要有解鎖操作 , 問題3: 調(diào)試UCB去使能SOTA的過程中,出現(xiàn)debug口無法調(diào)試刷寫
    發(fā)表于 08-08 07:31

    如何在FX3和FX10芯片運(yùn)行/實(shí)現(xiàn)USB 3.0批量流?

    我們正在嘗試 FX3 和 FX10 芯片運(yùn)行/實(shí)現(xiàn) USB 3.0 批量流(單個(gè) IN 端點(diǎn)多個(gè)
    發(fā)表于 05-09 06:10

    STM32H747I DSI模塊采用一個(gè)數(shù)據(jù)通道無法顯示圖片怎么解決?

    ,但是顯示屏黑屏??梢源_定的是D0P/D0N有數(shù)據(jù)輸出,但是無法顯示屏顯示。 下面是我官方例程中修改的地方,其實(shí)就是把兩個(gè)數(shù)據(jù)通道改為
    發(fā)表于 03-07 08:11

    想選擇一款能夠實(shí)現(xiàn)多個(gè)通道數(shù)據(jù)采集的ADC,求推薦

    各位專家好!這邊想選擇一款能夠實(shí)現(xiàn)多個(gè)通道數(shù)據(jù)采集的ADC,由于對通道間的幅度和相位一致性要求較高,最好可以嚴(yán)格控制各通道之間的同步,要求單個(gè)
    發(fā)表于 01-24 08:28

    Hadoop 生態(tài)系統(tǒng)數(shù)據(jù)處理中的應(yīng)用與實(shí)踐

    基礎(chǔ)。它將大文件分割成多個(gè)數(shù)據(jù)塊,存儲不同節(jié)點(diǎn),實(shí)現(xiàn)高容錯(cuò)性和高擴(kuò)展性。NameNode 負(fù)責(zé)管理文件系統(tǒng)命名空間和元數(shù)據(jù),DataNo
    的頭像 發(fā)表于 01-21 17:48 ?659次閱讀

    Chart FX圖表類型:條形圖()

    類別(多序列),以便進(jìn)行更深入的分析。 將數(shù)據(jù)傳輸給條形圖非常簡單,只需傳輸一個(gè)或多個(gè)數(shù)據(jù)序列以及每個(gè)數(shù)據(jù)序列附帶的標(biāo)記或標(biāo)簽即可。這些標(biāo)簽將顯示分類或時(shí)間軸(X 軸)
    的頭像 發(fā)表于 01-03 10:20 ?1087次閱讀
    Chart FX圖表類型:條形圖(<b class='flag-5'>上</b>)

    Mamba入局圖像復(fù)原,達(dá)成新SOTA

    MambaIRv2,更高性能、更高效率!另外還有ACM MM 2024的Freqmamba方法,圖像去雨任務(wù)中取得了SOTA性能! 顯然,這種基于Mamba的方法圖像復(fù)原領(lǐng)域,比
    的頭像 發(fā)表于 12-30 18:09 ?1591次閱讀
    Mamba入局圖像復(fù)原,達(dá)成新<b class='flag-5'>SOTA</b>

    ADS131A04如果想實(shí)現(xiàn)多個(gè)設(shè)備的同步觸發(fā)采樣,應(yīng)該如何實(shí)現(xiàn)呢?

    ADS131A04的使用上,異步模式,目前正常的數(shù)據(jù)采集都沒問題,但是我們希望對多個(gè)使用ADS131A04的設(shè)備進(jìn)行同步觸發(fā)采樣,收到一個(gè)觸發(fā)信號之后,
    發(fā)表于 12-04 07:13