chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新的輕量級視覺Transformer

CVer ? 來源:CVHub ? 作者:CVHub ? 2022-12-19 14:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Introduction

隨著 ViT 的出現(xiàn),Transformer 模型在計算機視覺領(lǐng)域遍地開花,一層激起一層浪。雖然精度很高,但被人廣為詬病的依舊是它的效率問題,說人話就是這東西壓根不好部署在移動端。

隨后,有許多研究人員提出了很多解決方案來加速注意力機制,例如早先蘋果提出的 Mobile-Former 以及前段時間的 EdgeNeXt,均是針對移動端設(shè)計的。

本文的思路也很簡單,就是仿造 CNNs 圈子中的移動端之王—— MobileNet 來進行一系列的設(shè)計和優(yōu)化。對于端側(cè)部署來講,模型的參數(shù)量(例如 Flash 大小)和延遲對資源受限型的硬件來說至關(guān)重要。因此,作者結(jié)合了細(xì)粒度聯(lián)合搜索策略,提出了一種具備低延遲和大小的高效網(wǎng)絡(luò)——EfficientFormerV2 ,該網(wǎng)絡(luò)在同等量級參數(shù)量和延遲下比 MobileNetV2 可以高出4個百分點(ImageNet驗證集)。

28605084-7f5c-11ed-8abf-dac502259ad0.pngComparison of model size, speed, and performance

上圖所示模型是在 ImageNet-1K 上進行訓(xùn)練所獲得的 Top-1 精度。延遲是在 iPhone 12(iOS 16)上進行測量的。每個圓圈的面積與參數(shù)數(shù)量(模型大?。┏烧取?梢钥闯觯珽fficientFormerV2 在模型更小和推理速度更快的情況下獲得了更高的性能。

Framework

先來看下整體的網(wǎng)絡(luò)長什么樣子:

288aa5a0-7f5c-11ed-8abf-dac502259ad0.pngOverall

既然都叫 EfficientFormerV2,那必然是在上一版的基礎(chǔ)上改進了,如圖(a)所示。沒什么特別新奇的,一個很常規(guī)的 ViT 型架構(gòu)。下面的圖表是作者統(tǒng)計的實驗改進結(jié)果:

29266526-7f5c-11ed-8abf-dac502259ad0.pngNumber of parameters, latency, and performance for various design choices

基于整體架構(gòu)圖和上述表格,讓我們逐步拆解看看究竟做了哪些改進。

Token Mixers vs. Feed Forward Network

通常來說,結(jié)合局部信息可以有效提高性能,同時使 ViTs 對明確的位置嵌入缺失表現(xiàn)得更加穩(wěn)健。PoolFormerEfficientFormer 中都使用了 3×3 的平均池化層(如圖 2(a)所示)作為局部的Token Mixers。采用相同卷積核大小的深度可分離卷積(DWCONV)替換這些層不會帶來延遲開銷,同時性能也能提高 **0.6%**,參數(shù)量僅微漲 0.02M。此外,同 NASVit,作者也在 ViTs 的前饋網(wǎng)絡(luò)(FFN)中注入了局部信息建模層,這也有益于提高性能。

這里,作者直接將原來的 Pooling 層刪掉了(下采樣越大,理論感受野越大),而是直接替換成 BottleNeck 的形式,先用 1×1 卷積降維壓縮,再嵌入 3×3 的深度可分離卷積提取局部信息,最后再通過 1×1 的卷積升維。這樣做的一個好處是,這種修改有利于后續(xù)直接才用超參搜索技術(shù)搜索出具體模塊數(shù)量的網(wǎng)絡(luò)深度,以便在網(wǎng)絡(luò)的后期階段中提取局部和全局信息。

Search Space Refinement

通過調(diào)整網(wǎng)絡(luò)的深度即每個階段中的塊數(shù)和寬度即通道數(shù),可以發(fā)現(xiàn),更深和更窄的網(wǎng)絡(luò)可以帶來:

  • 更好的準(zhǔn)確性(0.2% 的性能提升)
  • 更少的參數(shù)(0.13M 的參數(shù)壓縮)
  • 更低的延遲(0.1ms 的推理加速)

同時將這個修改的網(wǎng)絡(luò)設(shè)置為后續(xù) NAS 搜素的 Baseline.

MHSA Improvements

一般的 Transformer 模塊都會包含兩個組件,即多頭注意力 MHSA 和全連接層 FFN. 作者隨后便研究了如何在不增加模型大小和延遲的情況下提高注意模塊性能的技術(shù)。

首先,通過 3×3 的卷積將局部信息融入到 Value 矩陣中,這一步跟 NASVitInception transformer 一樣。

其次,在 Head 維度之間添加 FC 層(就圖中標(biāo)識的Talking Head),增強不同頭之間的信息交互。

通過這些修改,可以發(fā)現(xiàn)性能進一步提高了,與基線模型相比,準(zhǔn)確度達到了 80.8%,同時參數(shù)和延遲也基本保持一致。

Attention on Higher Resolution

加入注意力機制普遍都是能夠提升性能的。然而,將它應(yīng)用于高分辨率特征會降低端側(cè)的推理效率,因為它具有與空間分辨率成平方關(guān)系的時間復(fù)雜度。因此,作者僅在最后的 1/32 的空間分辨率下使用,而對于倒數(shù)的第二階段即 4 倍下采樣提出了另外一種 MHSA,這有助于將準(zhǔn)確率提高了 0.9% 同時加快推理效率。

先前的解決方案,例如 Cswin transformerSwin transformer 都是采用基于滑動窗口的方式去壓縮特征維度,又或者像 Next-vit 一樣直接將 KeysValues 矩陣進行下采樣壓縮,這些方法對于移動端部署并不是一個最佳的選擇。這里也不難理解,以 Swin transformer 為例,它在每個 stage 都需要進行復(fù)雜的窗口劃分和重新排序,所以這種基于 windows 的注意力是很難在移動設(shè)備上加速優(yōu)化的。而對于 Next-vit 來說表面上看雖然進行了壓縮,但整個 KeyValue 矩陣依舊需要全分辨率查詢矩陣(Query)來保持注意力矩陣乘法后的輸出分辨率。

本文方法的解決方案可以參考圖(d)和(e),整體思路是采用一個帶步長的注意力,實現(xiàn)上就是將所有的 QKV 均下采樣到固定的空間分辨率(這里是 1/32),并將注意力的輸出復(fù)原到原始分辨率以喂入下一層。(⊙o⊙)…,有點類似于把瓶頸層的思路又搬過來套。

Attention Downsampling

以往的下采樣方式大都是采用帶步長的卷積或者池化層直接進行的。不過最近也有一部分工作在探討 Transformer 模塊內(nèi)部的下采樣方式,如 LeViTUniNet 提出通過注意力機制將特征分辨率減半,從而更好的整合全局上下文來進感知下采樣。具體的做法也就是將 Query 中的 Token 數(shù)量減半,從而對注意力模塊的輸出進行壓縮。

說到這里不經(jīng)意間有個疑問,Token 數(shù)量減少多少才是合適?況且,如果我們直接就對所有的查詢矩陣進行降采樣的話,這對于較前的 stage 的特征提取是不利的,因為網(wǎng)絡(luò)的淺層更多的是提取諸如紋理、顏色、邊緣等 low-level 的信息,因此從經(jīng)驗上來看是需要保持更高分辨率的。

作者的方法是提出一種結(jié)合局部和全局上下文融合的組合策略,如上圖(f)所示。為了得到下采樣的查詢,采用池化層作為靜態(tài)局部下采樣,而 3×3 DWCONV 則作為可學(xué)習(xí)的局部下采樣,并將結(jié)果拼接起來并投影到查詢矩陣中。此外,注意力下采樣模塊殘差連接到一個帶步長的卷積以形成局部-全局方式,類似于下采樣瓶頸 或倒置瓶頸層。

Super-Network-Search

上面定義完基礎(chǔ)的網(wǎng)絡(luò)架構(gòu)后,作者又進一步的應(yīng)用了一種細(xì)粒度聯(lián)合搜索策略,具體算法步驟如下所示:

2946b952-7f5c-11ed-8abf-dac502259ad0.pngNAS

整體架構(gòu)沿用的是超網(wǎng)的結(jié)構(gòu)。

Conclusion

在這項工作中,作者全面研究混合視覺主干并驗證對于端側(cè)更加友好的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計。此外,基于確定的網(wǎng)絡(luò)結(jié)構(gòu),進一步提出了在大小和速度上的細(xì)粒度聯(lián)合搜索,并獲得了輕量級和推理速度超快的 EfficientFormerV2 模型。


		
			

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1713

    瀏覽量

    47346
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    6725

原文標(biāo)題:更快更強!EfficientFormerV2來了!一種新的輕量級視覺Transformer

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【CW32】uart_obj_fw 輕量級串口框架

    輕量級跨平臺串口通信框架,專為資源受限的嵌入式設(shè)備設(shè)計。單個對象RAM占用最小68字節(jié)左右(不算緩沖區(qū)),ROM占用1-2k字節(jié)左右,功能支持裁剪,資源占用小并不代表低性能,該庫參考了freeRTOS
    的頭像 發(fā)表于 09-29 18:02 ?7212次閱讀

    Crypto核心庫:顛覆傳統(tǒng)的數(shù)據(jù)安全輕量級加密方案

    傳統(tǒng)加密方案常陷入“安全與性能”的二元悖論。Crypto核心庫打破這僵局,通過輕量級架構(gòu)與算法優(yōu)化,實現(xiàn)加密解密的雙向突破:在保障銀行級安全的同時,將資源消耗壓縮至極致,讓數(shù)據(jù)安全“輕”裝上
    的頭像 發(fā)表于 08-04 14:44 ?461次閱讀
    Crypto核心庫:顛覆傳統(tǒng)的數(shù)據(jù)安全<b class='flag-5'>輕量級</b>加密方案

    基于米爾瑞芯微RK3576開發(fā)板部署運行TinyMaix:超輕量級推理框架

    本文將介紹基于米爾電子MYD-LR3576開發(fā)平臺部署超輕量級推理框架方案:TinyMaix 摘自優(yōu)秀創(chuàng)作者-短笛君 TinyMaix 是面向單片機的超輕量級的神經(jīng)網(wǎng)絡(luò)推理庫,即 TinyML
    發(fā)表于 07-25 16:35

    如何在RK3576開發(fā)板上運行TinyMaix :超輕量級推理框架--基于米爾MYD-LR3576開發(fā)板

    本文將介紹基于米爾電子MYD-LR3576開發(fā)平臺部署超輕量級推理框架方案:TinyMaix摘自優(yōu)秀創(chuàng)作者-短笛君TinyMaix是面向單片機的超輕量級的神經(jīng)網(wǎng)絡(luò)推理庫,即TinyML推理庫,可以
    的頭像 發(fā)表于 07-25 08:03 ?3858次閱讀
    如何在RK3576開發(fā)板上運行TinyMaix :超<b class='flag-5'>輕量級</b>推理框架--基于米爾MYD-LR3576開發(fā)板

    輕量級≠低效能:RK3506J核心板如何用性價比感動用戶?

    瑞芯微 RK3506J憑借多核異構(gòu)架構(gòu)設(shè)計與國產(chǎn)化供應(yīng)鏈整合,以輕量級硬件資源實現(xiàn)工業(yè)級性能輸出,重新定義了控制芯片的性價比邊界,為工業(yè)控制芯片領(lǐng)域帶來了全新的解決方案與發(fā)展方向。
    的頭像 發(fā)表于 06-17 09:20 ?2383次閱讀
    <b class='flag-5'>輕量級</b>≠低效能:RK3506J核心板如何用性價比感動用戶?

    一種新型激光雷達慣性視覺里程計系統(tǒng)介紹

    針對具有挑戰(zhàn)性的光照條件和惡劣環(huán)境,本文提出了LIR-LIVO,這是一種輕量級且穩(wěn)健的激光雷達-慣性-視覺里程計系統(tǒng)。通過采用諸如利用深度與激光雷達點云關(guān)聯(lián)實現(xiàn)特征的均勻深度分布等先進技術(shù),以及利用
    的頭像 發(fā)表于 04-28 11:18 ?656次閱讀
    <b class='flag-5'>一種</b>新型激光雷達慣性<b class='flag-5'>視覺</b>里程計系統(tǒng)介紹

    樹莓派替代臺式計算機?樹莓派上七款最佳的輕量級操作系統(tǒng)!

    替代臺式計算機。好吧,它可以,但您需要以下專為RaspberryPi設(shè)計的輕量級操作系統(tǒng)的幫助。注意:RaspberryPi市場上有許多不同的型號。對于本文,我們將
    的頭像 發(fā)表于 03-25 09:43 ?747次閱讀
    樹莓派替代臺式計算機?樹莓派上七款最佳的<b class='flag-5'>輕量級</b>操作系統(tǒng)!

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺內(nèi)容相關(guān)的自然語言。以下
    的頭像 發(fā)表于 03-17 15:32 ?6764次閱讀
    ?VLM(<b class='flag-5'>視覺</b>語言模型)?詳細(xì)解析

    一種新的通用視覺主干模型Vision Mamba

    CNN和Transformer常作為深度學(xué)習(xí)模型的首選基礎(chǔ)模塊,被應(yīng)用于各種場景,如文本、視覺、語音信號處理及其各種下游應(yīng)用。然而這兩個基礎(chǔ)模塊都有著其固有而互補的缺陷:CNN具有固定大小窗口的卷積
    的頭像 發(fā)表于 01-06 09:55 ?1987次閱讀
    <b class='flag-5'>一種</b>新的通用<b class='flag-5'>視覺</b>主干模型Vision Mamba

    華為Flexus云服務(wù)器搭建SamWaf開源輕量級網(wǎng)站防火墻

    在當(dāng)今數(shù)字化高速發(fā)展的時代,網(wǎng)絡(luò)安全問題日益凸顯。為了保障網(wǎng)站的穩(wěn)定運行和數(shù)據(jù)安全,我們可以借助華為 Flexus 云服務(wù)器搭建 SamWaf 開源輕量級網(wǎng)站防火墻。這不僅是次技術(shù)的挑戰(zhàn),更是為網(wǎng)站筑牢安全防線的重要舉措。
    的頭像 發(fā)表于 12-29 16:59 ?992次閱讀
    華為Flexus云服務(wù)器搭建SamWaf開源<b class='flag-5'>輕量級</b>網(wǎng)站防火墻

    部署輕量級任務(wù)管理工具DooTask

    云服務(wù)器是一種虛擬化的計算資源,它提供了一種按需獲取計算能力的方式。通過云服務(wù)器,我們可以輕松搭建和管理各種應(yīng)用,無需購買和維護物理服務(wù)器。云服務(wù)器具有彈性伸縮、高可用性、按需付費等特點,極大地簡化了 IT 基礎(chǔ)設(shè)施的管理。
    的頭像 發(fā)表于 12-29 10:03 ?1844次閱讀
    部署<b class='flag-5'>輕量級</b>任務(wù)管理工具DooTask

    華為云 Flexus X 實例部署安裝 HivisionIDPhoto 輕量級的 AI 證件照制作算法

    背景 最近有個開源項目非常火,就是 HivisionIDPhotos 輕量級的 AI 證件照制作算法 github 倉庫 https://github.com/Zeyi-Lin
    的頭像 發(fā)表于 12-25 17:08 ?1147次閱讀
    華為云 Flexus X 實例部署安裝 HivisionIDPhoto <b class='flag-5'>一</b>個<b class='flag-5'>輕量級</b>的 AI 證件照制作算法

    EEPROM輕量級的簡易類文件的數(shù)據(jù)讀寫庫:EEPROMFS

    小。 這里就給大家分享款EEPROM輕量級的簡易類文件的數(shù)據(jù)讀寫庫:EEPROMFS 1 關(guān)于EEPROMFS EEPROMFS,基于EEPROM的簡易類文件的數(shù)據(jù)讀寫庫,方便做動態(tài)功能增減時參數(shù)管理
    的頭像 發(fā)表于 11-15 16:31 ?1696次閱讀
    EEPROM<b class='flag-5'>輕量級</b>的簡易類文件的數(shù)據(jù)讀寫庫:EEPROMFS

    自動駕駛中直說的BEV+Transformer到底是個啥?

    (Bird’s Eye View)+Transformer”是兩個方向的技術(shù),BEV是一種全新的3D坐標(biāo)系,而Transformer則是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,BEV+
    的頭像 發(fā)表于 11-07 11:19 ?1871次閱讀
    自動駕駛中<b class='flag-5'>一</b>直說的BEV+<b class='flag-5'>Transformer</b>到底是個啥?

    智能體體機,大模型時代葉見菩提

    輕量級,懂客戶,讓智能體體機成為可靠選擇
    的頭像 發(fā)表于 10-25 18:00 ?2702次閱讀
    智能體<b class='flag-5'>一</b>體機,大模型時代<b class='flag-5'>一</b>葉見菩提