chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

效率網(wǎng)絡(luò):比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:YXQ ? 2019-06-04 11:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌AI研究部門華人科學家再發(fā)論文《EfficientNet:重新思考CNN模型縮放》,模型縮放的傳統(tǒng)做法是任意增加CNN的深度和寬度,或使用更大的輸入圖像分辨率進行訓練,而使用EfficientNet使用一組固定額縮放系數(shù)統(tǒng)一縮放每個維度,超越了當先最先進圖像識別網(wǎng)絡(luò)的準確率,效率提高了10倍,而且更小。

目前提高CNN精度的方法,主要是通過任意增加CNN深度或?qū)挾龋蚴褂酶蟮妮斎雸D像分辨率進行訓練和評估。

以固定的資源成本開發(fā),然后按比例放大,以便在獲得更多資源時實現(xiàn)更好的準確性。例如ResNet可以通過增加層數(shù)從ResNet-18擴展到ResNet-200。

再比如開源大規(guī)模神經(jīng)網(wǎng)絡(luò)模型高效訓練庫GPipe,通過將基線CNN擴展四倍來實現(xiàn)84.3% ImageNet top-1精度。

這種方法的優(yōu)勢在于確實可以提高精度,但劣勢也很明顯。這個時候往往需要進行繁瑣的微調(diào)。一點點的摸黑去試、還經(jīng)常的徒勞無功。這絕對不是一件能夠讓人身心愉快的事情,對于谷歌科學家們也一樣。

這就是為什么,谷歌人工智能研究部門的科學家們正在研究一種新的“更結(jié)構(gòu)化”的方式,來“擴展”卷積神經(jīng)網(wǎng)絡(luò)。他們給這個新的網(wǎng)絡(luò)命名為:EfficientNet(效率網(wǎng)絡(luò))。

代碼已開源,論文剛剛上線arXiv,并將在6月11日,作為poster亮相ICML 2019。

比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

為了理解擴展網(wǎng)絡(luò)的效果,谷歌的科學家系統(tǒng)地研究了縮放模型不同維度的影響。模型縮放并確定仔細平衡網(wǎng)絡(luò)深度后,發(fā)現(xiàn)只要對網(wǎng)絡(luò)的深度、寬度和分辨率進行合理地平衡,就能帶來更好的性能?;谶@一觀察,科學家提出了一種新的縮放方法,使用簡單但高效的復(fù)合系數(shù)均勻地縮放深度、寬度和分辨率的所有尺寸。

據(jù)悉,EfficientNet-B7在ImageNet上實現(xiàn)了最先進精度的84.4% Top 1/97.1% Top 5,同時比最好的現(xiàn)有ConvNet小84倍,推理速度快6.1倍;在CIFAR-100(91.7%),F(xiàn)lower(98.8%)和其他3個遷移學習數(shù)據(jù)集上,也能很好地傳輸和實現(xiàn)最先進的精度。參數(shù)減少一個數(shù)量級,效率卻提高了10倍(更小,更快)。

與流行的ResNet-50相比,另一款EfficientNet-B4使用了類似的FLOPS,同時將ResNet-50的最高精度從76.3%提高到82.6%。

這么優(yōu)秀的成績是如何做到的

這種復(fù)合縮放方法的第一步是執(zhí)行網(wǎng)格搜索,在固定資源約束下找到基線網(wǎng)絡(luò)的不同縮放維度之間的關(guān)系(例如,2倍FLOPS),這樣做的目的是為了找出每個維度的適當縮放系數(shù)。然后應(yīng)用這些系數(shù),將基線網(wǎng)絡(luò)擴展到所需的目標模型大小或算力預(yù)算。

與傳統(tǒng)的縮放方法相比,這種復(fù)合縮放方法可以持續(xù)提高擴展模型的準確性和效率,和傳統(tǒng)方法對比結(jié)果:MobileNet(+ 1.4% imagenet精度),ResNet(+ 0.7%)。

新模型縮放的有效性,很大程度上也依賴基線網(wǎng)絡(luò)。

為了進一步提高性能,研究團隊還通過使用AutoML MNAS框架執(zhí)行神經(jīng)架構(gòu)搜索來開發(fā)新的基線網(wǎng)絡(luò),該框架優(yōu)化了準確性和效率(FLOPS)。

由此產(chǎn)生的架構(gòu)使用移動倒置瓶頸卷積(MBConv),類似于MobileNetV2和MnasNet,但由于FLOP預(yù)算增加而略大。然后,通過擴展基線網(wǎng)絡(luò)以獲得一系列模型,被稱為EfficientNets。

不僅局限于ImageNet

EfficientNets在ImageNet上的良好表現(xiàn),讓谷歌的科學家希望將其應(yīng)用于更廣泛的網(wǎng)絡(luò)中,造福更多的人。

在8個廣泛使用的遷移學習數(shù)據(jù)集上測試之后,EfficientNet在其中的5個網(wǎng)絡(luò)實現(xiàn)了最先進的精度。例如,在參數(shù)減少21倍的情況下,實現(xiàn)了CIFAR-100(91.7%)和Flowers(98.8%)。

看到這樣的結(jié)果,谷歌科學家預(yù)計EfficientNet可能成為未來計算機視覺任務(wù)的新基礎(chǔ),因此將EfficientNet開源。

華人做出了重要貢獻

論文的兩位作者,都和中國有關(guān)。

第一作者是谷歌的高級軟件工程師Mingming Tan,北大博士,在康奈爾大學獲得博士后學位。

第二作者Quoc V. Le現(xiàn)在是谷歌的一名軟件工程師,在斯坦福獲得博士學位,師從著名的人工智能領(lǐng)袖吳恩達。

他在越南農(nóng)村長大,會英語、普通話、吳語和廣東話。小時候家里連電都沒有。但他住的地方附近有一個圖書館。Le在圖書館里,如饑似渴的閱讀那些偉大發(fā)明,小小年紀便夢想有朝一日自己的名字,也能銘刻在人類偉大發(fā)明家名人堂上。

14歲的時候,他就幻想一個足夠聰明的機器能夠幫助人類。這個幻想讓他走上了人工智能的道路。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108136
  • 卷積網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    43

    瀏覽量

    2546

原文標題:谷歌出品EfficientNet:比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    電源抑制

    .   輸出電壓誤差的計算方法如同電壓失衡與漂移的計算方法.外部電源的調(diào)整率會以電源抑制的形式直接轉(zhuǎn)變成運算放大器網(wǎng)絡(luò)的輸出誤差. 對于高質(zhì)量的D/A轉(zhuǎn)換器,要求開關(guān)電路及運算放大器所用的電源電壓
    發(fā)表于 04-08 13:30

    如何使用MATLAB實現(xiàn)一維時間卷積網(wǎng)絡(luò)

    本文對一維卷積操作進行介紹,包括一維擴展卷積和一維因果卷積,以及 MATLAB 對一維卷積的支持情況。在最后通過一個實例演示如何在 MATLAB 中將一維
    的頭像 發(fā)表于 03-07 09:15 ?1082次閱讀
    如何使用MATLAB實現(xiàn)一維時間<b class='flag-5'>卷積</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)
    的頭像 發(fā)表于 02-12 15:53 ?666次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學習技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運而生,為研究人員和開發(fā)者提供了強大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?670次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個復(fù)雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù)
    的頭像 發(fā)表于 11-15 15:10 ?1207次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強大的模型,在圖像識別和語音處理等領(lǐng)域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?806次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學習領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)
    的頭像 發(fā)表于 11-15 14:53 ?1869次閱讀

    深度學習中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學習近年來在多個領(lǐng)域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學習的一個分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?845次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks
    的頭像 發(fā)表于 11-15 14:47 ?1781次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來越多地支持以前無法實現(xiàn)或者難以實現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對人工智能和機器學習的意義。CNN是一種能夠從復(fù)雜數(shù)據(jù)中提
    發(fā)表于 10-24 13:56

    6G測試速度達938Gbps,5G速度5000

    智能手機網(wǎng)絡(luò)連接速度的5000。典型的5G運行速度約為200Mbps,而在實際使用中,由于信號連接問題,其提供的速度往往遠低于100Mbps。
    的頭像 發(fā)表于 10-22 16:27 ?1251次閱讀

    壓整流的缺點有哪些

    壓整流是一種直流電源電路,它通過將交流電壓的峰值疊加起來,以產(chǎn)生一個原始交流電壓峰值更高的直流電壓。這種電路在某些應(yīng)用中非常有用,例如在需要高電壓但電流需求不大的場合。然而,壓整流電路也有一些
    的頭像 發(fā)表于 10-09 11:11 ?1409次閱讀

    壓電路電容要一樣大嗎

    壓電路是一種利用電容器的充放電特性來增加輸出電壓的電路。在壓電路中,電容器的容量大小對于電路的性能和效率有很大的影響。 1. 壓電路的基本原理
    的頭像 發(fā)表于 10-09 10:57 ?1166次閱讀

    spark為什么mapreduce?

    spark為什么mapreduce? 首先澄清幾個誤區(qū): 1:兩者都是基于內(nèi)存計算的,任何計算框架都肯定是基于內(nèi)存的,所以網(wǎng)上說的spark是基于內(nèi)存計算所以,顯然是錯誤的 2;DAG計算模型
    的頭像 發(fā)表于 09-06 09:45 ?516次閱讀

    使用LM7171做非反向放大,為什么輸出的訊號設(shè)計的放大11?

    我使用LM7171做非反向放大,輸入訊號為0~3.3V方波,頻率10MHz,放大倍率11(G=1+(R1/R2)),OPA操作電壓0-36V,負載分別掛50歐姆及100歐姆,為什么輸出的訊號
    發(fā)表于 08-19 06:15