chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌發(fā)表論文EfficientNet 重新思考CNN模型縮放

DPVg_AI_era ? 來源:yxw ? 2019-06-03 14:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌AI研究部門華人科學家再發(fā)論文《EfficientNet:重新思考CNN模型縮放》,模型縮放的傳統(tǒng)做法是任意增加CNN的深度和寬度,或使用更大的輸入圖像分辨率進行訓練,而使用EfficientNet使用一組固定額縮放系數(shù)統(tǒng)一縮放每個維度,超越了當先最先進圖像識別網絡的準確率,效率提高了10倍,而且更小。

目前提高CNN精度的方法,主要是通過任意增加CNN深度或寬度,或使用更大的輸入圖像分辨率進行訓練和評估。

以固定的資源成本開發(fā),然后按比例放大,以便在獲得更多資源時實現(xiàn)更好的準確性。例如ResNet可以通過增加層數(shù)從ResNet-18擴展到ResNet-200。

再比如開源大規(guī)模神經網絡模型高效訓練庫GPipe,通過將基線CNN擴展四倍來實現(xiàn)84.3% ImageNet top-1精度。

這種方法的優(yōu)勢在于確實可以提高精度,但劣勢也很明顯。這個時候往往需要進行繁瑣的微調。一點點的摸黑去試、還經常的徒勞無功。這絕對不是一件能夠讓人身心愉快的事情,對于谷歌科學家們也一樣。

這就是為什么,谷歌人工智能研究部門的科學家們正在研究一種新的“更結構化”的方式,來“擴展”卷積神經網絡。他們給這個新的網絡命名為:EfficientNet(效率網絡)。

代碼已開源,論文剛剛上線arXiv,并將在6月11日,作為poster亮相ICML 2019。

比現(xiàn)有卷積網絡小84倍,比GPipe快6.1倍

為了理解擴展網絡的效果,谷歌的科學家系統(tǒng)地研究了縮放模型不同維度的影響。模型縮放并確定仔細平衡網絡深度后,發(fā)現(xiàn)只要對網絡的深度、寬度和分辨率進行合理地平衡,就能帶來更好的性能?;谶@一觀察,科學家提出了一種新的縮放方法,使用簡單但高效的復合系數(shù)均勻地縮放深度、寬度和分辨率的所有尺寸。

據悉,EfficientNet-B7在ImageNet上實現(xiàn)了最先進精度的84.4% Top 1/97.1% Top 5,同時比最好的現(xiàn)有ConvNet小84倍,推理速度快6.1倍;在CIFAR-100(91.7%),F(xiàn)lower(98.8%)和其他3個遷移學習數(shù)據集上,也能很好地傳輸和實現(xiàn)最先進的精度。參數(shù)減少一個數(shù)量級,效率卻提高了10倍(更小,更快)。

與流行的ResNet-50相比,另一款EfficientNet-B4使用了類似的FLOPS,同時將ResNet-50的最高精度從76.3%提高到82.6%。

這么優(yōu)秀的成績是如何做到的

這種復合縮放方法的第一步是執(zhí)行網格搜索,在固定資源約束下找到基線網絡的不同縮放維度之間的關系(例如,2倍FLOPS),這樣做的目的是為了找出每個維度的適當縮放系數(shù)。然后應用這些系數(shù),將基線網絡擴展到所需的目標模型大小或算力預算。

與傳統(tǒng)的縮放方法相比,這種復合縮放方法可以持續(xù)提高擴展模型的準確性和效率,和傳統(tǒng)方法對比結果:MobileNet(+ 1.4% imagenet精度),ResNet(+ 0.7%)。

新模型縮放的有效性,很大程度上也依賴基線網絡。

為了進一步提高性能,研究團隊還通過使用AutoML MNAS框架執(zhí)行神經架構搜索來開發(fā)新的基線網絡,該框架優(yōu)化了準確性和效率(FLOPS)。

由此產生的架構使用移動倒置瓶頸卷積(MBConv),類似于MobileNetV2和MnasNet,但由于FLOP預算增加而略大。然后,通過擴展基線網絡以獲得一系列模型,被稱為EfficientNets。

不僅局限于ImageNet

EfficientNets在ImageNet上的良好表現(xiàn),讓谷歌的科學家希望將其應用于更廣泛的網絡中,造福更多的人。

在8個廣泛使用的遷移學習數(shù)據集上測試之后,EfficientNet在其中的5個網絡實現(xiàn)了最先進的精度。例如,在參數(shù)減少21倍的情況下,實現(xiàn)了CIFAR-100(91.7%)和Flowers(98.8%)。

看到這樣的結果,谷歌科學家預計EfficientNet可能成為未來計算機視覺任務的新基礎,因此將EfficientNet開源。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6244

    瀏覽量

    110258
  • AI
    AI
    +關注

    關注

    89

    文章

    38091

    瀏覽量

    296589
  • cnn
    cnn
    +關注

    關注

    3

    文章

    355

    瀏覽量

    23248

原文標題:谷歌出品EfficientNet:比現(xiàn)有卷積網絡小84倍,比GPipe快6.1倍

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    模型中常提的快慢思考會對自動駕駛產生什么影響?

    提出的“快慢系統(tǒng)”理論啟發(fā),旨在讓自動駕駛系統(tǒng)模擬人類的思考與決策過程。理想汽車結合端到端與VLM模型,推出了業(yè)界首個在車端部署的雙系統(tǒng)方案,并成功將VLM視覺語言模型部署于車端芯片上。這套“系統(tǒng)1”與“系統(tǒng)2”相互配合的擬人化
    的頭像 發(fā)表于 11-22 10:59 ?2269次閱讀
    大<b class='flag-5'>模型</b>中常提的快慢<b class='flag-5'>思考</b>會對自動駕駛產生什么影響?

    CNN卷積神經網絡設計原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網絡粗略分共有7層,細分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取特征?!安蝗?/div>
    發(fā)表于 10-29 07:49

    構建CNN網絡模型并優(yōu)化的一般化建議

    通過實踐,本文總結了構建CNN網絡模型并優(yōu)化的一般化建議,這些建議將會在構建高準確率輕量級CNN神經網絡模型方面提供幫助。 1)避免單層神經網絡:我們清楚神經網絡本身是需要不斷抽象出
    發(fā)表于 10-28 08:02

    谷歌AlphaEarth和維智時空AI大模型的核心差異

    谷歌AlphaEarth和維智時空AI大模型在技術理念上存在諸多共性,但兩者在目標尺度、數(shù)據來源、技術實現(xiàn)和應用模式上存在顯著差異。
    的頭像 發(fā)表于 10-22 14:50 ?520次閱讀

    谷歌AlphaEarth和維智時空AI大模型的技術路徑

    谷歌AlphaEarth和維智時空AI大模型在應用場景和技術實現(xiàn)上各有側重,但兩者在底層技術理念上存在顯著共性。
    的頭像 發(fā)表于 10-22 14:48 ?597次閱讀

    模型時代的深度學習框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費類顯卡上即可完成訓練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,
    的頭像 發(fā)表于 04-25 11:43 ?654次閱讀
    大<b class='flag-5'>模型</b>時代的深度學習框架

    CoT 數(shù)據集如何讓大模型學會一步一步思考?

    目前,大模型的回答路徑基本遵循 input-output 的方式,在面對復雜任務時表現(xiàn)不佳。反之,人類會遵循一套有條理的思維流程,逐步推理得出正確答案。這種差異促使人們深入思考:如何才能讓大模型“智能涌現(xiàn)”,學會像人類一樣“一步
    的頭像 發(fā)表于 04-24 16:51 ?1039次閱讀
    CoT 數(shù)據集如何讓大<b class='flag-5'>模型</b>學會一步一步<b class='flag-5'>思考</b>?

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項。 ? 在核心亮點層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設計的 TPU 芯片,能夠有力支持大規(guī)模思考
    的頭像 發(fā)表于 04-12 00:57 ?3206次閱讀

    無法轉換TF OD API掩碼RPGA模型怎么辦?

    無法轉換重新訓練的 TF OD API 掩碼 RPGA 模型,該模型使用以下命令在 GPU 上工作: mo > --saved_model_dir
    發(fā)表于 03-06 06:44

    美報告:中國芯片研究論文全球領先

    據新華社報道,美國喬治敦大學“新興技術觀察項目(ETO)”3日在其網站發(fā)布一份報告說,2018年至2023年間,在全球發(fā)表的芯片設計和制造相關論文中,中國研究人員的論文數(shù)量遠超其他國家,中國在高被
    的頭像 發(fā)表于 03-05 14:32 ?1719次閱讀

    DeepSeek發(fā)表重磅論文!推出NSA技術,讓AI模型降本增效

    這是自1月20日DeepSeek發(fā)布R1模型震撼AI圈以來,DeepSeek首次發(fā)布的技術動態(tài)。
    的頭像 發(fā)表于 02-19 10:22 ?2127次閱讀
    DeepSeek<b class='flag-5'>發(fā)表</b>重磅<b class='flag-5'>論文</b>!推出NSA技術,讓AI<b class='flag-5'>模型</b>降本增效

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    谷歌旗下 AI 大模型 Gemini 系列全面上新,正式版 Gemini 2.0 Flash、Gemini 2.0 Flash-Lite 以及新一代旗艦大模型 Gemini 2.0 Pro 實驗
    的頭像 發(fā)表于 02-07 15:07 ?1083次閱讀

    借助谷歌Gemini和Imagen模型生成高質量圖像

    在快速發(fā)展的生成式 AI 領域,結合不同模型的優(yōu)勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細且富有創(chuàng)意的提示,然后使用 Imagen 3 模型根據這些提示生成高質
    的頭像 發(fā)表于 01-03 10:38 ?1335次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen<b class='flag-5'>模型</b>生成高質量圖像

    Kimi發(fā)布視覺思考模型k1,展現(xiàn)卓越基礎科學能力

    近日,Kimi公司正式發(fā)布了其最新的視覺思考模型——k1。這款模型基于先進的強化學習技術構建,原生支持端到端的圖像理解和思維鏈技術,為用戶提供了全新的視覺思考體驗。 k1
    的頭像 發(fā)表于 12-17 09:59 ?1075次閱讀

    谷歌發(fā)布Gemini 2.0 AI模型

    谷歌近日正式推出了新一代AI模型——Gemini 2.0。此次更新引入了名為“深度研究”的新特性,旨在為用戶提供更加全面和深入的復雜主題探索與報告撰寫輔助。 Gemini 2.0通過高級推理和長上
    的頭像 發(fā)表于 12-12 10:13 ?967次閱讀