chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌AI新方法可提升10倍圖像識別效率 關(guān)鍵還簡單易用

hl5C_deeptechch ? 來源:yxw ? 2019-06-06 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在開發(fā)以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心的機器學(xué)習(xí)模型時,我們通常會先使用固定的資源成本,構(gòu)建最初的模型,然后增加更多資源(層數(shù))擴展模型,從而獲得更高的準(zhǔn)確率。

著名的 CNN 模型 ResNet(深度殘差網(wǎng)絡(luò)),就可以用增加層數(shù)的方法從ResNet-18 擴展到 ResNet-200。谷歌的 GPipe 模型也通過將基線 CNN 擴展 4 倍,在 ImageNet 數(shù)據(jù)庫上達到84.3% 的準(zhǔn)確率,力壓所有模型。

一般來說,模型的擴大和縮小都是任意增加 CNN 的深度或?qū)挾?,抑或是使用分辨率更大的圖像進行訓(xùn)練和評估。雖然這些傳統(tǒng)方法提高準(zhǔn)確率的效果不錯,但大多需要繁瑣的手動調(diào)整,還可能無法達到最佳性能。

因此,谷歌AI團隊最近提出了新的模型縮放方法“復(fù)合縮放(CompoundScaling)”和配套的EfficientNet 模型。他們使用復(fù)合系數(shù)和 AutoML 從多個維度均衡縮放 CNN,綜合考慮深度和寬度等參數(shù),而不是只單純地考慮一個,使得模型的準(zhǔn)確率和效率大幅提升,圖像識別的效率甚至可以大幅提升 10 倍。

這項新方法的根本優(yōu)勢在于實踐起來非常簡單,背后的原理很好理解,甚至讓人懷疑為什么沒有被更早發(fā)現(xiàn)。該研究成果以論文的形式被 ICML2019(國際機器學(xué)習(xí)大會)接收,名為 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks。EfficientNet 模型的相關(guān)代碼和 TPU 訓(xùn)練數(shù)據(jù)也已經(jīng)在 GitHub 上開源。

尋找復(fù)合系數(shù)

為了弄清楚神經(jīng)網(wǎng)絡(luò)縮放之后的效果,谷歌團隊系統(tǒng)地研究了改變不同維度對模型的影響,維度參數(shù)包括網(wǎng)絡(luò)深度、寬度和圖像分辨率。

首先他們進行了柵格搜索(GridSearch)。這是一種窮舉搜索方法,可以在固定資源的限定下,列出所有參數(shù)之間的關(guān)系,顯示出改變某一種維度時,基線網(wǎng)絡(luò)模型會受到什么樣的影響。換句話說,如果只改變了寬度、深度或分辨率,模型的表現(xiàn)會發(fā)生什么變化。

圖 |以基線網(wǎng)絡(luò)為基礎(chǔ),列出所有維度變化對模型的影響

綜合考慮所有情況之后,他們確定了每個維度最合適的調(diào)整系數(shù),然后將它們一同應(yīng)用到基線網(wǎng)絡(luò)中,對每個維度都進行適當(dāng)?shù)目s放,并且確保其符合目標(biāo)模型的大小和計算預(yù)算。

簡單來說,就是分別找到寬度、深度和分辨率的最佳系數(shù),然后將它們組合起來一起放入原本的網(wǎng)絡(luò)模型中,對每一個維度都有所調(diào)整。從整體的角度縮放模型。

與傳統(tǒng)方法相比,這種復(fù)合縮放法可以持續(xù)提高模型的準(zhǔn)確性和效率。在現(xiàn)有模型 MobileNet 和 ResNet 上的測試結(jié)果顯示,它分別提高了 1.4% 和 0.7% 的準(zhǔn)確率。

高效的網(wǎng)絡(luò)架構(gòu)和性能

縮放模型的有效性也依賴于基線網(wǎng)絡(luò)(架構(gòu))本身。

因為,為了進一步提高性能,谷歌 AI 團隊還使用了 AutoMLMNAS 框架進行神經(jīng)架構(gòu)搜索,優(yōu)化準(zhǔn)確性和效率。AutoML 是一種可以自動設(shè)計神經(jīng)網(wǎng)絡(luò)的技術(shù),由谷歌團隊在 2017 年提出,而且經(jīng)過了多次優(yōu)化更新。使用這種技術(shù)可以更簡便地創(chuàng)造神經(jīng)網(wǎng)絡(luò)。

由此產(chǎn)生的架構(gòu)使用了移動倒置瓶頸卷積(MBConv),類似于 MobileNetV2 和 MnasNet 模型,但由于計算力(FLOPS)預(yù)算增加,MBConv 模型體積略大。隨后他們多次縮放了基線網(wǎng)絡(luò),組成了一系列模型,統(tǒng)稱為EfficientNets。

圖 |EfficientNet-B0 基線網(wǎng)絡(luò)架構(gòu)

為了測試其性能,研究人員與 ImageNet 上的其他現(xiàn)有 CNN 進行了比較。結(jié)果顯示,EfficientNet 在大多數(shù)情況下表現(xiàn)亮眼,比現(xiàn)有 CNN 的準(zhǔn)確率和效率都高,還將參數(shù)大小和計算力降低了一個數(shù)量級。

比如 EfficientNet-B7 在 ImageNet 上達到的 Top-1 最高準(zhǔn)確率是 84.4%,Top-5 準(zhǔn)確率是 97.1%。在 CPU 推理上,它的體積比最好的 CNN 模型 GPipe 小 8.4 倍,但速度快了 6.1 倍。與廣泛使用的 ResNet-50 相比,EfficientNet-B4 使用了類似的計算力,但 Top-1 準(zhǔn)確率從 76.3% 提升到了 82.6%。

圖 |參數(shù)使用量和 ImageNetTop-1 準(zhǔn)確率對比

此外,EfficientNets 不僅在 ImageNet 上表現(xiàn)出眾,其能力還可以轉(zhuǎn)移到其它數(shù)據(jù)集上。

他們在 8 個流行的遷移學(xué)習(xí)數(shù)據(jù)集上測試了 EfficientNets。結(jié)果顯示,它在其中的 5 個上面都拿到了頂尖成績,例如在 CIFAR-100 上獲得了 91.7% 的成績,在 Flowers 上獲得了 98.8% 的成績,而且參數(shù)至少減少了一個數(shù)量級,甚至還可以最多減少 21 倍,說明 EfficientNets 具有很強的遷移能力。

谷歌 AI 團隊認(rèn)為,EfficientNets 有望憑借簡單易操作的特點,成為未來計算機視覺任務(wù)的新基石。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108142
  • 圖像識別
    +關(guān)注

    關(guān)注

    9

    文章

    527

    瀏覽量

    39115
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    279933

原文標(biāo)題:谷歌 AI 新方法:可提升 10 倍圖像識別效率,關(guān)鍵還簡單易用

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    火車車號圖像識別系統(tǒng)如何應(yīng)對不同光照條件下的識別問題?

    在鐵路運輸管理中,準(zhǔn)確識別火車車號是實現(xiàn)自動化車輛管理的關(guān)鍵環(huán)節(jié)。然而,實際應(yīng)用場景中復(fù)雜多變的光照條件給車號識別帶來了巨大挑戰(zhàn)?,F(xiàn)代火車車號圖像識別系統(tǒng)通過多項技術(shù)創(chuàng)新,有效解決了這
    的頭像 發(fā)表于 07-15 11:37 ?125次閱讀
    火車車號<b class='flag-5'>圖像識別</b>系統(tǒng)如何應(yīng)對不同光照條件下的<b class='flag-5'>識別</b>問題?

    【嘉楠堪智K230開發(fā)板試用體驗】01 Studio K230開發(fā)板Test2——手掌,手勢檢測,字符檢測

    K210 的 13.7 以上,同時保持高計算效率(利用率超過 70%)。這意味著它能處理更復(fù)雜模型或更多并發(fā)任務(wù)。 KPU 是 CanMV K230 的專用視覺處理引擎,賦予開發(fā)板強大的實時圖像識別
    發(fā)表于 07-10 09:45

    無刷直流電機反電勢過零檢測新方法

    新方法。在三相采樣等效電路上分別并聯(lián)一組三極管控制的電阻分壓開關(guān)電路,參考電機轉(zhuǎn)速線性調(diào)節(jié)控制信號占空比,以此控制三極管通斷,從而調(diào)節(jié)電阻分樂開關(guān)電路阻值,可以避免高速時反電勢幅值高于檢測電路供電電壓
    發(fā)表于 06-26 13:50

    AI視覺識別收銀稱:水果生鮮店的“智能店員”

    僅耗時費力,容易出現(xiàn)人為錯誤。而生鮮自動識別稱重收銀一體機、AI視覺識別收銀秤、生鮮稱重收銀秤和AI生鮮
    的頭像 發(fā)表于 06-07 10:19 ?139次閱讀
    <b class='flag-5'>AI</b>視覺<b class='flag-5'>識別</b>收銀稱:水果生鮮店的“智能店員”

    手持終端集裝箱識別系統(tǒng)的圖像識別技術(shù)

    行業(yè)提供了更靈活、精準(zhǔn)的管理工具。 一、技術(shù)核心:OCR+AI深度融合 現(xiàn)代手持終端系統(tǒng)采用多模態(tài)圖像識別技術(shù),結(jié)合深度學(xué)習(xí)算法,快速捕捉并解析集裝箱號碼。其技術(shù)優(yōu)勢體現(xiàn)在: 1. 復(fù)雜環(huán)境適應(yīng)性:通過動態(tài)曝光補償和
    的頭像 發(fā)表于 04-03 10:49 ?297次閱讀

    岸橋箱號識別系統(tǒng)如何工作?揭秘AI圖像識別技術(shù)!

    在港口自動化升級的浪潮中,AI岸橋識別系統(tǒng)憑借前沿的圖像識別技術(shù),成為提升碼頭作業(yè)效率的“智慧之眼”。那么,這套系統(tǒng)如何實現(xiàn)集裝箱信息的精準(zhǔn)
    的頭像 發(fā)表于 04-02 09:45 ?260次閱讀

    谷歌正式發(fā)布Gemini 2.0 性能提升近兩

    2.0在關(guān)鍵基準(zhǔn)測試中相比前代產(chǎn)品Gemini 1.5 Pro的性能提升了近兩。該模型支持圖像、視頻和音頻等多種輸入與輸出形式,例如可以實現(xiàn)文本與
    的頭像 發(fā)表于 12-12 14:22 ?824次閱讀

    高幀頻圖像識別反無人機 慧視有辦法!

    無人機的迅猛發(fā)展,使得無人機的反制技術(shù)也水漲船高,常見的有電子干擾、無人機識別對抗等。前者通過發(fā)射特定頻率的無線電波對無人機的通信鏈路、控制信號實施干擾。后者采用圖像識別技術(shù),通過在無人機微型攝像頭
    的頭像 發(fā)表于 12-04 01:06 ?604次閱讀
    高幀頻<b class='flag-5'>圖像識別</b>反無人機   慧視有辦法!

    AI圖像識別攝像機

    隨著科技的迅猛發(fā)展,人工智能(AI)在各個領(lǐng)域的應(yīng)用越來越廣泛,其中圖像識別技術(shù)尤為引人注目。AI圖像識別攝像機作為這一技術(shù)的重要應(yīng)用之一,正在逐步改變我們的生活和工作方式。什么是
    的頭像 發(fā)表于 11-08 10:38 ?874次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>圖像識別</b>攝像機

    AI大模型在圖像識別中的優(yōu)勢

    大模型借助高性能的計算硬件和優(yōu)化的算法,能夠在短時間內(nèi)完成對大量圖像數(shù)據(jù)的處理和分析,顯著提高了圖像識別效率。 識別準(zhǔn)確性 :通過深度學(xué)習(xí)和計算機視覺技術(shù),
    的頭像 發(fā)表于 10-23 15:01 ?2437次閱讀

    【飛凌嵌入式OK3576-C開發(fā)板體驗】RKNPU圖像識別測試

    和突觸的處理器,特別擅長處理人工智能任務(wù),能夠大大降低CPU和GPU的負(fù)擔(dān)。 功能 :RKNPU負(fù)責(zé)處理需要高計算性能的人工智能任務(wù),如圖像識別、語音識別、自然語言處理等,從而提升設(shè)備的智能化水平
    發(fā)表于 10-10 09:27

    保護4-20 mA,±20-mA模擬輸入的新方法

    電子發(fā)燒友網(wǎng)站提供《保護4-20 mA,±20-mA模擬輸入的新方法.pdf》資料免費下載
    發(fā)表于 09-24 09:27 ?0次下載
    保護4-20 mA,±20-mA模擬輸入的<b class='flag-5'>新方法</b>

    基于迅為RK3568/RK3588開發(fā)板的AI圖像識別方案

    https://www.bilibili.com/video/BV1G54y1A7nf/?spm_id_from=333.999.0.0 迅為RK3568/RK3588開發(fā)板AI識別演示方案,包括
    發(fā)表于 08-28 09:50

    實踐JLink 7.62手動增加新MCU型號支持新方法

    大家好,我是痞子衡,是正經(jīng)搞技術(shù)的痞子。今天痞子衡給大家分享的是實踐JLink 7.62手動增加新MCU型號支持新方法
    的頭像 發(fā)表于 08-08 15:25 ?1402次閱讀
    實踐JLink 7.62手動增加新MCU型號支持<b class='flag-5'>新方法</b>

    一種無透鏡成像的新方法

    透鏡成像形式,它使用掃描光束收集散射光進行圖像重建,面臨著周期性樣品的挑戰(zhàn)。為了研究微電子或光子元件中的納米級圖案,一種基于無透鏡成像的新方法可以實現(xiàn)近乎完美的高分辨率顯微鏡。這在波長短于紫外線時尤為重要,其成像空間分辨率高于
    的頭像 發(fā)表于 07-19 06:20 ?768次閱讀
    一種無透鏡成像的<b class='flag-5'>新方法</b>