chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

MIT韓松團隊開發(fā)全新微型深度學習技術MCUNet

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2020-12-04 14:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

MCUNet能夠把深度學習單片機上做到 ImageNet 70% 以上的準確率,我們的研究表明,在物聯(lián)網設備上在線進行小資源機器學習的時代正在到來。”

近日,MIT 電子工程和計算機科學系助理教授韓松告訴 DeepTech,他所帶領的團隊解決了此前由于單片機硬件資源的限制無法在物聯(lián)網設備上的進行微型機器學習的難題。

今年 7 月,韓松團隊發(fā)表的論文 “MCUNet: Tiny Deep Learning on IoT Devices” 中提出了 MCUNet 方案,可以通過高效的網絡架構搜索(TinyNAS)和輕量推理引擎(TinyEngine)的聯(lián)合設計,實現在 MCU(Microcontroller Unit 微控制單元,又稱單片機)上運行 ImageNet 級別的推理。該論文第一作者林己在接受 DeepTech 采訪時表示,“我們發(fā)現,用我們的 MCUNet 方案,基本上相對輕量級的應用,在手機上跑得比較快的應用,都可以部署到單片機上?!?/p>

該論文顯示,相比谷歌的 TF-Lite Micro 與 ARM 的 CMSIS-NN 的傳統(tǒng)方案,使用 MCUNet 進行學習推理所需要的內存可以減少為原來的 29%,同時推理速度能夠提升 1.7-3.3 倍。

據了解,上述論文已入選今年的 AI 頂會 NeurIPS Spotlight,將在 12 月初進行線上分享探討活動。

更讓人興奮的是,NeurIPS 舉行前夕,林己告訴 DeepTech,論文發(fā)表后,團隊對 MCUNet 方案進行了再度優(yōu)化,實現了運行使用內存縮減的同時推理速度的再提升。

DeepTech 了解到,目前,MCUNet 技術已與三家公司達成合作,同時更多公司表達了合作意向。

目前該技術大多用于語音或者視覺的關鍵詞檢測。語音檢測如大家熟悉的 Siri 以及 OK Google 之類;在視覺關鍵詞檢測方面,林己舉例說,比如人物識別應用中,可以先使用基于 MCUNet 方案低功耗、低成本的硬件檢測攝像頭前是否有人,檢測結果顯示有人之后,再去開啟強大的、能耗高的下一級 AI 系統(tǒng)。如此一來,可以實現整個設備在能耗較低的待機狀態(tài)下隨時準備激活的效果,降低成本的同時,保持系統(tǒng)的高效工作。

MCUNet 實現 IoT 設備上的微型機器學習

一直以來,深度學習在 IoT 微型設備上的運行難點在于,單片機的硬件資源限制。因為單片機的內存資源僅為手機、GPU 的幾千分之一,這導致原本在手機和 GPU 上能夠完美運行的 AI 方案,根本無法放入單片機中(模型大小過大),運行就更是別想(activation過大)。先前的模型壓縮、網絡設計相關工作,主要是優(yōu)化減小神經網絡的計算量或者模型大小,沒有考慮到運行時神經網絡的 activation 大小,這導致優(yōu)化過的神經網絡也難以滿足單片機的資源限制。

對此,韓松團隊開發(fā)的 MCUNet 方案,采用 TinyNAS 和 TinyEngine 結合的方式,能夠合理規(guī)劃單片機上僅有的內存,并進行高效的推理運算。

其中,TinyNAS 需要通過兩個步驟完成對單片機有限的空間進行合理規(guī)劃,以達到提升最終模型精確度的目的。

第一步,自動搜索神經網絡空間來適配不同硬件的資源限制,找到可以滿足硬件資源限制的最高精度的搜索空間;第二步,根據不同搜索空間中神經網絡計算量的分布,選擇特定單片機的自由搜索空間進行網絡架構的搜索。

搜索空間時,需要輸入分辨率和網絡寬度進行搜索。大概有 108 個可能的搜索空間配置,每個搜索空間配置包含 3.3×1025個子網絡。

韓松團隊認為,在內存約束下更有可能生成高 FLOPS 模型的設計空間可以提供更高的模型容量,因此有可能實現高精度。對比紅色和黑色,使用紅色空間進行神經體系結構搜索可達到 78.7% 的最終精度,而黑色空間則為 74.2%(在 ImageNet 100 上)。

圖 | TinyNAS 通過分析不同搜索空間的 FLOP CDF 來選擇最佳搜索空間

經過 TinyNAS 的優(yōu)化,確保單片機在硬件資源最佳分配的狀態(tài)下使用 TinyEngine 展開推理運算。

在推理運算方面,傳統(tǒng)的機器學習方案 TF-Lite Micro 與 CMSIS-NN 采用的是基于解釋器的運行框架。在推理運行的同時進行網絡結構的解釋,所以需要將神經網絡操作中所有可能用到的算子以及支持所有上級的代碼全部儲存,這必須要有足夠大的內存才能夠承載。另外,解釋型框架是在運行期間對神經網絡的結構進行解釋,這一動作也將增加運行的負擔。

這種 “甜蜜的負擔” 對于 “身強力壯的巨人” 手機和 GPU 等內存足夠大的設備并無大礙,但對于單片機這種自身條件有限的 “小家伙” 來說,簡直寸步難行,甚至有將其壓垮的架勢。

由此,韓松團隊為 “小家伙” 量身定制了新的方案 ——MCUNet,林己向 DeepTech 介紹稱,MCUNet 使用 TinyEngine 框架,將神經網絡的編譯和執(zhí)行步驟分開進行。編譯階段明確決定好內存的調度、執(zhí)行過程中的必備動作以及所需算子,在執(zhí)行過程中,微型處理器上只需要對當前神經網絡所執(zhí)行的任務需要的算子進行儲存,內存調度上也無需進行動態(tài)處理。做到節(jié)省解釋時間的同時,也讓內存資源本就緊張的單片機能夠 “松一口氣”,讓更大模型神經網絡的運行看到一絲希望。

實驗結果顯示,使用 TinyEngine 運行之下的推理,與傳統(tǒng)框架 TF-Lite Micro 對比,推理速度提升了 3 倍,內存占用縮減為1/4,在 ImageNet 上的準確率則提高了 17%。

圖 | TinyEngine 與傳統(tǒng)框架推理效率、內存占用峰值、精確度對比

值得注意的是,在該論文發(fā)表之后,韓松團隊又加入了 in-place depthwise convolution 技術,結合 TinyNAS 可以進一步縮小神經網絡運行時的最大內存,同時降低神經網絡運行的硬件需求,實現 MCUNet 方案推理運算下效率和準確率的進一步提升。另外,林己還提到,“現在我們還加入了目標檢測相關的應用,比如可以用來檢測人、車以及人有沒有戴口罩等,而此前主要關注分類方面的應用”。

MCUNet 誕生于新冠疫情期間

“整體研發(fā)尤其后期,是在疫情下進行的,同學們都是在隔離的條件下獨立完成研發(fā),團隊通過遠程進行交流,其實做得很辛苦。”

談及 MCUNet 的研發(fā)過程,韓松表示他印象最深刻的是疫情期間團隊成員在無法面對面交流的情況下進行研發(fā),挑戰(zhàn)很大。

前文提到,提出 MCUNet 方案的論文已入選今年的 NeurIPS spotlight。其實,除此之外,韓松團隊今年入選 NeurIPS 的還有另外兩篇,分別為《TinyTL:降低內存占用而非參數量用于高效的設備上學習》和《可微分數據增強:訓練數據高效的生成對抗網絡》。在此不對另外兩篇論文進行展開,簡單了解下該團隊中 MCUNet 研發(fā)的主要成員。

帶隊老師韓松,為麻省理工電子工程和計算機科學系助理教授,在斯坦福大學獲得博士學位,研究重點為高效的深度學習計算。他曾提出的深度壓縮技術可以在不損失神經網絡精度的前提下大幅縮小網絡的模型參數,并且在硬件實現的高效推理引擎中首次探索了模型剪枝和參數稀疏化在深度學習加速器中的應用。曾獲 ICLR' 16 和 FPGA' 17 最佳論文獎等獎項,也因其在 “深度壓縮” 技術上的貢獻,于 2019 年被《麻省理工科技評論》評為全球 “35 歲以下的 35 名杰出創(chuàng)新者”。

MCUNet 論文第一作者林己,現為 MIT HAN Lab 在讀博士生,研究方向是高效率的深度學習算法和系統(tǒng),除 MCUNet,他還曾開發(fā)全自動的深度模型壓縮和加速方法(AMC)。

參與 MCUNet 研究的還有陳威銘,為臺灣大學博士、MIT HAN Lab 準博后,研究方向主要包括微型化機器學習,MCUNet 方案中,陳威銘設計了適合微型控制器(Microcontroller)上運行的深度學習模型引擎(TinyEngine)。

原文標題:MIT韓松團隊開發(fā)全新微型深度學習技術MCUNet,實現ImageNet超70%準確率,可在物聯(lián)網設備高效運行

文章出處:【微信公眾號:DeepTech深科技】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • mcu
    mcu
    +關注

    關注

    147

    文章

    18640

    瀏覽量

    387796
  • 計算機
    +關注

    關注

    19

    文章

    7767

    瀏覽量

    92698
  • 機器學習
    +關注

    關注

    66

    文章

    8541

    瀏覽量

    136245

原文標題:MIT韓松團隊開發(fā)全新微型深度學習技術MCUNet,實現ImageNet超70%準確率,可在物聯(lián)網設備高效運行

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學習實戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產線端設備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領域主流開發(fā)環(huán)境,LabVIEW與深度學習的集成
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學習實戰(zhàn)可(11大系列課程,共5000+分鐘)

    講師,使用LabVIEW開發(fā)了大量視覺檢測、運動控制、數據采集方面軟件,具有豐富的非標自動化設備經驗。精通LabVIEW、Halcon、深度學習算法部署,擅長將復雜技術轉化為實戰(zhàn)課程。
    發(fā)表于 12-03 13:50

    Bourns發(fā)布全新增量式微型編碼器

    Bourns 推出 PEC04 系列 4 mm 增量式微型編碼器、PEC05 PEC05 系列 5 mm 增量式微型編碼器,以及 PEC06 型號 6 mm 增量式微型編碼器。Bourns
    的頭像 發(fā)表于 09-22 16:05 ?952次閱讀

    如何在機器視覺中部署深度學習神經網絡

    人士而言往往難以理解,人們也常常誤以為需要扎實的編程技能才能真正掌握并合理使用這項技術。事實上,這種印象忽視了該技術為機器視覺(乃至生產自動化)帶來的潛力,因為深度學習并非只屬于計算機
    的頭像 發(fā)表于 09-10 17:38 ?713次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b>神經網絡

    NVIDIA助力Axio團隊打造全新DPU數據面開發(fā)框架

    在第三屆 NVIDIA DPU 黑客松競賽中,我們見證了開發(fā)者與 NVIDIA 網絡技術深度碰撞。在 23 支參賽隊伍中,有 5 支隊伍脫穎而出,展現了在 AI 網絡、存儲和安全等領域的創(chuàng)新突破。
    的頭像 發(fā)表于 08-30 15:58 ?1161次閱讀

    深度學習對工業(yè)物聯(lián)網有哪些幫助

    深度學習作為人工智能的核心分支,通過模擬人腦神經網絡的層級結構,能夠自動從海量工業(yè)數據中提取復雜特征,為工業(yè)物聯(lián)網(IIoT)提供了從數據感知到智能決策的全鏈路升級能力。以下從技術賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?775次閱讀

    自動駕駛中Transformer大模型會取代深度學習嗎?

    持續(xù)討論。特別是在自動駕駛領域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學習是否已過時”的激烈爭論。然而,從技術原理、算力成本、安全需求與實際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?3932次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學習</b>嗎?

    華為全新升級AI輔助開發(fā)能力

    人工智能正深度融入各行各業(yè),軟件開發(fā)也正站在工作范式變革的前沿陣地。AI各項技術的突破性進展,正以前所未有的深度和廣度重塑軟件開發(fā)的每一個環(huán)
    的頭像 發(fā)表于 07-09 16:46 ?1309次閱讀
    華為<b class='flag-5'>全新</b>升級AI輔助<b class='flag-5'>開發(fā)</b>能力

    RIGOL示波器助力MIT開發(fā)氫燃料電池摩托車

    在清潔能源和可持續(xù)交通的浪潮中,氫燃料電池技術正逐漸成為未來交通的重要發(fā)展方向。麻省理工學院(MIT)的一支研究團隊在這一領域取得了突破性進展,他們成功開發(fā)出一款氫燃料電池摩托車。在這
    的頭像 發(fā)表于 03-26 14:04 ?515次閱讀
    RIGOL示波器助力<b class='flag-5'>MIT</b><b class='flag-5'>開發(fā)</b>氫燃料電池摩托車

    可智能深度學習的AI攝像機模組方案

    、方案優(yōu)勢 500/800萬像素CMOS傳感器。 專業(yè)級海思Hi3519DV500、 Hi3403/3402、星宸SSC338G。 可內嵌智能深度學習人臉算法,機動車識別、車牌識別、非機動車識別算法
    發(fā)表于 03-21 11:28

    靈汐科技開源類腦深度學習應用開發(fā)平臺BIDL

    富案例等問題,一直制約著其廣泛應用。為了突破這一瓶頸,靈汐科技聯(lián)合腦啟社區(qū)正式宣布開源類腦深度學習應用開發(fā)平臺BIDL(Brain-inspired Deep Learning)。
    的頭像 發(fā)表于 03-05 09:13 ?1500次閱讀
    靈汐科技開源類腦<b class='flag-5'>深度</b><b class='flag-5'>學習</b>應用<b class='flag-5'>開發(fā)</b>平臺BIDL

    軍事應用中深度學習的挑戰(zhàn)與機遇

    人工智能尤其是深度學習技術的最新進展,加速了不同應用領域的創(chuàng)新與發(fā)展。深度學習技術的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?828次閱讀

    E Ink元太科技與MIT Solve合作推動創(chuàng)新技術

    Ink元太科技將設立“E Ink創(chuàng)新獎”,在未來三年內提供總計高達30萬美元(每年最高10萬美元)的獎勵基金。這一舉措旨在支持和鼓勵那些致力于解決全球關鍵問題的創(chuàng)新團隊,推動他們在技術研發(fā)和應用上取得更大突破。 E Ink元太科技表示,此次與
    的頭像 發(fā)表于 02-13 10:19 ?681次閱讀

    BP神經網絡與深度學習的關系

    BP神經網絡與深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經網絡的基本概念 BP神經網絡,即反向傳播神經網絡(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?1364次閱讀

    海光信息技術團隊完成模型與DCU國產化適配

    正式上線運行。 這一成果標志著海光信息技術團隊在推動國產化深度計算技術方面取得了重要突破。DeepSeek V3和R1模型作為先進的深度學習
    的頭像 發(fā)表于 02-06 11:37 ?1766次閱讀