chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

能否在邊緣進行訓(xùn)練(on-device training),使設(shè)備不斷的自我學(xué)習(xí)?

OpenCV學(xué)堂 ? 來源:機器之心 ? 作者:機器之心 ? 2022-12-05 15:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

該研究提出了第一個在單片機上實現(xiàn)訓(xùn)練的解決方案,并且系統(tǒng)協(xié)同設(shè)計(System-Algorithm Co-design)大大減少了訓(xùn)練所需內(nèi)存。

說到神經(jīng)網(wǎng)絡(luò)訓(xùn)練,大家的第一印象都是 GPU + 服務(wù)器 + 云平臺。傳統(tǒng)的訓(xùn)練由于其巨大的內(nèi)存開銷,往往是云端進行訓(xùn)練而邊緣平臺僅負責(zé)推理。然而,這樣的設(shè)計使得 AI 模型很難適應(yīng)新的數(shù)據(jù):畢竟現(xiàn)實世界是一個動態(tài)的,變化的,發(fā)展的場景,一次訓(xùn)練怎么能覆蓋所有場景呢?

為了使得模型能夠不斷的適應(yīng)新數(shù)據(jù),我們能否在邊緣進行訓(xùn)練(on-device training),使設(shè)備不斷的自我學(xué)習(xí)?在這項工作中,我們僅用了不到 256KB 內(nèi)存就實現(xiàn)了設(shè)備上的訓(xùn)練,開銷不到 PyTorch 的 1/1000,同時在視覺喚醒詞任務(wù)上 (VWW) 達到了云端訓(xùn)練的準(zhǔn)確率。該項技術(shù)使得模型能夠適應(yīng)新傳感器數(shù)據(jù)。用戶在享受定制的服務(wù)的同時而無需將數(shù)據(jù)上傳到云端,從而保護隱私。

bc68a0d6-73e2-11ed-8abf-dac502259ad0.png

網(wǎng)站:https://tinytraining.mit.edu/

論文:https://arxiv.org/abs/2206.15472

Demo: https://www.bilibili.com/video/BV1qv4y1d7MV

代碼: https://github.com/mit-han-lab/tiny-training

背景

設(shè)備上的訓(xùn)練(On-device Training)允許預(yù)訓(xùn)練的模型在部署后適應(yīng)新環(huán)境。通過在移動端進行本地訓(xùn)練和適應(yīng),模型可以不斷改進其結(jié)果并為用戶定制模型。例如,微調(diào)語言模型讓其能從輸入歷史中學(xué)習(xí);調(diào)整視覺模型使得智能相機能夠不斷識別新的物體。通過讓訓(xùn)練更接近終端而不是云端,我們能有效在提升模型質(zhì)量的同時保護用戶隱私,尤其是在處理醫(yī)療數(shù)據(jù)、輸入歷史記錄這類隱私信息時。

然而,在小型的 IoT 設(shè)備進行訓(xùn)練與云訓(xùn)練有著本質(zhì)的區(qū)別,非常具有挑戰(zhàn)性,首先, AIoT 設(shè)備(MCU)的 SRAM 大小通常有限(256KB)。這種級別的內(nèi)存做推理都十分勉強,更不用說訓(xùn)練了。再者,現(xiàn)有的低成本高效轉(zhuǎn)移學(xué)習(xí)算法,例如只訓(xùn)練最后一層分類器 (last FC),只進行學(xué)習(xí) bias 項,往往準(zhǔn)確率都不盡如人意,無法用于實踐,更不用說現(xiàn)有的深度學(xué)習(xí)框架無法將這些算法的理論數(shù)字轉(zhuǎn)化為實測的節(jié)省。最后,現(xiàn)代深度訓(xùn)練框架(PyTorch,TensorFlow)通常是為云服務(wù)器設(shè)計的,即便把 batch-size 設(shè)置為 1,訓(xùn)練小模型 (MobileNetV2-w0.35) 也需要大量的內(nèi)存占用。因此,我們需要協(xié)同設(shè)計算法和系統(tǒng),以實現(xiàn)智能終端設(shè)備上的訓(xùn)練。

bc7fe14c-73e2-11ed-8abf-dac502259ad0.png

方法與結(jié)果

我們發(fā)現(xiàn)設(shè)備上訓(xùn)練有兩個獨特的挑戰(zhàn):(1)模型在邊緣設(shè)備上是量化的。一個真正的量化圖(如下圖所示)由于低精度的張量和缺乏批量歸一化層而難以優(yōu)化;(2)小型硬件的有限硬件資源(內(nèi)存和計算)不允許完全反向傳播,其內(nèi)存用量很容易超過微控制器的 SRAM 的限制(一個數(shù)量級以上),但如果只更新最后一層,最后的精度又難免差強人意。

bc95c3f4-73e2-11ed-8abf-dac502259ad0.png

為了應(yīng)對優(yōu)化的困難,我們提出了 Quantization-Aware Scaling (QAS) 來自動縮放不同位精度的張量的梯度(如下左圖所示)。QAS 在不需要額外超參數(shù)的同時,可以自動匹配梯度和參數(shù) scale 并穩(wěn)定訓(xùn)練。在 8 個數(shù)據(jù)集上,QAS 均可以達到與浮點訓(xùn)練一致的性能(如下右圖)。

bcae282c-73e2-11ed-8abf-dac502259ad0.png

為了減少反向傳播所需要的內(nèi)存占用,我們提出了 Sparse Update,以跳過不太重要的層和子張的梯度計算。我們開發(fā)了一種基于貢獻分析的自動方法來尋找最佳更新方案。對比以往的 bias-only, last-k layers update, 我們搜索到的 sparse update 方案擁有 4.5 倍到 7.5 倍的內(nèi)存節(jié)省,在 8 個下游數(shù)據(jù)集上的平均精度甚至更高。

bcc3e6ee-73e2-11ed-8abf-dac502259ad0.png

為了將算法中的理論減少轉(zhuǎn)換為實際數(shù)值,我們設(shè)計了 Tiny Training Engine(TTE):它將自動微分的工作轉(zhuǎn)到編譯時,并使用 codegen 來減少運行時開銷。它還支持 graph pruning 和 reordering,以實現(xiàn)真正的節(jié)省與加速。與 Full Update 相比,Sparse Update 有效地減少了 7-9 倍的峰值內(nèi)存,并且可以通過 reorder 進一步提升至 20-21 倍的總內(nèi)存節(jié)省。相比于 TF-Lite,TTE 里經(jīng)過優(yōu)化的內(nèi)核和 sparse update 使整體訓(xùn)練速度提高了 23-25 倍。

bcdce52c-73e2-11ed-8abf-dac502259ad0.png

bcef21d8-73e2-11ed-8abf-dac502259ad0.png

結(jié)論

本文中,我們提出了第一個在單片機上實現(xiàn)訓(xùn)練的解決方案(僅用 256KB 內(nèi)存和 1MB 閃存)。我們的算法系統(tǒng)協(xié)同設(shè)計(System-Algorithm Co-design)大大減少了訓(xùn)練所需內(nèi)存(1000 倍 vs PyTorch)和訓(xùn)練耗時(20 倍 vs TF-Lite),并在下游任務(wù)上達到較高的準(zhǔn)確率。Tiny Training 可以賦能許多有趣的應(yīng)用,例如手機可以根據(jù)用戶的郵件 / 輸入歷史來定制語言模型,智能相機可以不斷地識別新的面孔 / 物體,一些無法聯(lián)網(wǎng)的 AI 場景也能持續(xù)學(xué)習(xí)(例如農(nóng)業(yè),海洋,工業(yè)流水線)。通過我們的工作,小型終端設(shè)備不僅可以進行推理,還可以進行訓(xùn)練。在這過程中個人數(shù)據(jù)永遠不會上傳到云端,從而沒有隱私風(fēng)險,同時 AI 模型也可以不斷自我學(xué)習(xí),以適應(yīng)一個動態(tài)變化的世界

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 內(nèi)存
    +關(guān)注

    關(guān)注

    9

    文章

    3174

    瀏覽量

    76168
  • IOT
    IOT
    +關(guān)注

    關(guān)注

    189

    文章

    4373

    瀏覽量

    206851

原文標(biāo)題:用少于256KB內(nèi)存實現(xiàn)邊緣訓(xùn)練,開銷不到PyTorch千分之一

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    探索PSOC Edge E84 AI Kit:開啟下一代機器學(xué)習(xí)邊緣設(shè)備設(shè)計之旅

    探索PSOC Edge E84 AI Kit:開啟下一代機器學(xué)習(xí)邊緣設(shè)備設(shè)計之旅 電子工程師的世界里,不斷追求創(chuàng)新和高效是永恒的主題。今天
    的頭像 發(fā)表于 12-18 14:45 ?97次閱讀

    DDR training的產(chǎn)生原因

    信號完整性(Signal Integrity, SI)問題:隨著DDR內(nèi)存頻率的提高,信號完整性問題變得更加突出。高速信號傳輸過程中會受到各種因素的影響,如反射、串?dāng)_、噪聲干擾等,這些問題會導(dǎo)致
    的頭像 發(fā)表于 11-17 10:25 ?3272次閱讀
    DDR <b class='flag-5'>training</b>的產(chǎn)生原因

    如何精準(zhǔn)驅(qū)動菜品識別模型--基于米爾瑞芯微RK3576邊緣計算盒

    /rknn_model_zoo RKNN Model Zoo優(yōu)點: 開箱即用的體驗: 開發(fā)者無需從頭開始進行模型訓(xùn)練和復(fù)雜的轉(zhuǎn)換調(diào)試,可以直接下載所需的RKNN模型文件,利用提供的示例代碼MYD-LR3576等
    發(fā)表于 10-31 21:19

    一文看懂AI訓(xùn)練、推理與訓(xùn)推一體的底層關(guān)系

    我們正在參加全球電子成就獎的評選,歡迎大家?guī)臀覀兺镀薄x謝支持很多人聽過“大模型”,但沒搞懂兩件事。我們總說AI有多強,但真正決定AI能否落地的,是它的兩個階段:訓(xùn)練Training)和推理
    的頭像 發(fā)表于 09-19 11:58 ?1711次閱讀
    一文看懂AI<b class='flag-5'>訓(xùn)練</b>、推理與訓(xùn)推一體的底層關(guān)系

    部署邊緣計算設(shè)備時需要考慮哪些問題?

    部署邊緣計算設(shè)備時,需結(jié)合邊緣計算 “ 靠近數(shù)據(jù)源頭、低延遲、分布式、資源受限 ” 的核心特性,從硬件適配、軟件架構(gòu)、數(shù)據(jù)管理、網(wǎng)絡(luò)穩(wěn)定、可靠性保障等多維度綜合考量,確保
    的頭像 發(fā)表于 09-05 15:38 ?814次閱讀
    部署<b class='flag-5'>邊緣</b>計算<b class='flag-5'>設(shè)備</b>時需要考慮哪些問題?

    超小型Neuton機器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以最先進的邊緣
    發(fā)表于 07-31 11:38

    打通邊緣智能之路:面向嵌入式設(shè)備的開源AutoML正式發(fā)布----加速邊緣AI創(chuàng)新

    、模型選擇、超參數(shù)調(diào)整并針對特定硬件進行優(yōu)化,學(xué)習(xí)曲線極為陡峭。因而,開發(fā)者肯定希望能夠微控制器等邊緣器件和其他受限平臺上,輕松地構(gòu)建和部署性能穩(wěn)健、資源密集型的機器
    的頭像 發(fā)表于 07-17 16:08 ?391次閱讀
    打通<b class='flag-5'>邊緣</b>智能之路:面向嵌入式<b class='flag-5'>設(shè)備</b>的開源AutoML正式發(fā)布----加速<b class='flag-5'>邊緣</b>AI創(chuàng)新

    邊緣AI實現(xiàn)的核心環(huán)節(jié):硬件選擇和模型部署

    邊緣AI的實現(xiàn)原理是將人工智能算法和模型部署到靠近數(shù)據(jù)源的邊緣設(shè)備上,使這些設(shè)備能夠本地
    的頭像 發(fā)表于 06-19 12:19 ?1112次閱讀
    <b class='flag-5'>邊緣</b>AI實現(xiàn)的核心環(huán)節(jié):硬件選擇和模型部署

    邊緣計算中的機器學(xué)習(xí):基于 Linux 系統(tǒng)的實時推理模型部署與工業(yè)集成!

    學(xué)習(xí)如何訓(xùn)練模型、導(dǎo)出模型,并在基于Linux的系統(tǒng)上運行實時推理,并通過MQTT發(fā)布結(jié)果。這是一個簡單但完整的流程——從工作站上的建模到邊緣設(shè)備
    的頭像 發(fā)表于 06-11 17:22 ?816次閱讀
    <b class='flag-5'>邊緣</b>計算中的機器<b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實時推理模型部署與工業(yè)集成!

    什么是邊緣盒子?一文講透邊緣計算設(shè)備不同行業(yè)的真實應(yīng)用

    隨著工業(yè)物聯(lián)網(wǎng)、AI、5G的發(fā)展,數(shù)據(jù)量呈爆炸式增長。但你有沒有想過,我們生成的數(shù)據(jù),真的都要發(fā)回云端處理嗎?其實不一定。特別是一些對響應(yīng)時間、網(wǎng)絡(luò)帶寬、數(shù)據(jù)隱私要求高的行業(yè)里,邊緣計算開始“火”了起來,而實現(xiàn)它的關(guān)鍵硬件,就是我們今天要聊的主角——
    的頭像 發(fā)表于 06-09 14:48 ?2253次閱讀
    什么是<b class='flag-5'>邊緣</b>盒子?一文講透<b class='flag-5'>邊緣</b>計算<b class='flag-5'>設(shè)備</b><b class='flag-5'>在</b>不同行業(yè)的真實應(yīng)用

    海思SD3403邊緣計算AI數(shù)據(jù)訓(xùn)練概述

    AI數(shù)據(jù)訓(xùn)練:基于用戶特定應(yīng)用場景,用戶采集照片或視頻,通過AI數(shù)據(jù)訓(xùn)練工程師**(用戶公司****員工)** ,進行特征標(biāo)定后,將標(biāo)定好的訓(xùn)練樣本,通過AI
    發(fā)表于 04-28 11:11

    Deepseek海思SD3403邊緣計算AI產(chǎn)品系統(tǒng)

    海思SD3403邊緣計算AI框架,提供了一套開放式AI訓(xùn)練產(chǎn)品工具包,解決客戶低成本AI系統(tǒng),針對差異化AI 應(yīng)用場景,自己采集樣本數(shù)據(jù),進行AI特征標(biāo)定,AI模型訓(xùn)練,AI應(yīng)用部署的
    發(fā)表于 04-28 11:05

    《RK3588核心板:AIoT邊緣計算的革命性引擎,能否解鎖智能物聯(lián)新范式?》

    ?萬物互聯(lián)的時代,邊緣計算正成為AIoT落地的核心驅(qū)動力。 明遠智睿基于瑞芯微RK3588芯片打造的高性能核心板, 憑借其八核異構(gòu)CPU架構(gòu)(4×Cortex-A76@2.4GHz + 4
    發(fā)表于 04-02 10:26

    宇樹科技物聯(lián)網(wǎng)方面

    。 人工智能算法優(yōu)化:宇樹科技不斷優(yōu)化其機器人的人工智能算法,使其能夠物聯(lián)網(wǎng)環(huán)境中更好地進行智能決策。通過機器學(xué)習(xí)、深度學(xué)習(xí)等技術(shù),機器人
    發(fā)表于 02-04 06:48

    大模型訓(xùn)練框架(五)之Accelerate

    Hugging Face 的 Accelerate1是一個用于簡化和加速深度學(xué)習(xí)模型訓(xùn)練的庫,它支持多種硬件配置上進行分布式訓(xùn)練,包括 C
    的頭像 發(fā)表于 01-14 14:24 ?1827次閱讀