chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌提出MorphNet:網(wǎng)絡(luò)規(guī)模更小、速度更快!

電子工程師 ? 來源:YXQ ? 2019-04-22 16:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一直以來,深度神經(jīng)網(wǎng)絡(luò)在圖像分類、文本識別等實際問題中發(fā)揮重要的作用。但是,考慮到計算資源和時間,深度神經(jīng)網(wǎng)絡(luò)架構(gòu)往往成本很高。此次,谷歌研究人員提出一種自動化神經(jīng)網(wǎng)絡(luò)架構(gòu)的新方法 MorphNet,通過迭代縮放神經(jīng)網(wǎng)絡(luò),節(jié)省了資源,提升了性能。

深度神經(jīng)網(wǎng)絡(luò)(DNN)在解決圖像分類、文本識別和語音轉(zhuǎn)錄等實際難題方面顯示出卓越的效能。但是,為給定問題設(shè)計合適的 DNN 架構(gòu)依然是一項具有挑戰(zhàn)性的任務(wù)??紤]到巨大的架構(gòu)搜索空間,就計算資源和時間而言,為具體應(yīng)用從零開始設(shè)計一個網(wǎng)絡(luò)是極其昂貴的。神經(jīng)架構(gòu)搜索(NAS)和 AdaNet 等方法使用機器學(xué)習(xí)來搜索架構(gòu)設(shè)計空間,從而找出適合的改進版架構(gòu)。另一種方法是利用現(xiàn)有架構(gòu)來解決類似問題,即針對手頭任務(wù)一次性對架構(gòu)進行優(yōu)化。

谷歌研究人員提出一種神經(jīng)網(wǎng)絡(luò)模型改進的復(fù)雜方法 MorphNet。研究人員發(fā)表了論文《MorphNet: Fast & Simple Resource-Constrained Structure Learning of Deep Networks》,MorphNet 將現(xiàn)有神經(jīng)網(wǎng)絡(luò)作為輸入,為新問題生成規(guī)模更小、速度更快、性能更好的新神經(jīng)網(wǎng)絡(luò)。研究人員已經(jīng)運用該方法解決大規(guī)模問題,設(shè)計出規(guī)模更小、準(zhǔn)確率更高的產(chǎn)品服務(wù)網(wǎng)絡(luò)。目前,MorphNet 的 TensoreFlow 實現(xiàn)已開源,大家可以利用該方法更高效地創(chuàng)建自己的模型。

MorphNet 開源項目地址:https://github.com/google-research/morph-net

MorphNet 的工作原理

MorphNet 通過收縮和擴展階段的循環(huán)來優(yōu)化神經(jīng)網(wǎng)絡(luò)。在收縮階段,MorphNet 通過稀疏性正則化項(sparsifying regularizer)識別出效率低的神經(jīng)元,并將它們從網(wǎng)絡(luò)中去除,因而該網(wǎng)絡(luò)的總損失函數(shù)包含每一神經(jīng)元的成本。但是對于所有神經(jīng)元,MorphNet 沒有采用統(tǒng)一的成本度量,而是計算神經(jīng)元相對于目標(biāo)資源的成本。隨著訓(xùn)練的繼續(xù)進行,優(yōu)化器在計算梯度時是了解資源成本信息的,從而得知哪些神經(jīng)元的資源效率高,哪些神經(jīng)元可以去除。

MorphNet 的算法。

例如,考慮一下 MorphNet 如何計算神經(jīng)網(wǎng)絡(luò)的計算成本(如 FLOPs)。為簡單起見,我們來思考一下被表示為矩陣乘法的神經(jīng)網(wǎng)絡(luò)層。在這種情況下,神經(jīng)網(wǎng)絡(luò)層擁有 2 個輸入(x_n)、6 個權(quán)重 (a,b,...,f) 和 3 個輸出(y_n)。使用標(biāo)準(zhǔn)教科書中行和列相乘的方法,你會發(fā)現(xiàn)評估該神經(jīng)網(wǎng)絡(luò)層需要 6 次乘法。

神經(jīng)元的計算成本。

MorphNet 將其計算成本表示為輸入數(shù)和輸出數(shù)的乘積。請注意,盡管左邊示例顯示出了權(quán)重稀疏性,其中兩個權(quán)重值為 0,但我們依然需要執(zhí)行所有的乘法,以評估該神經(jīng)網(wǎng)絡(luò)層。但是,中間示例顯示出了結(jié)構(gòu)性的稀疏,其中神經(jīng)元 y_n 最后一行上的所有權(quán)重值均為 0。MorphNet 意識到該層的新輸出數(shù)為 2,并且該層的乘次數(shù)量由 6 降至 4。基于此,MorphNet 可以確定該神經(jīng)網(wǎng)絡(luò)中每一神經(jīng)元的增量成本,從而生成更高效的模型(右邊示例),其中神經(jīng)元 y_3 被移除。

在擴展階段,研究人員使用寬度乘數(shù)(width multiplier)來統(tǒng)一擴展所有層的大小。例如,如果層大小擴大 50%,則一個效率低的層(開始有 100 個神經(jīng)元,之后縮小至 10 個神經(jīng)元)將能夠擴展回 15,而只縮小至 80 個神經(jīng)元的重要層可能擴展至 120,并且擁有更多資源。凈效應(yīng)則是將計算資源從該網(wǎng)絡(luò)效率低的部分重新分配給更有用的部分。

用戶可以在收縮階段之后停止 MorphNet,從而削減該網(wǎng)絡(luò)規(guī)模,使之符合更緊湊的資源預(yù)算。這可以在目標(biāo)成本方面獲得更高效的網(wǎng)絡(luò),但有時可能導(dǎo)致準(zhǔn)確率下降?;蛘?,用戶也可以完成擴展階段,這將與最初目標(biāo)資源相匹配,但準(zhǔn)確率會更高。

MorphNet 可提供以下四個關(guān)鍵價值

有針對性的正則化:MorphNet 采用的正則化方法比其他稀疏性正則化方法更有目的性。具體來說,MorphNet 方法用于更好的稀疏化,但它的目標(biāo)是減少資源(如每次推斷的 FLOPs 或模型大?。?。這可以更好地控制由 MorphNet 推導(dǎo)出的網(wǎng)絡(luò)結(jié)構(gòu),這些網(wǎng)絡(luò)結(jié)構(gòu)根據(jù)應(yīng)用領(lǐng)域和約束而出現(xiàn)顯著差異。

例如,下圖左展示了在 JFT 數(shù)據(jù)集上訓(xùn)練的 ResNet-101 基線網(wǎng)絡(luò)。在指定目標(biāo) FLOPs(FLOPs 降低 40%,中間圖)或模型大?。?quán)重減少 43%,右圖)的情況下,MorphNet 輸出的結(jié)構(gòu)具有很大差異。在優(yōu)化計算成本時,相比于網(wǎng)絡(luò)較高層中的低分辨率神經(jīng)元,較低層中的高分辨率神經(jīng)元會被更多地修剪掉。當(dāng)目標(biāo)是較小的模型大小時,剪枝策略相反。

MorphNet 有目標(biāo)性的正則化(Targeted Regularization)。矩形的寬度與層級中通道數(shù)成正比,底部的紫色條表示輸入層。左:輸入到 MorphNet 的基線網(wǎng)絡(luò);中:應(yīng)用 FLOP regularizer 后的輸出結(jié)果;右:應(yīng)用 size regularizer 后的輸出結(jié)果。

MorphNet 能夠把特定的優(yōu)化參數(shù)作為目標(biāo),這使得它可針對特定實現(xiàn)設(shè)立具體參數(shù)目標(biāo)。例如,你可以把「延遲」作為整合設(shè)備特定計算時間和記憶時間的首要優(yōu)化參數(shù)。

拓?fù)渥儞Q(Topology Morphing):MorphNet 學(xué)習(xí)每一層的神經(jīng)元,因此該算法可能會遇到將一層中所有神經(jīng)元全都稀疏化的特殊情況。當(dāng)一層中的神經(jīng)元數(shù)量為 0 時,它切斷了受影響的網(wǎng)絡(luò)分支,從而有效地改變了網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。例如,在 ResNet 架構(gòu)中,MorphNet 可能保留殘差連接,但移除殘差模塊(如下圖左所示)。對于 Inception 結(jié)構(gòu),MorphNet 可能移除整個并行分支(如下圖右所示)。

左:MorphNet 移除 ResNet 網(wǎng)絡(luò)中的殘差模塊。右:MorphNet 移除 Inception 網(wǎng)絡(luò)中的并行分支。

可擴展性:MorphNet 在單次訓(xùn)練運行中學(xué)習(xí)新的網(wǎng)絡(luò)結(jié)構(gòu),當(dāng)你的訓(xùn)練預(yù)算有限時,這是一種很棒的方法。MorphNet 還可直接用于昂貴的網(wǎng)絡(luò)和數(shù)據(jù)集。例如,在上述對比中,MorphNet 直接用于 ResNet-101,后者是在 JFT 數(shù)據(jù)集上以極高計算成本訓(xùn)練出的。

可移植性:MorphNet 輸出的網(wǎng)絡(luò)具備可移植性,因為它們可以從頭開始訓(xùn)練,且模型權(quán)重并未與架構(gòu)學(xué)習(xí)過程綁定。你不必復(fù)制檢查點或按照特定的訓(xùn)練腳本執(zhí)行訓(xùn)練,只需正常訓(xùn)練新網(wǎng)絡(luò)即可。

Morphing Network

谷歌通過固定 FLOPs 將 MorphNet 應(yīng)用到在 ImageNet 數(shù)據(jù)集上訓(xùn)練的 Inception V2 模型上(詳見下圖)。基線方法統(tǒng)一縮小每個卷積的輸出,使用 width multiplier 權(quán)衡準(zhǔn)確率和 FLOPs(紅色)。而 MorphNet 方法在縮小模型時直接固定 FLOPs,生成更好的權(quán)衡曲線。在相同準(zhǔn)確率的情況下,新方法的 FLOP 成本比基線低 11%-15%。

將 MorphNet 應(yīng)用于在 ImageNet 數(shù)據(jù)集上訓(xùn)練的 Inception V2 模型后的表現(xiàn)。僅使用 flop regularizer(藍色)的性能比基線(紅色)性能高出 11-15%。一個完整循環(huán)之后(包括 flop regularizer 和 width multiplier),在相同成本的情況下模型的準(zhǔn)確率有所提升(「x1」,紫色),第二個循環(huán)之后,模型性能得到繼續(xù)提升(「x2」,青色)。

這時,你可以選擇一個 MorphNet 網(wǎng)絡(luò)來滿足更小的 FLOP 預(yù)算。或者,你可以將網(wǎng)絡(luò)擴展回原始 FLOP 成本來完成縮放周期,從而以相同的成本得到更好的準(zhǔn)確率(紫色)。再次重復(fù) MorphNet 縮小/放大將再次提升準(zhǔn)確率(青色),使整體準(zhǔn)確率提升 1.1%。

結(jié)論:谷歌已經(jīng)將 MorphNet 應(yīng)用到其多個生產(chǎn)級圖像處理模型中。MorphNet 可帶來模型大小/FLOPs 的顯著降低,且?guī)缀醪粫斐少|(zhì)量損失。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6238

    瀏覽量

    109875
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4819

    瀏覽量

    106132

原文標(biāo)題:谷歌提出MorphNet:網(wǎng)絡(luò)規(guī)模更小、速度更快!

文章出處:【微信號:aicapital,微信公眾號:全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    新加坡服務(wù)器的網(wǎng)絡(luò)速度和延遲表現(xiàn)如何?

    速度:全球領(lǐng)先的“速度之城” 新加坡?lián)碛衼喼弈酥寥蝽敿壍?b class='flag-5'>網(wǎng)絡(luò)基礎(chǔ)設(shè)施。 高帶寬與國際出口: 新加坡是眾多國際海底光纜的核心樞紐,連接著亞洲、美洲、歐洲和澳大利亞。這意味著它擁有海量的國際出口帶寬,能為服務(wù)器提
    的頭像 發(fā)表于 10-17 17:03 ?301次閱讀

    Arm 洞察與思考:為什么 AI 向邊緣遷移的速度超乎想象

    人工智能 (AI) 正在以驚人的速度發(fā)展。企業(yè)不再僅僅是探索 AI,而是積極推動 AI 的規(guī)模化落地,從實驗性應(yīng)用轉(zhuǎn)向?qū)嶋H部署。隨著生成式模型日益精簡和高效,AI 的重心正從云端轉(zhuǎn)向邊緣側(cè)。如今
    的頭像 發(fā)表于 08-11 14:43 ?1960次閱讀

    WiFi和以太網(wǎng)哪個更快

    以太網(wǎng)通常比WiFi更快、更穩(wěn)定,尤其在理想條件下差距顯著;而WiFi勝在靈活便捷,但實際速度受環(huán)境干擾較大。 以下是具體分析: 一、理論速度對比 以太網(wǎng) 千兆以太網(wǎng)(1Gbps) :理論速度
    的頭像 發(fā)表于 07-01 09:54 ?1082次閱讀

    RVCT編譯器是否比GNU的編譯器的代碼執(zhí)行速度更快?

    ,是rvct3.1還是rvct4.0?如何把rvct編譯器集成到ide中? 2、RVCT編譯器是否比GNU的編譯器的代碼執(zhí)行速度更快?
    發(fā)表于 05-08 07:49

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項。 ? 在核心亮點層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設(shè)計的 TPU 芯片,能夠有力支持大規(guī)模思考
    的頭像 發(fā)表于 04-12 00:57 ?2865次閱讀

    適用于數(shù)據(jù)中心和AI時代的800G網(wǎng)絡(luò)

    提出了三大核心需求: 超低延遲和高帶寬:確保大規(guī)模數(shù)據(jù)傳輸高效進行。 智能流量調(diào)度:采用自適應(yīng)路由和負(fù)載均衡技術(shù),減少網(wǎng)絡(luò)擁塞。 性能隔離與穩(wěn)定性:在多租戶環(huán)境下保障帶寬分配,防止性能
    發(fā)表于 03-25 17:35

    速度更快,傳輸更穩(wěn)定的工業(yè)相機COF接口

    工業(yè)相機的數(shù)據(jù)接口之一COF接口,速度更快,傳輸更穩(wěn)定的。
    的頭像 發(fā)表于 03-10 17:32 ?743次閱讀
    <b class='flag-5'>速度</b><b class='flag-5'>更快</b>,傳輸更穩(wěn)定的工業(yè)相機COF接口

    谷歌公司被立案調(diào)查 谷歌股價暴跌 谷歌母公司Alphabet跌8%

    據(jù)國家市場監(jiān)督管理總局消息顯示,谷歌公司因涉嫌違反《中華人民共和國反壟斷法》,已被該局依法開展立案調(diào)查。而且谷歌公司在全球多個國家均面臨著反壟斷的嚴(yán)峻挑戰(zhàn)。其中,美國司法部更是對谷歌提出
    的頭像 發(fā)表于 02-06 16:23 ?1717次閱讀

    調(diào)制方式對網(wǎng)絡(luò)速度的影響

    在現(xiàn)代通信技術(shù)中,調(diào)制方式是決定網(wǎng)絡(luò)速度和信號質(zhì)量的關(guān)鍵因素之一。調(diào)制是將信息信號(如數(shù)字信號)轉(zhuǎn)換為適合在通信信道上傳輸?shù)男问剑ㄈ缒M信號)的過程。不同的調(diào)制方式有不同的特性,這些特性直接影響
    的頭像 發(fā)表于 01-21 09:39 ?1110次閱讀

    谷歌發(fā)布“深度研究”AI工具,利用Gemini模型進行網(wǎng)絡(luò)信息檢索

    據(jù)外媒最新報道,谷歌近期發(fā)布了一款名為“深度研究”的先進AI工具。這款工具借助其內(nèi)部的Gemini大型語言模型,實現(xiàn)了對網(wǎng)絡(luò)信息的高效檢索與深度挖掘,進一步滿足了用戶對精準(zhǔn)、詳盡信息的需求。 據(jù)悉
    的頭像 發(fā)表于 12-16 09:35 ?933次閱讀

    谷歌Find My技術(shù) 谷歌Find My Device網(wǎng)絡(luò)適用的產(chǎn)品

    聲音、設(shè)置警報等,以確保設(shè)備的安全和隱私。 谷歌Find My Device?網(wǎng)絡(luò)覆蓋了全球超過數(shù)十億臺安卓活躍設(shè)備。
    的頭像 發(fā)表于 12-10 11:07 ?832次閱讀

    谷歌Find My Device技術(shù) 谷歌Find My Device網(wǎng)絡(luò)的優(yōu)點

    聲音、設(shè)置警報等,以確保設(shè)備的安全和隱私。 谷歌Find My Device?網(wǎng)絡(luò)覆蓋了全球超過數(shù)十億臺安卓活躍設(shè)備。
    的頭像 發(fā)表于 12-05 10:59 ?1444次閱讀
    <b class='flag-5'>谷歌</b>Find My Device技術(shù) <b class='flag-5'>谷歌</b>Find My Device<b class='flag-5'>網(wǎng)絡(luò)</b>的優(yōu)點

    NVIDIA與谷歌量子AI部門達成合作

    NVIDIA CUDA-Q 平臺使谷歌量子 AI 研究人員能夠為其量子計算機創(chuàng)建大規(guī)模的數(shù)字模型,以解決設(shè)計中面臨的各種挑戰(zhàn)
    的頭像 發(fā)表于 11-20 09:39 ?953次閱讀

    海外IP代理池:提升網(wǎng)絡(luò)訪問速度與效率的利器

    海外IP代理池?zé)o疑是提升網(wǎng)絡(luò)訪問速度與效率的利器,它通過提供位于海外的代理服務(wù)器,為用戶訪問國外網(wǎng)站和服務(wù)提供了便利。
    的頭像 發(fā)表于 11-14 07:29 ?1037次閱讀

    IPv6對網(wǎng)絡(luò)速度的影響

    隨著互聯(lián)網(wǎng)的快速發(fā)展,IPv4地址的耗盡問題日益凸顯。IPv6的引入,不僅解決了地址不足的問題,還帶來了一系列技術(shù)改進,這些改進對網(wǎng)絡(luò)速度和性能有著直接或間接的影響。 IPv6的技術(shù)特點 更大的地址
    的頭像 發(fā)表于 10-29 18:04 ?2876次閱讀