chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

淺談阿里輕量級的深度神經(jīng)網(wǎng)絡推理引擎MNN

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-10 19:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

MNN是一個輕量級的深度神經(jīng)網(wǎng)絡推理引擎,在端側加載深度神經(jīng)網(wǎng)絡模型進行推理預測。
作者:開心的派大星
首發(fā):微信公眾號:NeuroMem
轉自:https://github.com/alibaba/MNN/edit/master/README_CN.md

簡介

MNN是一個輕量級的深度神經(jīng)網(wǎng)絡推理引擎,在端側加載深度神經(jīng)網(wǎng)絡模型進行推理預測。目前,MNN已經(jīng)在阿里巴巴的手機淘寶、手機天貓、優(yōu)酷等20多個App中使用,覆蓋直播、短視頻、搜索推薦、商品圖像搜索、互動營銷、權益發(fā)放、安全風控等場景。此外,IoT等場景下也有若干應用。

整體特點

輕量性

  • 針對端側設備特點深度定制和裁剪,無任何依賴,可以方便地部署到移動設備和各種嵌入式設備中。
  • iOS平臺:armv7+arm64靜態(tài)庫大小5MB左右,鏈接生成可執(zhí)行文件增加大小620KB左右,metallib文件600KB左右。
  • Android平臺:so大小400KB左右,OpenCL庫400KB左右,Vulkan庫400KB左右。

通用性

  • 支持Tensorflow、Caffe、ONNX等主流模型文件格式,支持CNN、RNN、GAN等常用網(wǎng)絡。
  • 支持86個TensorflowOp、34個CaffeOp;各計算設備支持的MNN Op數(shù):CPU 71個,Metal 55個,OpenCL 29個,Vulkan 31個。
  • 支持iOS 8.0+、Android 4.3+和具有POSIX接口的嵌入式設備。
  • 支持異構設備混合計算,目前支持CPU和GPU,可以動態(tài)導入GPU Op插件,替代CPU Op的實現(xiàn)。

高性能

  • 不依賴任何第三方計算庫,依靠大量手寫匯編實現(xiàn)核心運算,充分發(fā)揮ARM CPU的算力。
  • iOS設備上可以開啟GPU加速(Metal),常用模型上快于蘋果原生的CoreML。
  • Android上提供了OpenCL、VulkanOpenGL三套方案,盡可能多地滿足設備需求,針對主流GPU(AdrenoMali)做了深度調(diào)優(yōu)。
  • 卷積、轉置卷積算法高效穩(wěn)定,對于任意形狀的卷積均能高效運行,廣泛運用了 Winograd 卷積算法,對3x3 -> 7x7之類的對稱卷積有高效的實現(xiàn)。
  • 針對ARM v8.2的新架構額外作了優(yōu)化,新設備可利用半精度計算的特性進一步提速。

易用性

  • 有高效的圖像處理模塊,覆蓋常見的形變、轉換等需求,一般情況下,無需額外引入libyuv或opencv庫處理圖像。
  • 支持回調(diào)機制,可以在網(wǎng)絡運行中插入回調(diào),提取數(shù)據(jù)或者控制運行走向。
  • 支持只運行網(wǎng)絡中的一部分,或者指定CPU和GPU間并行運行。

架構設計

MNN可以分為Converter和Interpreter兩部分。

Converter由Frontends和Graph Optimize構成。前者負責支持不同的訓練框架,MNN當前支持Tensorflow(Lite)、Caffe和ONNX(PyTorch/MXNet的模型可先轉為ONNX模型再轉到MNN);后者通過算子融合、算子替代、布局調(diào)整等方式優(yōu)化圖。

Interpreter由Engine和Backends構成。前者負責模型的加載、計算圖的調(diào)度;后者包含各計算設備下的內(nèi)存分配、Op實現(xiàn)。在Engine和Backends中,MNN應用了多種優(yōu)化方案,包括在卷積和反卷積中應用Winograd算法、在矩陣乘法中應用Strassen算法、低精度計算、Neon優(yōu)化、手寫匯編、多線程優(yōu)化、內(nèi)存復用、異構計算等。

開始使用

工具

如何修改

如何使用Python

交流與反饋

License

Apache 2.0

致謝

MNN參與人員:淘寶技術部、搜索工程團隊、達摩院團隊、優(yōu)酷等集團員工。

MNN參考、借鑒了下列項目:


推薦閱讀

歡迎關注公眾號,關注模型壓縮、低比特量化、移動端推理加速優(yōu)化、部署。

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    面向嵌入式部署的神經(jīng)網(wǎng)絡優(yōu)化:模型壓縮深度解析

    1.為什么需要神經(jīng)網(wǎng)絡模型壓縮? 神經(jīng)網(wǎng)絡已經(jīng)成為解決復雜機器學習問題的強大工具。然而,這種能力往往伴隨著模型規(guī)模和計算復雜度的增加。當輸入維度較大(例如長時序窗口、高分辨率特征空間)時,模型需要
    的頭像 發(fā)表于 02-24 15:37 ?5081次閱讀
    面向嵌入式部署的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>優(yōu)化:模型壓縮<b class='flag-5'>深度</b>解析

    神經(jīng)網(wǎng)絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡的實現(xiàn)。什么是神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?339次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的初步認識

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    構建CNN網(wǎng)絡模型并優(yōu)化的一般化建議

    通過實踐,本文總結了構建CNN網(wǎng)絡模型并優(yōu)化的一般化建議,這些建議將會在構建高準確率輕量級CNN神經(jīng)網(wǎng)絡模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡:我們清楚
    發(fā)表于 10-28 08:02

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓練一個卷積神經(jīng)網(wǎng)絡(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓練并保存,就可以用于對新圖像進行推理和預測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發(fā)表于 10-22 07:03

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡架構,其設計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1253次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    神經(jīng)網(wǎng)絡的并行計算與加速技術

    隨著人工智能技術的飛速發(fā)展,神經(jīng)網(wǎng)絡在眾多領域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經(jīng)網(wǎng)絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1143次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的并行計算與加速技術

    如何在機器視覺中部署深度學習神經(jīng)網(wǎng)絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡”、“黑箱”、“標注”等術語。這些概念對非專業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?912次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b>學習<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    基于米爾瑞芯微RK3576開發(fā)板部署運行TinyMaix:超輕量級推理框架

    本文將介紹基于米爾電子MYD-LR3576開發(fā)平臺部署超輕量級推理框架方案:TinyMaix 摘自優(yōu)秀創(chuàng)作者-短笛君 TinyMaix 是面向單片機的超輕量級神經(jīng)網(wǎng)絡
    發(fā)表于 07-25 16:35

    如何在RK3576開發(fā)板上運行TinyMaix :超輕量級推理框架--基于米爾MYD-LR3576開發(fā)板

    本文將介紹基于米爾電子MYD-LR3576開發(fā)平臺部署超輕量級推理框架方案:TinyMaix摘自優(yōu)秀創(chuàng)作者-短笛君TinyMaix是面向單片機的超輕量級神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-25 08:03 ?4257次閱讀
    如何在RK3576開發(fā)板上運行TinyMaix :超<b class='flag-5'>輕量級</b><b class='flag-5'>推理</b>框架--基于米爾MYD-LR3576開發(fā)板

    信而泰×DeepSeek:AI推理引擎驅動網(wǎng)絡智能診斷邁向 “自愈”時代

    模態(tài)的技術特性,DeepSeek正加速推動AI在金融、政務、科研及網(wǎng)絡智能化等關鍵領域的深度應用。 信而泰:AI推理引擎賦能網(wǎng)絡智能診斷新范
    發(fā)表于 07-16 15:29

    大模型推理顯存和計算量估計方法研究

    (如全連接層、卷積層等)確定所需的顯存大??; (3)將各層顯存大小相加,得到模型總的顯存需求。 基于神經(jīng)網(wǎng)絡剪枝的顯存估計 神經(jīng)網(wǎng)絡剪枝是一種減少模型參數(shù)數(shù)量的技術,可以降低顯存需求。通過剪枝,可以
    發(fā)表于 07-03 19:43

    無刷電機小波神經(jīng)網(wǎng)絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經(jīng)網(wǎng)絡來實現(xiàn)轉角預測,并采用改進遺傳算法來訓練網(wǎng)絡結構與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經(jīng)網(wǎng)絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡和專家系統(tǒng)相結合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經(jīng)網(wǎng)絡的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡已經(jīng)通過python或者MATLAB訓練好的神經(jīng)網(wǎng)絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1241次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的步驟解析