chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣AI應(yīng)用越來越普遍,AI模型在邊緣端如何部署?

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-07-04 00:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)在人工智能時(shí)代,越來越多的AI應(yīng)用需要從云端擴(kuò)展到邊緣端,比如智能耳機(jī)、智能攝像機(jī)、智能手環(huán)、物流機(jī)器人等,在邊緣端部署AI已經(jīng)成為趨勢。如今AI大模型迅猛發(fā)展,AI大模型在端側(cè)的部署也成了業(yè)界關(guān)注的焦點(diǎn)。

如何把AI模型在邊緣端部署

首先得軟硬件適配,硬件方面,適配的AI芯片越多越好,這樣對(duì)于工程師來說,就降低了端側(cè)模型適配遷移的難度,即使換一個(gè)設(shè)備也可以輕松部署上去;軟件方面,主要的操作系統(tǒng)需要做適配,包括Linux、Windows、Android 、iOS等,這樣無論是手機(jī)、PC都可以部署。還有框架適配,也是越全越好,比如PaddlePaddle、TensorFlow、PyTorch、Caffe、MXNet等。

其次是需要對(duì)模型進(jìn)行壓縮,在保證高精度的同時(shí),最好也能夠讓模型跑得更快更省內(nèi)存,這里需要采用模型壓縮技術(shù),比如模型量化、剪枝和蒸餾技術(shù)。尤其是如今AI大模型迅猛發(fā)展,未來大模型在端側(cè)的部署也少不了要用到壓縮技術(shù)。

可以說,模型壓縮技術(shù)是實(shí)現(xiàn)AI大模型在邊/端部署的核心技術(shù)。模型壓縮技術(shù)可在保有大模型原有性能和精度基本不變前提下降低對(duì)推理算力的需求。

具體來看,量化,即將浮點(diǎn)計(jì)算轉(zhuǎn)成低比特定點(diǎn)計(jì)算;網(wǎng)絡(luò)剪枝,即去除神經(jīng)網(wǎng)絡(luò)中冗余的通道、神經(jīng)元節(jié)點(diǎn)等;知識(shí)蒸餾,即將大模型作為教師模型,用其輸出訓(xùn)練性能接近、結(jié)構(gòu)更簡的模型。

以清華大學(xué)唐杰教授團(tuán)隊(duì)2022年8月發(fā)布的1300億參數(shù)模型 GLM-130B 為例,原模型支持在一臺(tái) A100 40G*8或 V100 32G*8 服務(wù)器上進(jìn)行推理,而將模型量化至 INT 4精度后,相較INT 8精度其所需 GPU 內(nèi)存降低50%,且可在一臺(tái)4×RTX 3090(24G)或 8×RTX 2080Ti (11G )服務(wù)器上進(jìn)行推理。

眾多廠商實(shí)現(xiàn)AI大模型的端側(cè)部署

谷歌、高通、華為等廠商已經(jīng)實(shí)現(xiàn)AI大模型在端側(cè)的部署。今年5月份,在Google/O開發(fā)者大會(huì)上,Google宣布了一個(gè)專門針對(duì)移動(dòng)設(shè)備優(yōu)化系統(tǒng)的TensorFlow新版本TensorFlowLite。這款被稱為TensorFlowLite的軟件庫,是可在移動(dòng)設(shè)備上運(yùn)行的深度學(xué)習(xí)工具,它允許開發(fā)人員在用戶的移動(dòng)設(shè)備上實(shí)時(shí)地運(yùn)行人工智能應(yīng)用。

該軟件庫在設(shè)計(jì)上追求高速度和小儲(chǔ)存,支持iOS和Android系統(tǒng)。如果開發(fā)者使用其他系統(tǒng),也可以經(jīng)過一系列復(fù)雜而冗長的編譯流程,將TensorFlow編譯成移動(dòng)操作系統(tǒng)所支持的軟件庫,這樣并不會(huì)改變TensorFlow的功能。

TensorFlowLite還提供了有限的預(yù)訓(xùn)練人工智能模型,包括MobileNet和InceptionV3物體識(shí)別計(jì)算機(jī)模型,以及SmartReplay自然語言處理模型。開發(fā)者用自己的數(shù)據(jù)集做的定制模型也可以部署在上面。TensorFlowLite使用Android神經(jīng)網(wǎng)絡(luò)應(yīng)用程序界面(API),可以在沒有加速硬件時(shí)直接調(diào)用CPU來處理,確保其可以兼容不同設(shè)備。

高通技術(shù)公司產(chǎn)品管理高級(jí)副總裁兼AI負(fù)責(zé)人Ziad Asghar此前表示,隨著生成式AI的飛速普及,混合處理的重要性空前突顯?;旌咸幚鞟I的重要性空前突顯,正如傳統(tǒng)計(jì)算從大型主機(jī)和瘦客戶端演變?yōu)楫?dāng)前云端和邊緣終端相結(jié)合的模式,AI處理必須在云端和終端混合進(jìn)行才能發(fā)揮其最大潛能。

根據(jù)高通的演示,將手機(jī)設(shè)置成“飛行模式”,再通過手機(jī)端全棧AI優(yōu)化,這一模型能夠完全在終端側(cè)運(yùn)行,實(shí)現(xiàn)在15秒內(nèi)完成20步推理,生成飽含細(xì)節(jié)的圖像。很重要的是,即便在飛行模式下,這些AI能力都可以得到實(shí)現(xiàn),例如將Stable Diffusion的能力集成到相機(jī)應(yīng)用中之后,用戶在任何一個(gè)地點(diǎn)拍攝照片,再要求AI將照片背景改為夕陽之下的萬里長城。

Ziad Asghar透露,如果在云端運(yùn)行一個(gè)超過10億參數(shù)的生成式AI模型,可能需要數(shù)百瓦的功耗,而在終端側(cè)運(yùn)行需要的功耗僅有幾毫瓦。這賦予了高通在生成式AI領(lǐng)域的獨(dú)特優(yōu)勢。不久的將來,擁有 100 億或更高參數(shù)的模型將能夠在終端上運(yùn)行。

在今年3月春季旗艦新品發(fā)布會(huì)上,華為帶來全新智慧搜圖功能,基于多模態(tài)大模型技術(shù),在手機(jī)端側(cè)對(duì)模型進(jìn)行小型化處理,在業(yè)界率先實(shí)現(xiàn)了首創(chuàng)的、精準(zhǔn)的自然語言手機(jī)圖庫搜索體驗(yàn)。用戶可以像與人對(duì)話一樣,通過語音喚醒小藝,使用自然語言在手機(jī)圖庫中搜索出匹配如 “山頂看日出”、“圍爐煮茶”、“藍(lán)色珊瑚中的小丑魚”等描述的照片。

相較于傳統(tǒng)圖庫使用標(biāo)簽進(jìn)行照片搜索,存在準(zhǔn)確率低、響應(yīng)速度慢等問題,智慧搜圖更加“聰明”。結(jié)合多模態(tài)大模型技術(shù),智慧搜圖對(duì)億級(jí)的圖文數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,增加了對(duì)泛化通用語義的理解,支持包含顏色、形狀、物體、行為、時(shí)間和地點(diǎn)等多信息組合的自然語言搜索,同時(shí)還實(shí)現(xiàn)了端側(cè)輕量化應(yīng)用。

小結(jié)

由于AI在邊緣或者端側(cè)的部署具有諸多優(yōu)勢,近年來AI在邊緣側(cè)的應(yīng)用滲透率也越來越高。AI大模型迅猛發(fā)展,未來在終端的部署也是必然趨勢,眾多廠商已經(jīng)對(duì)此進(jìn)行探索,并有所突破,期待AI大模型未來能夠是實(shí)實(shí)在在賦能各行各業(yè)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301434
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    意法半導(dǎo)體STM32 AI模型庫助力邊緣AI落地應(yīng)用

    開發(fā)邊緣AI(Edge AI)時(shí),可以說“理解問題本身”就已成功了一半。然而,隨著AI模型持續(xù)
    的頭像 發(fā)表于 01-14 11:07 ?622次閱讀

    如何利用NPU與模型壓縮技術(shù)優(yōu)化邊緣AI

    ,AI 模型體積龐大,部署 NPU上常常面臨困難,這凸顯了模型壓縮技術(shù)的重要性。要實(shí)現(xiàn)高效的實(shí)時(shí)邊緣
    的頭像 發(fā)表于 11-07 15:26 ?1262次閱讀
    如何利用NPU與<b class='flag-5'>模型</b>壓縮技術(shù)優(yōu)化<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>

    工業(yè)視覺網(wǎng)關(guān):RK3576賦能多路檢測與邊緣AI

    ,將 “多路檢測 + 硬編硬解 + 邊緣AI + MES集成” 融為一體:保障畫質(zhì)與時(shí)延的同時(shí),顯著降低系統(tǒng)復(fù)雜度與總體成本,并以數(shù)據(jù)閉環(huán)驅(qū)動(dòng)良率持續(xù)提升。
    發(fā)表于 10-16 17:56

    此芯科技發(fā)布“合一”AI加速計(jì)劃,賦能邊緣側(cè)AI創(chuàng)新

    產(chǎn)品組合,覆蓋從1.5B至32B參數(shù)規(guī)模的側(cè)AI模型推理需求,滿足工業(yè)、消費(fèi)電子、智能終端等多樣化場景的部署需求,推動(dòng)AI技術(shù)從云端向
    的頭像 發(fā)表于 09-15 11:53 ?2011次閱讀
    此芯科技發(fā)布“合一”<b class='flag-5'>AI</b>加速計(jì)劃,賦能<b class='flag-5'>邊緣</b>與<b class='flag-5'>端</b>側(cè)<b class='flag-5'>AI</b>創(chuàng)新

    如何在基于Arm架構(gòu)的邊緣AI設(shè)備上部署飛槳模型

    當(dāng) Arm 與領(lǐng)先的開源深度學(xué)習(xí)平臺(tái)強(qiáng)強(qiáng)聯(lián)合,會(huì)帶來什么?那就是推動(dòng)創(chuàng)新的“火箭燃料”。Arm 攜手百度,利用雙方高能效計(jì)算平臺(tái)與 AI 模型的技術(shù)積累,助力廣大開發(fā)者加快邊緣
    的頭像 發(fā)表于 09-06 14:07 ?1100次閱讀

    【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    能夠有效捕捉AI生成圖像與真實(shí)手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細(xì)微差異。 邊緣部署:將模型量化、編譯,最終高效運(yùn)行在算力
    發(fā)表于 08-21 13:59

    AI 邊緣計(jì)算網(wǎng)關(guān):開啟智能新時(shí)代的鑰匙?—龍興物聯(lián)

    在數(shù)字化浪潮的當(dāng)下,AI 邊緣計(jì)算網(wǎng)關(guān)正逐漸嶄露頭角,成為眾多行業(yè)轉(zhuǎn)型升級(jí)的關(guān)鍵力量。它宛如一座智能橋梁,一緊密連接著各類物理設(shè)備,如傳感器、攝像頭、工業(yè)機(jī)器等,負(fù)責(zé)收集豐富的數(shù)據(jù)信息;另一
    發(fā)表于 08-09 16:40

    邊緣智能網(wǎng)關(guān)在水務(wù)行業(yè)中的應(yīng)用—龍興物聯(lián)

    :? 減少海量抄表數(shù)據(jù)上行壓力,僅上傳關(guān)鍵信息或日/月匯總數(shù)據(jù)。 防洪排澇與雨水管理? 應(yīng)用:? 雨水井、河道、排水管網(wǎng)部署液位、流速、雨量傳感器,邊緣網(wǎng)關(guān)實(shí)時(shí)監(jiān)控。 優(yōu)勢:? 內(nèi)澇實(shí)時(shí)預(yù)警:?
    發(fā)表于 08-02 18:28

    為何邊緣設(shè)備正成為AI的新重心

    人工智能 (AI) 正在以驚人的速度發(fā)展。企業(yè)不再僅僅是探索 AI,而是積極推動(dòng) AI 的規(guī)模化落地,從實(shí)驗(yàn)性應(yīng)用轉(zhuǎn)向?qū)嶋H部署。隨著生成式模型
    的頭像 發(fā)表于 07-30 09:12 ?874次閱讀

    邊緣AI實(shí)現(xiàn)的核心環(huán)節(jié):硬件選擇和模型部署

    邊緣AI的實(shí)現(xiàn)原理是將人工智能算法和模型部署到靠近數(shù)據(jù)源的邊緣設(shè)備上,使這些設(shè)備能夠本地進(jìn)行數(shù)
    的頭像 發(fā)表于 06-19 12:19 ?1390次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>實(shí)現(xiàn)的核心環(huán)節(jié):硬件選擇和<b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    STM32F769是否可以部署邊緣AI?

    STM32F769是否可以部署邊緣AI
    發(fā)表于 06-17 06:44

    邊緣AI實(shí)現(xiàn)的核心環(huán)節(jié):硬件選擇和模型部署

    電子發(fā)燒友網(wǎng)綜合報(bào)道 邊緣AI的實(shí)現(xiàn)原理是將人工智能算法和模型部署到靠近數(shù)據(jù)源的邊緣設(shè)備上,使這些設(shè)備能夠
    發(fā)表于 05-26 07:09 ?1471次閱讀

    Deepseek海思SD3403邊緣計(jì)算AI產(chǎn)品系統(tǒng)

    海思SD3403邊緣計(jì)算AI框架,提供了一套開放式AI訓(xùn)練產(chǎn)品工具包,解決客戶低成本AI系統(tǒng),針對(duì)差異化AI 應(yīng)用場景,自己采集樣本數(shù)據(jù),進(jìn)
    發(fā)表于 04-28 11:05

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓側(cè)AI模型接入得心應(yīng)手

    ,聯(lián)發(fā)科帶來了全面升級(jí)的天璣AI開發(fā)套件2.0,模型庫規(guī)模、架構(gòu)開放程度、前沿側(cè)AI技術(shù)支持和
    發(fā)表于 04-13 19:52

    AI模型側(cè)部署正當(dāng)時(shí):移遠(yuǎn)端側(cè)AI模型解決方案,激活場景智能新范式

    AI技術(shù)飛速發(fā)展的當(dāng)下,AI模型的應(yīng)用正從云端向側(cè)加速滲透。 作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻
    發(fā)表于 03-27 11:26 ?578次閱讀
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)<b class='flag-5'>部署</b>正當(dāng)時(shí):移遠(yuǎn)端側(cè)<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式