chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

管理 ML 模型部署中的權衡

茶壺茶茶 ? 2022-07-21 09:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機器學習代碼放在哪里——在云中、邊緣設備上或前提上——總是需要權衡。這里有一些提示。

工程師經常需要就代碼的放置位置做出重要決定:在云中、邊緣設備上或本地。這個決定總是涉及權衡——考慮到適用于每組情況的軟件、固件、開發(fā)工具和硬件的正確組合。在 Samsara 的機器學習和計算機視覺 (ML/CV) 團隊中,我們構建模型并開發(fā)算法,幫助我們的客戶提高其運營的安全性、效率和可持續(xù)性。例如,構建應用程序以實時檢測和警告有風險的駕駛行為,并最終降低道路事故的頻率。

在尋求構建 ML 解決方案時,運輸、倉儲或制造等行業(yè)的運營環(huán)境構成了獨特的限制。例如,遠程位置可能會因連接受限而出現瓶頸,或者擁有無法運行最新最好的模型的過時技術系統。這些限制,再加上這些應用程序的安全關鍵方面,需要低延遲、計算效率高的 ML 推理,因為往返網絡延遲和參差不齊的蜂窩覆蓋將消除在云中完全實現這些功能的可能性。因此,除了保證模型的準確性之外,模型還必須在與邊緣硬件平臺相關的更嚴格的計算、內存和延遲范圍內運行。

可以想象,在為此類邊緣部署選擇模型時,需要分析和考慮許多權衡。以下是您可能會遇到的一些常見問題,以及如何處理它們。

首先,您必須考慮 ML 引擎的計算吞吐量和準確性之間的權衡。同樣,由于蜂窩網絡覆蓋范圍參差不齊,您無法在云中實現所有內容并相信數據可以可靠地交付。在車載高級駕駛員輔助系統 (ADAS) 的情況下,您也不能讓笨重的攝像頭或處理器擋住車輛的儀表板。您需要權衡這種權衡:一個更緊湊的平臺(例如,類似于智能手機中使用的處理器),具有專門的片上系統硬件,可以處理圖像和信號處理,同時仍然保留大量處理ML 模型有效運行的空間。

使用這個更緊湊的平臺,您必須考慮您的功率預算,尤其是任何基于移動的應用程序。運行程序所消耗的功率越多,您必須消散的熱能就越多,電池消耗的電量就越多。某些硬件協處理器支持某些指令集,并且每個計算單元的功率效率非常高。但是,并非所有數學運算都可以在這些指令集中準確地構建。在這些情況下,您必須回退到更通用的計算平臺(如 GPUCPU),這些平臺支持更多的數學運算,但更耗電。

移動友好型架構旨在利用硬件加速(例如 DSP),可以減少整體模型大小和內存消耗,但仍為您使用它的產品應用程序提供足夠好的精度。在這些架構中,您再次面臨一系列決策,包括模型準確性/延遲權衡以及是構建自己的 AI 解決方案還是利用外部 AI 服務提供商來訓練和測試您的 ML 模型。

接下來,重要的是要考慮您的模型如何集成到所選硬件中。因為所有處理器都有不同的指令集來支持特定的操作,所以查看每個硬件平臺的文檔以了解這些優(yōu)勢如何影響您的特定代碼會有所幫助。每個部署環(huán)境都有自己的一組內置特性。例如,tflite、TensorRT、SNPE 等有不同的支持操作集,所有這些都略有不同。無論您最終使用哪種芯片組,您仍然必須將所有數學計算硬塞到將執(zhí)行這些計算的最終硬件中。

您可能會遇到的一個問題是部署環(huán)境可能不支持網絡訓練時使用的所有網絡操作和層。此外,某些操作沒有硬件加速實現,迫使您在 CPU 上運行這些元素,這可能會造成內存和性能瓶頸。其中一些不兼容性需要在訓練過程中通過修改模型架構本身來解決,而另一些則需要在將模型轉換為硬件兼容格式時加以解決。

最后一步是對最終模型版本進行基準測試,并將性能特征與原始規(guī)格進行比較。你必須要有創(chuàng)意并精簡你的模型,這樣它才能以低延遲運行。這包括刪除模型操作并將不兼容操作的子圖替換為硬件支持的操作以更快地運行。其他策略包括通道修剪、層折疊和權重量化。

歸根結底,有時您可以讓您的模型同時在設備和云中運行。但是,當您受到底層硬件性能特征、網絡延遲和準確性要求的限制時,我們應該考慮在哪里以及如何運行模型。分割模型執(zhí)行以在邊緣設備或云上的后端服務中運行仍然是一門藝術,而不是科學。一個好的產品將整合對解決方案功能和客戶需求、硬件限制以及平衡行為的深刻理解,以制定滿足這些需求同時尊重物理約束的模型。

— Sharan Srinivasan 和 Brian Tuan 是 Samsara 機器學習和計算機視覺工程團隊的軟件工程師,Samsara是一家位于舊金山的全球互聯運營云公司。在 Samsara,Srinivasan 和 Tuan 負責使用 Tensorflow、OpenCV、Pyspark 和 Go 解決各種機器學習以應對計算機視覺挑戰(zhàn),以構建在邊緣運行的模型。


審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3649

    瀏覽量

    51716
  • ML
    ML
    +關注

    關注

    0

    文章

    154

    瀏覽量

    35393
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    matlab的算法部署在simulink

    有沒有哪位大佬能提供一下思路,遇到一個問題matlab得不到神經網絡fitcnet模型的權重參數,所以simulink沒辦法部署,那遇到這種情況該如何處理
    發(fā)表于 12-08 15:27

    DeepSeek模型如何在云服務器上部署

    隨著大型語言模型(LLM)的應用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務器上,以實現私有化、定制化服務并保障數據安全。本文將詳細闡述部署Dee
    的頭像 發(fā)表于 10-13 16:52 ?570次閱讀

    vision board部署模型到openmv的代碼導致連接超時怎么解決?

    在env終端勾選了tiflte support后燒錄mdk到板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 09-19 07:59

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    應用。 為什么選擇 Neuton 作為開發(fā)人員,在產品中使用邊緣人工智能的兩個最大障礙是: ML 模型對于您所選微控制器的內存來說太大。 創(chuàng)建自定義 ML 模型本質上是一個手動過程,需
    發(fā)表于 08-31 20:54

    在env終端勾選了tiflte support后燒錄mdk到板子上后就開始顯示連接不到,無法部署模型怎么解決?

    在env終端勾選了tiflte support后燒錄mdk到板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 06-11 08:11

    企業(yè)部署AI大模型怎么做

    當下,AI大模型已成為驅動決策自動化、服務智能化與產品創(chuàng)新的核心引擎。然而,企業(yè)面對動輒數百億參數的大模型部署時,常陷入算力不足、響應延遲高、成本失控等困境。如何突破瓶頸,實現高效、穩(wěn)定的AI
    的頭像 發(fā)表于 06-04 09:26 ?683次閱讀

    如何使用Docker部署模型

    隨著深度學習和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術,能夠將模型及其依賴環(huán)境打包成一個可移植的容器,極大地簡化了
    的頭像 發(fā)表于 05-24 16:39 ?801次閱讀

    如何在RAKsmart服務器上實現企業(yè)AI模型部署

    AI模型的訓練與部署需要強大的算力支持、穩(wěn)定的網絡環(huán)境和專業(yè)的技術管理。RAKsmart作為全球領先的服務器托管與云計算服務提供商,已成為企業(yè)部署AI
    的頭像 發(fā)表于 03-27 09:46 ?762次閱讀

    K230D部署模型失敗的原因?

    MicroPython部署的無法正常運行,采用C++版本的無法實現部署 嘗試解決過程 1.考慮到可能是固件不匹配的問題,重新燒錄了流程(生成模型后給的readme)要求的固件,依舊無
    發(fā)表于 03-11 06:19

    如何部署OpenVINO?工具套件應用程序?

    編寫代碼并測試 OpenVINO? 工具套件應用程序后,必須將應用程序安裝或部署到生產環(huán)境的目標設備。 OpenVINO?部署管理器指南包含有關如何輕松使用
    發(fā)表于 03-06 08:23

    是否可以使用OpenVINO?部署管理器在部署機器上運行Python應用程序?

    使用 OpenVINO?部署管理器創(chuàng)建運行時軟件包。 將運行時包轉移到部署機器。 無法確定是否可以在部署機器上運行 Python 應用程
    發(fā)表于 03-05 08:16

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    這也會帶來新問題,隨著模型參數增加,回復速度會明顯下降,實際應用需根據需求權衡。使用 Ollama 工具部署的推理模型運行時主要依賴 CP
    發(fā)表于 02-14 17:42

    企業(yè)AI模型部署攻略

    當下,越來越多的企業(yè)開始探索和實施AI模型,以提升業(yè)務效率和競爭力。然而,AI模型部署并非易事,需要企業(yè)在多個層面進行細致的規(guī)劃和準備。下面,AI部落小編為企業(yè)提供一份AI模型
    的頭像 發(fā)表于 12-23 10:31 ?1303次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    網絡(DenseNet)等創(chuàng)新設計都是為了克服深層網絡訓練的挑戰(zhàn)而提出的。 3 邊緣端設備部署 在邊緣端設備部署目標檢測模型,特別是像PP-PicoDet這樣輕量級且高效的
    發(fā)表于 12-19 14:33

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?1155次閱讀
    如何開啟Stable Diffusion WebUI<b class='flag-5'>模型</b>推理<b class='flag-5'>部署</b>