chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用Cortex將PyTorch模型部署到生產(chǎn)中

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-10 20:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從 NLP 到計算機視覺都可以通過 Cortex來非常方便的部署PyTorch模型。
作者:Caleb Kaiser
編譯:ronghuaiyang
首發(fā):AI公園公眾號

Using PyTorch Models in Production with Cortex

該框架的 python 風格,其學習曲線的溫和性,以及它對快速和簡單原型的方便實現(xiàn),使 PyTorch 明顯成為研究人員的最愛。因此,它正在推動一些最酷的機器學習項目:

Transformers,Hugging Face 生成的廣泛流行的自然語言處理(NLP)庫,是建立在 PyTorch 上的。

Selene,生物前沿 ML 庫,建在 PyTorch 上。

CrypTen,這個熱門的、新的、關(guān)注隱私的機器學習框架是建立在 PyTorch 上的。

在 ML 的幾乎任何領(lǐng)域,從計算機視覺到 NLP 再到計算生物學,你都會發(fā)現(xiàn) PyTorch 在前沿為實驗提供能量。

然而,最自然的問題是如何將這些實驗合并到軟件中。如何從“跨語言語言模型”轉(zhuǎn)換為谷歌翻譯?

在這篇博客文章中,我們將了解在生產(chǎn)環(huán)境中使用 PyTorch 模型意味著什么,然后介紹一種允許部署任何 PyTorch 模型以便在軟件中使用的方法。

在生產(chǎn)中使用 PyTorch 意味著什么?

根據(jù)生產(chǎn)環(huán)境的不同,在生產(chǎn)環(huán)境中運行機器學習可能意味著不同的事情。一般來說,在生產(chǎn)中有兩類機器學習的設(shè)計模式:

通過推理服務(wù)器提供一個預測 API。這是在通用軟件開發(fā)中使用的標準方法,即不是移動軟件或獨立設(shè)備。

嵌入。將你的模型直接嵌入到你的應(yīng)用程序中。這通常用于機器人和獨立設(shè)備,有時也用于移動應(yīng)用程序。

如果你打算直接將你的模型嵌入到你的應(yīng)用程序中,那么你應(yīng)該看看 PyTorch 的 TorchScript。使用即時編譯,PyTorch 可以將 Python 編譯成不需要 Python 解釋器就可以運行的 TorchScript,這對于資源受限的部署目標(比如移動設(shè)備)非常有用。

在大多數(shù)情況下,你會使用模型服務(wù)器。今天你看到的許多 ML 應(yīng)用程序 — 從你最喜歡的流媒體服務(wù)背后的推薦引擎到在線搜索欄中的自動完成功能—都依賴于這種部署形式,更確切地說,依賴于實時推理。

在實時推理中,一個模型通常被部署為一個微服務(wù)(通常是一個 JSON API),通過它,一個軟件可以查詢模型并接收預測。

讓我們以 Facebook 人工智能的 RoBERTa 為例,一個領(lǐng)先的 NLP 模型。它通過分析去掉一個單詞的句子(或“屏蔽詞”),并猜測屏蔽詞是什么,來進行推斷。例如,如果你要使用一個預先訓練好的 RoBERTa 模型來猜測一個句子中的下一個單詞,你要使用的 Python 方法是這樣的,非常簡單:

roberta.fill_mask(input_text + " ")

事實證明,在序列中預測缺失的單詞正是 autocomplete 等功能背后的功能。要在應(yīng)用程序中實現(xiàn) autocomplete,可以將 RoBERTa 部署為 JSON API,然后在應(yīng)用程序中使用用戶的輸入在 RoBERTa 節(jié)點上進行查詢。

設(shè)置 JSON API 聽起來相當簡單,但是將模型部署為微服務(wù)實際上需要大量的基礎(chǔ)設(shè)施工作。

你需要自動控制流量的波動。你需要監(jiān)控你的預測。你需要處理模型更新。你需要了解日志記錄。非常多的工作。

那么,問題是如何將 RoBERTa 部署為一個 JSON API,而不需要手動滾動所有這些自定義基礎(chǔ)設(shè)施?

將 PyTorch 模型與 Cortex 一起投入生產(chǎn)

你可以使用 Cortex 自動化部署 PyTorch 模型所需的大部分基礎(chǔ)設(shè)施工作,這是一個將模型作為 api 部署到 AWS 上的開源工具。這篇文章并不是一個完整的 Cortex 使用指南,只是一個高層次的 Cortex 使用方法,你所需要的是:

提供推斷的 Python 腳本

定義你的 API 的配置文件

Cortex CLI 啟動你的部署

這種方法并不局限于 RoBERTa。想要為你的圖像自動生成 alt 文本,使你的網(wǎng)站更容易訪問?你可以部署一個 AlexNet 模型,使用 PyTorch 和 Cortex 來標記圖像。

那語言分類器呢,比如 Chrome 用來檢測頁面不是用默認語言寫的那個?fastText 是這個任務(wù)的完美模型,你可以使用 PyTorch 和 Cortex 部署它。

使用 Cortex,你可以將許多由 PyTorch 支持的 ML 特性添加到你的應(yīng)用程序中進行實時推斷。

PyTorch 用到生產(chǎn)中

有超過 25 個研究模型儲存在 PyTorch Hub],從 NLP 到計算機視覺。所有這些都可以通過 Cortex 來實現(xiàn),使用的過程和我們剛才演示的一樣。

PyTorch 團隊無疑在他們的路線圖上有更多的以生產(chǎn)為中心的特性,但是僅僅看看到目前為止所取得的進展,很明顯 PyTorch 不是為生產(chǎn)而構(gòu)建的框架的觀點已經(jīng)過時了。

關(guān)注圖像處理,自然語言處理,機器學習等人工智能領(lǐng)域。
歡迎關(guān)注微信公眾號

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50099

    瀏覽量

    265446
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14853
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    PyTorch 中RuntimeError分析

    原生實現(xiàn)。這是一個已知的 PyTorch 限制,常見于 Stable Diffusion、ComfyUI 等使用 interpolate(..., mode=\'nearest\') 的模型
    發(fā)表于 03-06 06:02

    從數(shù)據(jù)模型:如何預測細節(jié)距鍵合的剪切力?

    ,并測得實際剪切力,也可以利用該模型反向估算大致的有效焊接面積或IMC百分比,從而間接評估界面焊接質(zhì)量。 三、實用化公式:基于光學測量的快速評估 考慮實際生產(chǎn)中無法對每個焊點進行破壞性IMC測量
    發(fā)表于 01-08 09:45

    基于ETAS嵌入式AI工具鏈機器學習模型部署量產(chǎn)ECU

    AI在汽車行業(yè)的應(yīng)用日益深化,如何機器學習領(lǐng)域的先進模型(如虛擬傳感器)集成ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6112次閱讀
    基于ETAS嵌入式AI工具鏈<b class='flag-5'>將</b>機器學習<b class='flag-5'>模型</b><b class='flag-5'>部署</b><b class='flag-5'>到</b>量產(chǎn)ECU

    如何在ZYNQ本地部署DeepSeek模型

    一個最小號 DeepSeek 模型部署 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項目。
    的頭像 發(fā)表于 12-19 15:43 ?7585次閱讀
    如何在ZYNQ本地<b class='flag-5'>部署</b>DeepSeek<b class='flag-5'>模型</b>

    1 GHz Arm? Cortex?-M85 MCU上部署AI模型

    本文手把手帶你實現(xiàn)實時人臉檢測,并將完整流程開源。打通從數(shù)據(jù)采集、模型訓練、量化轉(zhuǎn)換,集成部署的每一個環(huán)節(jié)。我們已為你準備好了數(shù)據(jù)集、訓練代碼、轉(zhuǎn)換工具鏈與RT-Thread工程。
    的頭像 發(fā)表于 12-02 21:04 ?9218次閱讀
    1 GHz Arm? <b class='flag-5'>Cortex</b>?-M85 MCU上<b class='flag-5'>部署</b>AI<b class='flag-5'>模型</b>

    RA8P1部署ai模型指南:從訓練模型部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓練好的模型”穩(wěn)定地“跑在板子上”,決定了項目能否落地。我們帶你基于RA8P1平臺,跑通從數(shù)據(jù)準備、模型訓練、量化轉(zhuǎn)換,工程部署的整個流程,幫助你快速實現(xiàn)
    的頭像 發(fā)表于 11-20 18:06 ?2087次閱讀
    RA8P1<b class='flag-5'>部署</b>ai<b class='flag-5'>模型</b>指南:從訓練<b class='flag-5'>模型</b><b class='flag-5'>到</b><b class='flag-5'>部署</b>?|?本周六

    如何訓練好的神經(jīng)網(wǎng)絡(luò)模型部署蜂鳥e203開發(fā)板上

    本帖欲分享如何訓練好的神經(jīng)網(wǎng)絡(luò)模型部署蜂鳥e203開發(fā)板上。 1. 加載TFLite模型 std::unique_ptr interp
    發(fā)表于 10-22 08:04

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語言模型(LLM)的應(yīng)用日益普及,許多開發(fā)者和企業(yè)希望像DeepSeek這樣的優(yōu)秀模型部署自己的云服務(wù)器上,以實現(xiàn)私有化、定制化
    的頭像 發(fā)表于 10-13 16:52 ?949次閱讀

    vision board部署模型openmv的代碼導致連接超時怎么解決?

    在env終端中勾選了tiflte support后燒錄mdk板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 09-19 07:59

    Arm方案 基于Arm架構(gòu)的邊緣側(cè)設(shè)備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構(gòu)的邊緣側(cè)設(shè)備上部署 PyTorch 模型
    的頭像 發(fā)表于 07-28 11:50 ?2879次閱讀

    在env終端中勾選了tiflte support后燒錄mdk板子上后就開始顯示連接不到,無法部署模型怎么解決?

    在env終端中勾選了tiflte support后燒錄mdk板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 06-11 08:11

    如何使用Docker部署模型

    隨著深度學習和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術(shù),能夠模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?1120次閱讀

    電機高效再制造在企業(yè)生產(chǎn)中的應(yīng)用

    高效再制造在企業(yè)生產(chǎn)中的應(yīng)用.pdf (免責聲明:本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容!)
    發(fā)表于 04-07 17:31

    《RK3588核心板:AIoT邊緣計算的革命性引擎,能否解鎖智能物聯(lián)新范式?》

    學習模型,實現(xiàn)毫秒級響應(yīng)。 功能亮點與場景示例: 多模態(tài)AI融合:支持TensorFlow、PyTorch等主流框架模型部署,可應(yīng)用于智能零售中的行為識別系統(tǒng),通過攝像頭+紅外傳感器
    發(fā)表于 04-02 10:26

    K230D部署模型失敗的原因?

    MicroPython部署的無法正常運行,采用C++版本的無法實現(xiàn)部署 嘗試解決過程 1.考慮可能是固件不匹配的問題,重新燒錄了流程(生成模型后給的readme)中要求的固件,依舊無
    發(fā)表于 03-11 06:19