chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在微軟云機器學(xué)習(xí)平臺Azure ML上利用OpenVINO快速實現(xiàn)AI推理

英特爾中國 ? 來源:英特爾中國 ? 作者:武卓博士 ? 2022-07-25 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者

英特爾AI軟件布道師

武卓博士

曾主持國家級及省部級科研項目十余項,已授權(quán)國際國內(nèi)專利十余項。

目前,數(shù)字化浪潮席卷全球,人類社會已經(jīng)進入智能時代。萬物互聯(lián)的數(shù)字化浪潮下,端—邊—云協(xié)同是實現(xiàn)數(shù)字化智能化的重要架構(gòu)之一。本文我們將簡要分析邊云協(xié)同的必要性,并介紹如何使用英特爾開源的OpenVINO工具套件,在“端—邊—云”快速實現(xiàn)高性能人工智能推理。

1邊云協(xié)同的必要性及

OpenVINO工具套件簡介

眾所周知,18世紀60年代人類開始了第一次工業(yè)革命,從此進入“蒸汽時代”,接著進入了電氣時代和信息時代,當(dāng)前人類社會正在發(fā)生第四次工業(yè)革命,即智能時代。英特爾首席執(zhí)行官帕特·基辛格在2021年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會上指出,要擁抱四大超級技術(shù)力量。這四大超級技術(shù)力量分別是:第一,無所不在的計算。計算能力正滲透到我們生活的方方面面,作為人和技術(shù)的交互點,跨越現(xiàn)有和新興設(shè)備。第二,無處不在的連接,即萬物互聯(lián)。第三,從云到邊緣的基礎(chǔ)設(shè)施。它創(chuàng)造一個動態(tài)可靠的路徑來連接計算和數(shù)據(jù),實現(xiàn)規(guī)模和容量無限擴展的云與無限延伸的智能邊緣相結(jié)合。第四是人工智能。這四大超級技術(shù)力量并不是技術(shù)孤島,而且相互協(xié)同,相互融合,共同推動產(chǎn)業(yè)的巨大變革。

a5368f52-042c-11ed-ba43-dac502259ad0.png

四大超級技術(shù)力量使得數(shù)據(jù)一旦產(chǎn)生之后,能夠在相應(yīng)的節(jié)點做快速且及時的處理,從而減少數(shù)據(jù)處理的延時;高價值數(shù)據(jù)經(jīng)過邊緣提取后,高效率的傳遞到云端,借助云端的超級計算力量挖掘數(shù)據(jù)背后隱含的價值,讓用戶可以開發(fā)相應(yīng)的服務(wù),實現(xiàn)科技向善。沒有邊云協(xié)同,這四大超級技術(shù)力量將被割裂,數(shù)據(jù)將成為孤島,智能時代要求的智能化、無人化和集群化將無法實現(xiàn)。如下圖所示,將云端規(guī)模開發(fā)的優(yōu)勢與邊緣端推理的好處結(jié)合起來,能夠使得邊云協(xié)同的優(yōu)勢發(fā)揮到最大化,將無限的數(shù)據(jù)變成可操作的洞察力。

a5589ef8-042c-11ed-ba43-dac502259ad0.png

下圖是一個智能制造工廠中,利用“端—邊—云”協(xié)同架構(gòu),利用人工智能技術(shù)實現(xiàn)實時產(chǎn)品缺陷檢測的例子。在這個場景中,每個工位構(gòu)成了“端”,在工位上架設(shè)的攝像頭可以每秒采集超過400張產(chǎn)品生產(chǎn)過程中的圖片。因此,在端這一側(cè)利用 AI 推理技術(shù),對實時產(chǎn)生的大量圖片進行 AI 推理,從而避免將海量數(shù)據(jù)同時傳輸?shù)皆贫水a(chǎn)生的高成本及延時。生產(chǎn)流水線構(gòu)成了這個場景中的“邊”,一些更為復(fù)雜的推理任務(wù)可以實時的在邊側(cè)完成,并進行跨工位的調(diào)度。最終所有的推理結(jié)果可以進一步推送到云端,進行數(shù)據(jù)集中以及更為深層次的分析,同時邊緣端產(chǎn)生的部分數(shù)據(jù)也可以推送至云端,作為訓(xùn)練數(shù)據(jù)的補充,用于對深度學(xué)習(xí)模型進行重訓(xùn)練,以獲得更高的準(zhǔn)確性。

a579a26a-042c-11ed-ba43-dac502259ad0.png

a58cb472-042c-11ed-ba43-dac502259ad0.png

通過上述的例子,我們可以看出,在邊云協(xié)同的架構(gòu)中,一個很重要的步驟就是將 AI 的推理擴展到邊緣端,避免邊緣端產(chǎn)生的大量數(shù)據(jù)向云端同時進行傳輸所引起的高成本,可以獲得接近或處于邊緣的近實時決策。而能夠?qū)崿F(xiàn)邊緣端方便進行 AI 模型部署及推理加速的重要工具之一,就是由英特爾開源的OpenVINO工具套件。

a59d034a-042c-11ed-ba43-dac502259ad0.png

OpenVINO工具套件經(jīng)過近四年的發(fā)展和演進,現(xiàn)已正式發(fā)布了迄今為止變化最大的版本,即 OpenVINO 2022.1版本。在這一版本中,不僅支持包括基于 Tensorflow,PyTorch 在內(nèi)的深度學(xué)習(xí)框,更可以支持深受中國開發(fā)者喜愛的 PaddlePaddle 飛槳深度學(xué)習(xí)框架。同時,為了方便開發(fā)者在邊緣端部署深度學(xué)習(xí)模型,實現(xiàn)“一次撰寫,任意部署(Write once,deploy anywhere)”的目的,OpenVINO可以支持包括英特爾 CPU、集成 GPU(iGPU)以及 VPU 在內(nèi)的多個硬件平臺的部署。只需要改動一行代碼,就可以實現(xiàn)多硬件平臺部署。

尤為值得一提的是,在 OpenVINO2022.1版本中,為了使得開發(fā)者更加便捷的使用 OpenVINO進行深度學(xué)習(xí)的推理,更推出了 AUTO 插件(“auto device”)。開發(fā)者只需要使用這樣的一行代碼

a5c8a518-042c-11ed-ba43-dac502259ad0.png

就可以在邊緣端實施 AI 推理時,由 AUTO 插件自動化的檢測開發(fā)者環(huán)境中可以用來進行 AI 推理的設(shè)備,并自動化的選擇更為合適的硬件設(shè)備進行 AI 推理。另外,根據(jù)不同使用場景的使用需求不同,AUTO 插件在使用時,還允許開發(fā)者選擇不同的“performance hint”性能指標(biāo)模式,從而按照使用需求,獲得高吞吐量或者低延時的推理性能。

a5d9c3b6-042c-11ed-ba43-dac502259ad0.png

2在微軟云機器學(xué)習(xí)平臺 Azure ML 上利用

OpenVINO快速實現(xiàn) AI 推理

除了在邊緣端可以很方便地利用 OpenVINO工具套件進行快速部署以外,在云端,比如微軟云 Azure 的機器學(xué)習(xí)平臺 Azure ML 上,也可以利用 OpenVINO工具套件快速實現(xiàn)深度學(xué)習(xí)模型的部署,并進行相應(yīng)的深度學(xué)習(xí)模型的優(yōu)化及推理加速。實現(xiàn)步驟如下:

步驟一

在 Azure 上注冊個人賬號,并在機器學(xué)習(xí)平臺上建立自己的工作室,就類似于建立一個自己運行推理的專用路徑。工作室建立好之后,每次運行 AI 推理時,只需要點擊“啟動工作室”之后,就可以進入可以進行模型部署及推理的頁面了。

a5f8da30-042c-11ed-ba43-dac502259ad0.png

步驟二

在啟動工作室之后,即進入以下頁面。由于我們是利用OpenVINOnotebooks的 notebook代碼示例資源,因此,我們在頁面上相應(yīng)選擇Notebooks,即進入可以使用Jupyter Notebook 運行代碼,進行 AI 推理的頁面。

頁面地址:https://github.com/openvinotoolkit/openvino_notebooks

a61dd466-042c-11ed-ba43-dac502259ad0.png

步驟三

在進入 Notebooks 頁面后,即可根據(jù)界面提示由本地上傳所有 Notebooks 文件夾中的代碼示例。也可以新建終端 Terminals,在終端頁面以 git clone 的方式,直接將OpenVINO Notebooks 在 GitHub 上的資源導(dǎo)入在 Azure ML 平臺上的工作室。

a640644a-042c-11ed-ba43-dac502259ad0.png

所有 notebooks 代碼示例導(dǎo)入過后,即可看到文件夾內(nèi)包含的所有代碼示例。

a67075b8-042c-11ed-ba43-dac502259ad0.png

步驟四

申請 Azure 上的計算資源,運行 notebook 代碼。

a6909226-042c-11ed-ba43-dac502259ad0.png

以運行 Notebook 213 機器問答代碼示例,在申請好并打開計算資源的使用后,運行機器問答 notebook 代碼示例,運行結(jié)果如下,

a6ae5bd0-042c-11ed-ba43-dac502259ad0.gif

3小結(jié):

在上面的內(nèi)容中,我們跟大家分享了邊云協(xié)同的必要性,以及在邊緣端能夠?qū)崿F(xiàn)快速深度學(xué)習(xí)模型優(yōu)化、推理及任意部署的英特爾開源 OpenVINO工具套件。并通過一個實例,向大家展示了如何在 Azure 機器學(xué)習(xí)平臺上利用 OpenVINO快速實現(xiàn)深度學(xué)習(xí)模型的推理。

關(guān)于英特爾 OpenVINO開源工具套件的詳細資料,包括其中我們提供的三百多個經(jīng)驗證并優(yōu)化的預(yù)訓(xùn)練模型的詳細資料,請您點擊:

https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/overview.html

除此之外,為了方便大家了解并快速掌握 OpenVINO工具套件的使用,我們還提供了一系列開源的 Jupyter notebook demo。運行這些 notebook,就能快速了解在不同場景下如何利用 OpenVINO工具套件實現(xiàn)一系列、包括 OCR 在內(nèi)的、計算機視覺及自然語言處理任務(wù)。OpenVINO notebooks的資源可以在 Github 以下地址下載安裝:

https://github.com/openvinotoolkit/openvino_notebooks

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10286

    瀏覽量

    179829
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8546

    瀏覽量

    136535
  • 微軟云
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    3099

原文標(biāo)題:使用OpenVINO? 在“端—邊—云”快速實現(xiàn)高性能人工智能推理

文章出處:【微信號:英特爾中國,微信公眾號:英特爾中國】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    微軟企業(yè)級應(yīng)用AI能力全面升級

    微軟宣布,已將 OpenAI 迄今為止最具突破性的的 AI 技術(shù)系統(tǒng) GPT-5 全面集成至其產(chǎn)品生態(tài)中,全面增強平臺的的推理、代碼生成與對話體驗。最新版 GPT-5 已在 Micro
    的頭像 發(fā)表于 08-15 11:44 ?1269次閱讀

    The Ocean Cleanup攜手亞馬遜科技 利用AI技術(shù)加速清除海洋塑料

    The Ocean Cleanup (“海洋清理”)展開合作,充分利用亞馬遜科技人工智能(AI)、機器
    的頭像 發(fā)表于 07-24 14:07 ?933次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    、資源分配的最優(yōu)策略建議,減少資源浪費,提升整體網(wǎng)絡(luò)效率。 客戶實證:AI推理引擎的精準(zhǔn)力量某大型政務(wù)平臺遭遇核心業(yè)務(wù)運行緩慢問題,初步懷疑網(wǎng)絡(luò)帶寬不足。
    發(fā)表于 07-16 15:29

    無法NPU推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?

    NPU 推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。 遇到的錯誤: get_shape was called on a descriptor::Tensor with dynamic shape
    發(fā)表于 07-11 06:58

    Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    示例和支持,方便開發(fā)者 Nordic 的各類芯片實現(xiàn)高效的邊緣 AI 應(yīng)用; 如果對這個AI人工智能應(yīng)用感興趣,請評論區(qū)聯(lián)系我們.
    發(fā)表于 06-28 14:18

    Raspberry Pi Pico 2 實現(xiàn):實時機器學(xué)習(xí)ML)音頻噪音抑制功能

    Arm公司的首席軟件工程師SandeepMistry為我們展示了一種全新的巧妙方法:RaspberryPiPico2如何將音頻噪音抑制應(yīng)用于麥克風(fēng)輸入。機器學(xué)習(xí)
    的頭像 發(fā)表于 03-25 09:46 ?1141次閱讀
    Raspberry Pi Pico 2 <b class='flag-5'>上</b><b class='flag-5'>實現(xiàn)</b>:實時<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>(<b class='flag-5'>ML</b>)音頻噪音抑制功能

    使用OpenVINO?進行推理時的內(nèi)存泄漏怎么解決?

    使用 OpenVINO? 進行推理時,內(nèi)存會隨著時間的推移而增加,并導(dǎo)致程序崩潰。
    發(fā)表于 03-06 08:29

    使用Python APIOpenVINO?中創(chuàng)建了用于異步推理的自定義代碼,輸出張量的打印結(jié)果會重復(fù),為什么?

    使用 Python* API OpenVINO? 中創(chuàng)建了用于異步推理的自定義代碼。 遇到輸出張量的打印結(jié)果會重復(fù)的問題,即使輸入圖像不同。
    發(fā)表于 03-06 07:53

    如何使用多攝像頭作為OpenVINO?推理的輸入?

    無法確定如何使用多攝像頭作為OpenVINO?推理的輸入
    發(fā)表于 03-06 07:30

    為什么深度學(xué)習(xí)中的Frame per Second高于OpenVINO?演示推理腳本?

    DL Workbench 使用 Microsoft 通用對象上下文 (MS COCO) 數(shù)據(jù)集運行 YOLOv4 對象檢測模型,并獲得 50 - 60 FPS。 OpenVINO?演示
    發(fā)表于 03-06 07:27

    是否可以使用OpenVINO?部署管理器部署機器運行Python應(yīng)用程序?

    使用 OpenVINO?部署管理器創(chuàng)建運行時軟件包。 將運行時包轉(zhuǎn)移到部署機器中。 無法確定是否可以部署機器運行 Python 應(yīng)用程
    發(fā)表于 03-05 08:16

    為什么無法在運行時C++推理中讀取OpenVINO?模型?

    使用模型優(yōu)化器 2021.1 版OpenVINO?轉(zhuǎn)換模型 使用 Runtime 2022.3 版本 C++ 推理實現(xiàn) ( core.read_model()) 中讀取模型
    發(fā)表于 03-05 06:17

    C#集成OpenVINO?:簡化AI模型部署

    開源測控、機器視覺、數(shù)采與分析三大領(lǐng)域中,如何快速AI模型集成到應(yīng)用程序中, 實現(xiàn)AI賦能和
    的頭像 發(fā)表于 02-17 10:03 ?2711次閱讀
    C#集成<b class='flag-5'>OpenVINO</b>?:簡化<b class='flag-5'>AI</b>模型部署

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1581次閱讀
    使用NVIDIA<b class='flag-5'>推理</b><b class='flag-5'>平臺</b>提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    C#中使用OpenVINO?:輕松集成AI模型!

    與分析三大領(lǐng)域中,如何快速AI模型集成到應(yīng)用程序中,實現(xiàn)AI賦能和應(yīng)用增值?最容易的方式是:C#中,使用
    的頭像 發(fā)表于 02-07 14:05 ?1826次閱讀
    C#中使用<b class='flag-5'>OpenVINO</b>?:輕松集成<b class='flag-5'>AI</b>模型!