chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡(jiǎn)單三步在Windows上調(diào)用低功耗NPU部署AI模型

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 2024-02-22 17:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

相信很多小伙伴都已經(jīng)知道,在最新一代的英特爾 酷睿 Ultra 移動(dòng)端處理中已經(jīng)集成了被稱(chēng)為 NPU 的神經(jīng)網(wǎng)絡(luò)加速處理器,以提供低功耗的 AI 算力,特別適合于 PC 端需要長(zhǎng)時(shí)間穩(wěn)定運(yùn)行的 AI 輔助功能,例如會(huì)議聊天軟件中的自動(dòng)摳像,或是畫(huà)面超分辨率等應(yīng)用。而 OpenVINO 工具套件也在第一時(shí)間對(duì) NPU 進(jìn)行了適配,接下來(lái)就讓我們一起看一下如何在英特爾 酷睿 Ultra 處理器上搭建基礎(chǔ)環(huán)境,并調(diào)用 NPU 進(jìn)行模型推理任務(wù)。

NPU 驅(qū)動(dòng)安裝

首先我們需要確保是否安裝了最新版的 NPU 驅(qū)動(dòng),可以通過(guò) Windows 任務(wù)管理調(diào)出當(dāng)前 NPU 驅(qū)動(dòng)版本信息。

7f01b5f0-d162-11ee-a297-92fbcf53809c.jpg

圖:NPU 在 Windows 任務(wù)管理器中顯示驅(qū)動(dòng)版本

查詢(xún)當(dāng)前最新的 NPU 驅(qū)動(dòng)版本:

https://www.intel.com/content/www/us/en/download/794734/intel-npu-driver-windows.html

7f1ff6a0-d162-11ee-a297-92fbcf53809c.png

圖:NPU 驅(qū)動(dòng)下載頁(yè)面

如果想更新或是重裝 NPU 驅(qū)動(dòng),可以參考以下指引下載并安裝驅(qū)動(dòng):

https://docs.openvino.ai/2023.3/openvino_docs_install_guides_configurations_for_intel_npu.html

OpenVINO 的下載和安裝

由于目前 NPU Plugin 還沒(méi)有被集成在 OpenVINO 的 PyPI 安裝包中,因此我們需要通過(guò)下載 OpenVINO runtime 壓縮包的方式進(jìn)行安裝。

7f35a298-d162-11ee-a297-92fbcf53809c.png

圖:OpenVINO 下載頁(yè)面

整個(gè)安裝過(guò)程非常簡(jiǎn)單,只需將壓縮包解壓到在本地路徑下即可。具體方法可以參考上圖標(biāo)紅處的安裝說(shuō)明。

7f5bbdd4-d162-11ee-a297-92fbcf53809c.png

圖:將壓縮包解壓至本地路徑

Python 環(huán)境配置

通過(guò)執(zhí)行壓縮包中的 setupvars.bat 環(huán)境配置腳本,我們便可以直接在 Python 環(huán)境下加載 OpenVINO runtime 和 NPU Plugin 環(huán)境。同時(shí)利用 OpenVINO 的 Python API 指令,我們可以快速驗(yàn)證 NPU 是否可以被正常調(diào)用。

7fbe5232-d162-11ee-a297-92fbcf53809c.jpg

圖:Python 環(huán)境中驗(yàn)證 NPU 調(diào)用

C++ 環(huán)境配置

不同于 Python,Windows 上的 C++ 應(yīng)用需要依賴(lài)于 CMake 或者是 Visual Studio 的環(huán)境下調(diào)試,因此這里我們需要簡(jiǎn)單配置下 OpenVINO 庫(kù)的路徑。下面以 Visual Studio 中新建項(xiàng)目的屬性配置頁(yè)面為例。

7fd6349c-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 頭文件路徑

7ff36080-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 動(dòng)態(tài)庫(kù)路徑

800aead4-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 及 frontednd 靜態(tài)庫(kù)路徑

80332d0a-d162-11ee-a297-92fbcf53809c.png

圖:在 Windows 本地添加 OpenVINO 環(huán)境變量路徑

當(dāng)完成 Visual Studio 項(xiàng)目屬性配置后,我們可以通過(guò)調(diào)試以下示例代碼,測(cè)試 NPU 是否可以被檢測(cè)及調(diào)用。

#include 
#include 


int main(int argc, char* argv[]) {


  // -------- Get OpenVINO runtime version --------
  std::cout << ov::get_openvino_version() << std::endl;


 ? ?// -------- Step 1. Initialize OpenVINO Runtime Core --------
 ? ?ov::Core core;


 ? ?// -------- Step 2. Get list of available devices --------
 ? ?std::vector availableDevices = core.get_available_devices();


  // -------- Step 3. Query and print supported metrics and config keys --------
  std::cout << "available devices: " << std::endl;
 ? ?for (auto&& device : availableDevices) {
 ? ? ? ?std::cout << device << std::endl;
 ? ?}
}

805d6408-d162-11ee-a297-92fbcf53809c.png

圖:VS 環(huán)境中驗(yàn)證 NPU 調(diào)用

測(cè)試效果

當(dāng)完成 NPU 安裝后,我們可以通過(guò) OpenVINO notebooks 中提供的示例,簡(jiǎn)單測(cè)試下 NPU 的性能。這個(gè)示例會(huì)通過(guò)以下 Python 代碼來(lái)將模型部署在 NPU 上。

compiled_model = core.compile_model("model.xml", "NPU")

8077ab42-d162-11ee-a297-92fbcf53809c.png

圖:實(shí)時(shí)人體關(guān)鍵點(diǎn)演示效果

可以看到 NPU 在運(yùn)行實(shí)時(shí)人體關(guān)鍵點(diǎn)檢測(cè)模型時(shí)的效果和速度還是非常不錯(cuò)的,達(dá)到了 90FPS 的吞吐量,同時(shí)推理任務(wù)幾乎也沒(méi)有占用 CPU 額外的資源,真正做到了在提供高算力的同時(shí),減輕 CPU 和 GPU 的任務(wù)負(fù)載。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4829

    瀏覽量

    106880
  • python
    +關(guān)注

    關(guān)注

    57

    文章

    4860

    瀏覽量

    89647
  • 加速處理器
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    6531
  • NPU
    NPU
    +關(guān)注

    關(guān)注

    2

    文章

    359

    瀏覽量

    20856

原文標(biāo)題:簡(jiǎn)單三步在 Windows 上調(diào)用低功耗 NPU 部署 AI 模型 | 開(kāi)發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【CIE全國(guó)RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地

    /Qwen2.5-Coder-14B-Instruct-GGUF Qwen2.5-Coder-14B-Instruct-Q2_K.gguf --local_dir . 第三步:編寫(xiě)測(cè)試腳本
    發(fā)表于 11-27 14:43

    如何利用NPU模型壓縮技術(shù)優(yōu)化邊緣AI

    隨著人工智能模型從設(shè)計(jì)階段走向?qū)嶋H部署,工程師面臨著雙重挑戰(zhàn):計(jì)算能力和內(nèi)存受限的嵌入式設(shè)備上實(shí)現(xiàn)實(shí)時(shí)性能。神經(jīng)處理單元(NPU)作為強(qiáng)大的硬件解決方案,擅長(zhǎng)處理
    的頭像 發(fā)表于 11-07 15:26 ?1075次閱讀
    如何利用<b class='flag-5'>NPU</b>與<b class='flag-5'>模型</b>壓縮技術(shù)優(yōu)化邊緣<b class='flag-5'>AI</b>

    使用瑞薩RUHMI工具實(shí)現(xiàn)AI模型部署過(guò)程

    AI無(wú)處不在。你部署AI,你的競(jìng)爭(zhēng)對(duì)手也部署AI
    的頭像 發(fā)表于 10-17 10:00 ?2413次閱讀
    使用瑞薩RUHMI工具實(shí)現(xiàn)<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>過(guò)程

    工業(yè)視覺(jué)網(wǎng)關(guān):RK3576賦能多路檢測(cè)與邊緣AI

    ?!?實(shí)時(shí)性與穩(wěn)定性:漏檢/誤檢帶來(lái)返工與投訴風(fēng)險(xiǎn),系統(tǒng)需長(zhǎng)時(shí)穩(wěn)定、低時(shí)延?!?質(zhì)量追溯與合規(guī):檢測(cè)結(jié)果需與工單/MES/條碼綁定,形成可回溯的證據(jù)鏈?!?成本與部署:希望以更低功耗/體積/成本替代傳統(tǒng)
    發(fā)表于 10-16 17:56

    ALINX VD100低功耗端側(cè)大模型部署方案,運(yùn)行3B模型功耗僅5W?!

    模型能運(yùn)行≠用戶(hù)體驗(yàn)好。 IDC 預(yù)測(cè),到 2026 年,全球超過(guò) 50% 的企業(yè) AI 工作負(fù)載將部署邊緣設(shè)備上。
    的頭像 發(fā)表于 09-03 14:58 ?507次閱讀
    ALINX VD100<b class='flag-5'>低功耗</b>端側(cè)大<b class='flag-5'>模型</b><b class='flag-5'>部署</b>方案,運(yùn)行3B<b class='flag-5'>模型</b><b class='flag-5'>功耗</b>僅5W?!

    基于米爾瑞芯微RK3576開(kāi)發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評(píng)測(cè)

    關(guān)鍵詞:瑞芯微 RK3576、NPU(神經(jīng)網(wǎng)絡(luò)處理器)、端側(cè)小語(yǔ)言模型(SLM)、多模態(tài) LLM、邊緣 AI 部署、開(kāi)發(fā)板、RKLLM隨著大語(yǔ)言
    發(fā)表于 08-29 18:08

    AI的未來(lái),屬于那些既能寫(xiě)代碼,又能焊電路的“雙棲人才”

    AI模型MCU/NPU部署的文章互動(dòng)量增長(zhǎng)超300%;嵌入式AI相關(guān)問(wèn)答數(shù)量翻倍;PCB+
    發(fā)表于 07-30 16:15

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒(méi)有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    無(wú)法NPU上推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?

    NPU 上推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。 遇到的錯(cuò)誤: get_shape was called on a descriptor::Tensor with dynamic shape
    發(fā)表于 07-11 06:58

    RK3588核心板邊緣AI計(jì)算中的顛覆性?xún)?yōu)勢(shì)與場(chǎng)景落地

    低功耗。相比傳統(tǒng)四核A72方案(如RK3399),單線(xiàn)程性能提升80%,多線(xiàn)程任務(wù)處理能力翻倍。 6TOPS獨(dú)立NPU: 支持INT8/INT16混合精度計(jì)算,可直接部署YOLOv5
    發(fā)表于 04-15 10:48

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    模型全鏈路分析功能,針對(duì)AI應(yīng)用開(kāi)發(fā)的大痛點(diǎn)逐個(gè)擊破。 當(dāng)前AI應(yīng)用開(kāi)發(fā)者使用開(kāi)發(fā)工具時(shí)會(huì)面臨一個(gè)很頭疼的問(wèn)題,種類(lèi)多、功能不聚合、過(guò)
    發(fā)表于 04-13 19:52

    C#集成OpenVINO?:簡(jiǎn)化AI模型部署

    開(kāi)源測(cè)控、機(jī)器視覺(jué)、數(shù)采與分析大領(lǐng)域中,如何快速將AI模型集成到應(yīng)用程序中, 實(shí)現(xiàn)AI賦能和應(yīng)用增值? 最容易的方式是:
    的頭像 發(fā)表于 02-17 10:03 ?2543次閱讀
    C#集成OpenVINO?:簡(jiǎn)化<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    添越智創(chuàng)基于 RK3588 開(kāi)發(fā)板部署測(cè)試 DeepSeek 模型全攻略

    AI 處理效率,成為部署各類(lèi) AI 模型的關(guān)鍵依托。 憑借這些卓越的硬件性能,RK3588 開(kāi)發(fā)板保持
    發(fā)表于 02-14 17:42

    企業(yè)AI模型部署攻略

    當(dāng)下,越來(lái)越多的企業(yè)開(kāi)始探索和實(shí)施AI模型,以提升業(yè)務(wù)效率和競(jìng)爭(zhēng)力。然而,AI模型部署并非易事,需要企業(yè)
    的頭像 發(fā)表于 12-23 10:31 ?1344次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    以及邊緣計(jì)算能力的增強(qiáng),越來(lái)越多的目標(biāo)檢測(cè)應(yīng)用開(kāi)始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運(yùn)行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶(hù)隱私,同時(shí)也減輕了云端服務(wù)器的壓力。然而,邊緣端部署高效且準(zhǔn)確的目標(biāo)檢測(cè)模型
    發(fā)表于 12-19 14:33