chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

淺談邊緣視頻分析

jf_pJlTbmA9 ? 2023-10-27 16:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概覽概覽

視頻分析是指通過視頻處理、推論和分析操作將視頻流轉(zhuǎn)化為洞察力,用于醫(yī)療保健、零售、娛樂和工業(yè)等商業(yè)領(lǐng)域,視頻分析所使用的算法對輸入視頻流進行物體探測、分類、識別、計數(shù)和跟蹤。

使用這一案例的特點是可互操作的集裝箱化微服務(wù),用于開發(fā)和部署使用建造的優(yōu)化視頻分析管道Intel? DL Streamer包件提供的預(yù)制集裝箱圖像使開發(fā)商能夠用自己的深層學(xué)習(xí)模型和管道取代集裝箱中使用的深層學(xué)習(xí)模型和管道。工業(yè)邊緣觀察(EII)用于在邊緣設(shè)備上進行視頻分析的軟件堆疊 。

開發(fā)者可以通過使用預(yù)先制造的Docker* 圖像和簡單地以眾所周知的JSON格式配置視頻分析管道來節(jié)省開發(fā)和部署時間。

選定配置 下載下載微觀服務(wù)和下列軟件。

配置 下載完成時間 :45分鐘 45分鐘

語言:Python* 3

可用軟件 :

邊緣視頻分析

Deep Learning Streamer (Intel? DL Streamer) Pipeline Server

目標(biāo)系統(tǒng)要求

下列處理器之一:

6th to 11th generation Intel? Core? processors

1st to 3rd generation of Intel? Xeon? Scalable processors

Intel Atom? processor with Intel? Streaming SIMD Extensions 4.2 (Intel? SSE4.2)

至少8GB內(nèi)存。

至少64GB硬盤。

互聯(lián)網(wǎng)連接。

Ubuntu* 20.04 LTS Kernel 5.4?

引用到OpenVINO? Toolkit System Requirements支持的 GPU 和 VPU 處理器。

? Use Kernel 5.8 for 11th generation Intel? Core? processors.

如何運作

邊緣視頻分析

這是用于部署最佳視頻分析分析管道的Python* 微型服務(wù),作為Docker圖像在包件中提供。Intel? DL Streamer用于推斷的管道服務(wù)器。 Docker 圖像使用Intel? DL Streamer Pipeline Server as a library. The microservice can be started in one of two modes – Edge Insights Industrial (EII) to deploy with EII software stack or Edge Video Analytics (EVA) to deploy independent of the EII stack.

Edge Video Analytics (EVA) Mode: Provides the same RESTful APIs as Intel? DL Streamer Pipeline Server to discover, start, stop, customize,和monitor pipeline execution和supports MQTT和Kafka message brokers for publishing the inference results. For the REST API definition, refer to the Restfforforfor Microsservices 微服務(wù)接口.

工業(yè)(EII)模式的邊緣透視:支持管道執(zhí)行的 EII 配置管理器,以及發(fā)布推論結(jié)果的 EI 信息管道,使其與工業(yè)的邊緣透視軟件堆疊。

wKgZomTDjJyAHnpNAAE0p5-OjCY825.png

圖1:建筑圖圖

注意: 可以選擇, 人們也可以從 Docker 樞紐下載 docker 圖像, 來運行獨立版本的微服務(wù)。 這是斷層視頻分析微服務(wù), 沒有安裝信息總線出版商和 gst- udfloader 元素等工業(yè)部件的邊緣透視, 因此容器大小較小 。

wKgaomTDjJ-AaP7WAADkPrmrtPs923.png

圖2 建筑圖圖 - 獨立版本

微服務(wù)資源

在邊緣視頻分析微觀服務(wù)中使用的以下配置文件、腳本和工具已列入邊緣視頻分析資源拉鏈文件:

docker- competable. yml 轉(zhuǎn)換器用于邊緣視頻分析微服務(wù) 和 MQTT 經(jīng)紀(jì)人的文件配置、創(chuàng)建和啟動容器 。

管道和模型列表文件夾中包含“邊緣視頻分析微觀服務(wù)嵌入器”圖像中所包含的管道和示范定義文件。這些文件可以通過體積遞增來修改和使用“邊緣視頻分析微觀服務(wù)嵌入器”圖像。

工具/模型下下加載器工具工具從openvinotoolkit/open_model_zoo.

約克基多文件夾中包含一個配置 MQTT 代理器的文件, 以查看推斷結(jié)果 。

GST-UDF-LOADER元素

gst-udf-loader gstreamer 插件支持 python 和 本地(c) UDFs 的裝載和執(zhí)行。 UDF 是用戶定義的功能,使用戶能夠在 EVAM 定義的管道中添加任何預(yù)處理或后處理邏輯。

集裝箱發(fā)動機和管弦

該軟件包使用Docker和Docker Compose進行自動集裝箱管理。

Docker集裝箱框架是企業(yè)環(huán)境中廣泛使用的集裝箱框架,允許將各種應(yīng)用及其依賴性包裝在一起,作為自足單位運行。

Docker Compose是一個用于定義和運行多集裝箱套件應(yīng)用程序的工具。

開始

第1步:安裝微觀服務(wù)

選定配置 下載下載微服務(wù),然后按以下步驟安裝。

配置 下載

打開一個新的終端, 轉(zhuǎn)到下載的文件夾并解zip 下載的軟件包 :

unzip video_analytics.zip

轉(zhuǎn)到視頻分析/目錄 :

cd video_analytics

更改可執(zhí)行的邊緣軟件文件的權(quán)限 :

chmod 755 edgesoftware

在下面運行安裝微服務(wù)的命令 :

sudo ./edgesoftware install

安裝期間,您將被提示產(chǎn)品鍵。產(chǎn)品鍵包含在Intel發(fā)來的郵件中,該郵件確認您的下載。

wKgaomTDjKOALkiUAAJKzMNbOqE140.png

圖3:產(chǎn)品鍵

When the installation is complete, you see the message?“Installation of package complete”和the installation status for each module.

wKgaomTDjKeAcQ8rAALytPrD1ps365.png

圖4 圖4:安裝完成

要校驗安裝, 請列出使用以下命令下載的 Docker 圖像 :

sudo docker images

如果安裝成功, 您將會看到類似 :

wKgZomTDjKqAbD3jAAEd7c6fYOE246.png

圖5:安裝成功?

注:
路徑中將可用安裝失敗日志 :/var/log/esb-cli/video_analytics_何 地是下載的邊緣視頻分析微服務(wù)版本。
Docker 樞紐可直接下載邊緣視頻分析微服務(wù)嵌入圖像, 使用以下命令 :
docker pull intel/邊緣 _ 視頻_分析_微觀服務(wù):

安裝獨立版本

Docker 樞紐可使用以下命令直接從 Docker 樞紐下載獨立版本的 邊緣視頻分析微服務(wù) 的 docker 圖像 :

docker pull intel/邊緣 _ 視頻_分析_微觀服務(wù):-standalone

步驟2:運行邊緣視頻分析

在此步驟中,您將運行邊緣視頻分析微服務(wù),包括樣品物體探測、物體分類、物體跟蹤、面部檢測、情感識別、動作識別和環(huán)境音頻探測管道,這些已經(jīng)包含在多克圖像中。

添加文件權(quán)限 :

跳轉(zhuǎn)到工作目錄Edge_Video_Analytics_Resources帶有命令 :

cd 視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources/

添加文件權(quán)限以使用命令運行腳本 :

sudo chmod +x docker/run.sh
sudo chmod +x 工具/模型下下加載器/model_downloader.sh 

?下載模型 :

通過運行命令從工作目錄中 Open Model Zoo 下載所需的模型 :

sudo ./工具/模型下下加載器/model_downloader.sh --model-list models_list/models.list.yml

模型列表可以通過打開models_list/models.list.yml 文件。

通過瀏覽模式目錄, 檢查下載是否成功 :

wKgaomTDjK6AdzVdAALUxHs0TQM285.png

圖6:模型目錄

注:示范清單可以修改或更新。

運行微服務(wù):

以命令啟動應(yīng)用程序 :sudo docker 合成

檢查終端中的成功信息 。

wKgZomTDjLqARHlNAAnPWhie7D4460.png

圖7 圖7:成功信息

打開一個新的終端,檢查集裝箱是否使用以下命令運行:

sudo docker ps -–format 'table{{.Image}}t{{.Status}}t{{.Names}}' 

命令輸出應(yīng)該顯示兩個 docker 容器邊緣 _ 視頻_分析_微觀服務(wù)和日食- 日食- 日食具有咨商地位或具有Up.

wKgaomTDjL2ASKlBAAC0J4XeIFI950.png

圖8:集裝箱運行中的集裝箱

利用REST請求,獲取集裝箱內(nèi)現(xiàn)有模型和管道清單:

打開一個新的終端 。

運行以下命令以獲取微服務(wù)中可用的模型列表 :

curl --location -X GET 'http://localhost:8080/models'

運行以下命令以獲取微服務(wù)中可用的管道列表。 管道以名稱/ version tuple 顯示。 名稱反映動作, 版本提供此動作的更多細節(jié) 。

curl --location -X GET 'http://localhost:8080/pipelines' 


注:如果這些步驟由于代理問題而失敗,則提及排除故障段 次 頁 次

發(fā)送ReST請求以運行物體探測管道:

通過替換創(chuàng)建 REST 請求在下面的曲線命令中,您系統(tǒng)的 IP 地址為 IP 。 (如果您在 PRC 區(qū)域,請參考下面的第二個選項。 )
引用到自定義視頻分析管道請求以理解 " STP-REST " 申請格式。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
    "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/person-bicycle-car-detection.mp4?raw=true",
    "type": "uri"
  },
  "destination": {
    "metadata": {
      "type": "mqtt",
      "host": ":1883",
      "topic": "vaserving"
    },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}'

對于 PRC 用戶,請使用下面顯示的鏈接替換在下面的卷軸命令中,使用您的系統(tǒng)的 IP 地址。
引用到自定義視頻分析管道請求以理解 " STP-REST " 申請格式。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
    "uri": "file:///home/pipeline-server/resources/classroom.mp4",
    "type": "uri"
  },
  "destination": {
    "metadata": {
      "type": "mqtt",
      "host": ":1883",
      "topic": "vaserving"
    },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}'


注:對于低于0.7.2的EVAM版本,在工作目錄不同時,對uri使用以下文字:檔案: /app/resources/lechroom.mp4

打開一個新的終端并運行修改的卷軸命令。 REST 請求將返回管道實例 ID, 可用于查詢管道狀態(tài) 。

例如,就第一期而言,根據(jù)請求,管道(例如,a6d67224eacc11ec9f360242c0a8603)將歸還,隨后又以遞增號返回請求。

檢查結(jié)果:?

顯示微服務(wù)日志的初始終端窗口現(xiàn)在顯示新發(fā)送請求的日志, 包括管道實例、 狀態(tài)和 RTSP 流鏈接。 管道狀態(tài)將顯示隊列、 運行和完成 。

wKgZomTDjMGARuSgAALaNdRfJvw625.png

圖9:核對結(jié)果

使用管道實例ID發(fā)送 Get 請求,檢查輸油管狀況:

curl --location -X GET 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike//status'

何 地是管道實例。
從GET請求中收到的答復(fù)與以下各點相似:

{
  "avg_fps": 27.014388149183596,
  "elapsed_time": 2.2934277057647705,
  "id": a6d67224eacc11ec9f360242c0a86003,
  "start_time": 1641468940.5196402,
  "state": "RUNNING"
} 

注:如果輸油管線已經(jīng)終止,那么國家將顯示為"COMPLETED".

打開 VLC 播放器中的輸出 RTSP 流, 以查看替換后輸入視頻上的推推結(jié)果在您的系統(tǒng) IP 地址的下列 URL 中:rtsp:// :8554/vasserving

請注意, 管道應(yīng)該在 RUNNING 狀態(tài)下查看輸出視頻。 如果管道已經(jīng)結(jié)束, 請使用卷曲命令重新開始, 然后查看視頻 。

wKgaomTDjMyAbLDrAAUjOmFJKX8792.png

圖10: 推斷結(jié)果

發(fā)送 REST 請求的替代方法 :
REST請求也可以通過郵遞員應(yīng)用程序發(fā)送,使用與前幾個步驟相同的卷曲命令。
要安裝 Postman 應(yīng)用程序,請執(zhí)行以下步驟:

轉(zhuǎn)到郵差下載.

在想要的位置提取安裝文件 。

提取后,雙擊應(yīng)用程序,并用您現(xiàn)有的賬戶簽名,或創(chuàng)建新賬戶簽名。

正在運行獨立版本

獨立版本的邊緣視頻分析分析微服務(wù)與 EVA 模式相似,不同之處在于它沒有任何 EII 組件,因此只能以 EVA 模式運行。結(jié)構(gòu)結(jié)構(gòu)圖圖,它是全容器圖像的脫光版。需要以下步驟才能運行獨立的微服務(wù)版本。

如果尚未完成, 請使用命令下載雙向視頻分析微服務(wù)獨立版本的 docker 圖像 :

$ docker pull intel/邊緣 _ 視頻_分析_微觀服務(wù):1.0.0-standalone

為提升微服務(wù),請使用以下命令:

$ docker run -itd --rm 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     intel/邊緣 _ 視頻_分析_微觀服務(wù):1.0.0-standalone

向輸油管服務(wù)器發(fā)送 REST 請求以運行 對象_ 分類/ 車輛/ 屬性管道。 以下 CURL 命令為我們這樣做 。 回復(fù)將包含管道例 id (例如: a6d67224eacc11ec11ec9f360242c0a8603) , 用于使用輸油管- 服務(wù)器狀態(tài) API 查詢管道狀態(tài) 。

$ curl localhost:8080/pipelines/object_classification/vehicle_attributes -X POST -H 
     'Content-Type: application/json' -d 
     '{
        "source": {
"uri": "https://github.com/intel-iot-devkit/sample-videos/blob/master/car-detection.mp4?raw=true",
"type": "uri"
        },
        "destination": {
"metadata": {
   "type": "file",
   "path": "/tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl",
   "format": "json-lines"
},
"frame": {
   "type": "rtsp",
   "path": "pipeline-server"
}
        },
        "parameters": {
"detection-device": "CPU"
        }
     }'

微觀服務(wù)處公布元元數(shù)據(jù)的推推到一個本地文件,可在以下網(wǎng)址查閱:/tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl處理后的框架還作為RTSP流提供,可在下列地點查閱:trtsp://localhost:8554/管道-服務(wù)器,并且可以使用 RTSP 查看器查看。

添加模型和定制管道

可使用可用的下載腳本下載更多模型here.

您可以查詢pipeline server docs創(chuàng)建自定義管道,并使用邊緣視頻分析微服務(wù)。

假設(shè)其他模型和管道分別以${pwd}/模型和${pwd}/管道提供,則設(shè)定了以下環(huán)境變量。

$ export MODEL_DIR=$(pwd)/models
$ export PIPELINE_DIR=$(pwd)/pipelines

為提升微服務(wù),請使用以下命令:

$ docker run -itd --rm 
     --privileged 
     --device=/dev:/dev 
     --device-cgroup-rule='c 189:* rmw' 
     --device-cgroup-rule='c 209:* rmw' 
     --group-add 109 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     -e DETECTION_DEVICE=CPU 
     -e CLASSIFICATION_DEVICE=CPU 
     -v ${MODEL_DIR}:/home/pipeline-server/models 
     -v ${PIPELINE_DIR}:/home/pipeline-server/pipelines 
     intel/邊緣 _ 視頻_分析_微觀服務(wù):${TAG}

正在運行 iGPU 上的推斷

要啟用對 iGPU 推論的支持, 您將需要將額外的旗幟傳遞到 docker 運行命令上, 詳情如下 。

$ docker run -itd --rm 
     --privileged 
     --device=/dev:/dev 
     --device-cgroup-rule='c 189:* rmw' 
     --device-cgroup-rule='c 209:* rmw' 
     --group-add 109 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     intel/邊緣 _ 視頻_分析_微觀服務(wù):${TAG}

可選: 帶視頻分析測試模塊進行測試

安裝完成后,您可通過運行視頻分析測試模塊測試您的設(shè)置。

詳情,請參見Intel? Edge Software Device Qualification (Intel? ESDQ) for Video Analytics.

教腳

教程1: 在 GPU 上運行物件探測管道

此教程將演示如何更改運行 GPU 上的推論的推論設(shè)備 。
您將再次運行相同的對象_ 檢測管道, 但這次您將使用集成的 GPU 進行檢測推理, 設(shè)置檢測- 檢測設(shè)備參數(shù) 。

完成所有步驟Get Started上文一節(jié)。

在目標(biāo)設(shè)備上,檢查以下命令的輸出并獲得設(shè)備組:

stat -c '%g' /dev/dri/render*

在 docker-competect.yml 文件中添加設(shè)備組 :

    group_add:
      - 109

通過替換創(chuàng)建 REST 請求the 在下面的卷軸命令中,使用您的系統(tǒng)的 IP 地址。
請注意REST機體的參數(shù)部分。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/person-bicycle-car-detection.mp4?raw=true",
      "type": "uri"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  },
    "parameters": {
        "detection-device": "GPU"
   }
}' 

注:
GPU 電導(dǎo)內(nèi)插在首次裝入時動態(tài)構(gòu)建 OpenCL 內(nèi)核,導(dǎo)致產(chǎn)生推論結(jié)果前的延遲 ~ 30 秒。
Additional configuration might be needed to run inference on GPU depending on the HW. Refer Configurations for Intel? Processor Graphics (GPU) to download和install install_NEO_OCL_driver.sh (system reboot might be needed).

打開一個新的終端并運行卷軸命令。 REST 請求將返回管道實例 ID (例如, a6d67224eacc11ec9f360242c0a8603) , 可用于查詢管道狀態(tài) 。

校對結(jié)果運行邊緣視頻分析以上步驟。

教學(xué)圖2:使用 USB 相機輸入的 RUN 邊緣視頻分析分析微觀服務(wù)

在此教程中, 您將把物體探測管道的輸入源更改為 USB 相機 。

完成所有步驟Get Started上文一節(jié)。

在Ubuntu上,通過執(zhí)行以下命令,列出所有可用的視頻設(shè)備:是/dev/Vide*

創(chuàng)建 curl 請求, 以便使用視頻設(shè)備作為源。 例如, 如果命令的輸出為 / dev/ Video0, 那么對 curl 命令源進行如下修改 :

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "device": "/dev/video0",
      "type": "webcam"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}' 

打開一個新的終端并運行卷軸命令。 REST 請求將返回管道實例 ID (例如, a6d67224eacc11ec9f360242c0a8603) , 可用于查詢管道狀態(tài) 。

校對結(jié)果運行邊緣視頻分析以上步驟。

注意: 請確定設(shè)備源參數(shù)中使用了正確的設(shè)備節(jié)點 。

教程 3: 在邊緣視頻分析微服務(wù)中以新模式運行新管道

在此教程中, 您將創(chuàng)建一個基于 人- 檢測管道的新管道, 它將使用 人- 檢測- retail- 0013 模型。 管道和模式文件夾將被安裝到邊緣視頻分析微服務(wù)上, 無需重建 Docker 圖像。 您可以遵循同樣的步驟創(chuàng)建任何新的管道 。

完成所有步驟Get Started上文一節(jié)。

下載新模型。
要從開放型動物園下載新模型,請在模型中添加模型細節(jié)。 list. yml 顯示于 Edge_Video_Analytics_Resources/models_list 路徑中。
對于人-檢測-零售-0013,在文件模型.list.yml的結(jié)尾處添加以下條目。

- model: person-detection-retail-0013
  alias: object_detection
  version: person_detection
  precision: [FP16,FP32] 

然后,在一個新的終端中運行以下命令,下載模型。

cd 視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources/
# 何 地 is the Package version downloaded

sudo ./工具/模型下下加載器/model_downloader.sh --model-list models_list/models.list.yml

命令執(zhí)行完成后,下載的模型人-探測儀應(yīng)在模型/物體-探測目錄下提供。
如果您沒有使用來自開放型動物園的模型,請在模型目錄中直接復(fù)制您的模型。

wKgZomTDjNCASSs7AACrpu95hnk262.png

圖11:下載新模型

創(chuàng)建新管道
您將在管道/ 目標(biāo)/ 探測中創(chuàng)建一個新的管道。 既然您正在以現(xiàn)有人_ 車輛_ 自行車管道為基礎(chǔ), 請復(fù)制人_ 車輛_ 自行車文件夾, 將其重命名為人_ 探測, 然后更新管道.json , 以便使用新模式 。
在同一終端中( 從路徑 Edge_ Video_Analytics_Resources) 執(zhí)行命令 :

sudo cp -r pipelines/object_detection/person_vehicle_bike/ pipelines/object_detection/person_detection

在新復(fù)制的管道/物體/探測/人/探測/管道.json中,編輯管道.json文件的模板和說明部分。 json使用以下線條,將示范路徑指定為模型/物體/探測/人/探測,以便使用模型人-探測-零售-0013來探測物體。
將模板定義為 :

	"template": ["uridecodebin name=source"," ! gvadetect model={models[object_detection][person_detection][network]} name=detection"," ! gvametaconvert name=metaconvert ! gvametapublish name=destination"," ! appsink name=appsink"
	], 

說明的定義是:

"description": "Person Detection based on person-detection-retail-0013",

請參見界定媒體分析管道了解輸油管模板和界定自己的輸油管。

使用添加了模型和管道的微型運行服務(wù)
以命令啟動應(yīng)用程序 :

sudo docker 合成 

此步驟會大量掛載模型和管道目錄。 您可以在一個單獨的終端中檢查容器是否正在使用 sudo docker ps 命令運行 。

檢查新的管道和模式
打開一個新終端并運行以下命令以獲取可用的模型列表 :

curl --location -X GET 'http://localhost:8080/models'

運行以下命令以獲取管道列表 。 管道以名稱/ version tuple 顯示。 名稱反映動作, 版本提供動作的更多細節(jié) 。

curl --location -X GET 'http://localhost:8080/pipelines'

您應(yīng)該看到列表中新添加的管道和模型 。

對象_ 檢測/ 人_ 檢測運行管道
打開一個新的終端并輸入下面的曲線命令,用于下文給出的物件_ 檢測/ 人_ 檢測管道:

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_detection' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/store-aisle-detection.mp4?raw=true",
      "type": "uri"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}' 

何 地 is the IP address of the system.
The above curl command returns the pipeline instance. Use this pipeline instance to get the status by updating the in the below command:

curl --location --request GET 'http://localhost:8080/pipelines/object_detection/person_detection//status'  
wKgaomTDjNaAFIvbAATvck6Ists738.png

圖12: 人員探測運行管道

微服務(wù)日志將顯示,天體探測/人探測管道實例已經(jīng)建立,管道狀態(tài)已經(jīng)改為RUNNING,并結(jié)束了。

wKgaomTDjNmANRisAALLaxOiTCY108.png

圖13:管道日志

教程 4: 安裝邊緣視頻分析外殼圖

注:此教程從第2022.1號釋放起支持。

注:此教義假設(shè)您有一個寬網(wǎng)可用分組 。

在此教程中, 您將使用制導(dǎo)圖在 寬網(wǎng) 群集中部署邊緣視頻分析微服務(wù)。 使用 drawnchart 組合圖 。 用于樣本部署的 Guard 圖表包 邊緣視頻分析微服務(wù)和 MQTT 經(jīng)紀(jì)人。 要下載制導(dǎo)圖, 請使用定制的下載選項 。

完成所有步驟Get Started Guide. When the installation is complete, you see the message?“Installation of package complete”和the installation status for each module.

wKgZomTDjN6ALvYuAAGxiIA5Wv8367.png

圖14:成功安裝

將模型、管道和資源文件夾復(fù)制到 /可選/英特爾/評價/庫伯涅茨工人節(jié)點。

上述先決條件完成后,安裝如下圖表:helm install evam ./chart/

wKgaomTDjOOAFot6AAQKVfFGRaM733.png Figure 15: Chart Installation

Get the IP IP 地址 :

kubectl get pods -o wide

wKgaomTDjOiAf-heAAFvZ0IGhFA248.png Figure 16: Retrieving IP Address

更新管道請求指令以觸發(fā)管道。 替換EVAM_POD_IP, MQTT_POD_IP上面有 IP 地址 。

curl --location -X POST 'http://:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "file:///home/pipeline-server/resources/person-bicycle-car-detection.mp4",
      "type": "uri"
  },
  "destination": { 
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      }
  }
}'

注:使用 GitHub URL 支持代理服務(wù)器網(wǎng)絡(luò)時, 視頻文件使用 GitHub URL 可能無法工作 。 相反, 下載視頻文件并添加到資源目錄/可選/英特爾/評價立方公尺內(nèi)立體體體積的路徑。

獲取 MQTT 訂閱者的推斷輸出 :

docker run -it --entrypoint 約克基多_sub  日食- 日食- 日食:latest --topic vaserving -p 1883 -h 

wKgZomTDjO2AQoQ6AAUf5SZUD2U515.png Figure 17: Inference Output

概述和下一步步驟

使用“邊緣視頻分析微服務(wù)” 學(xué)習(xí)如何進行視頻分析。

學(xué)習(xí)更多

繼續(xù)學(xué)習(xí),見下列指南和軟件資源:

GitHub

Docker Image

Helm Charts (概覽概覽)

Microservice Endpoints

自定義視頻分析管道請求

界定媒體分析管道

Intel? Edge Software Device Qualification (Intel? ESDQ) for Video Analytics

排除故障

確保您在完全安裝期間有一個活躍的互聯(lián)網(wǎng)連接。 如果您隨時失去互聯(lián)網(wǎng)連接, 安裝可能會失敗 。

如果安裝在從 Intel 注冊處下載和提取圖像時失敗安裝, 然后重新運行安裝命令sudo ./edgesoftware install通過提供產(chǎn)品鑰匙。
wKgZomTDjPGAYQiFAAEjKf0Dn6M292.png

確保您正在使用一個新的 Ubuntu* 安裝。 早期軟件, 特別是 Docker 和 Docker Compose 可能會引起問題 。

在代理環(huán)境中,如果設(shè)定了單一用戶代理(即. bashrc 鍵) 然后部分組件安裝可能失敗或安裝掛掛掛。 請確定您已經(jīng)設(shè)置了代理服務(wù)器/貝茨/環(huán)境.

如果您的系統(tǒng)在代理服務(wù)器網(wǎng)絡(luò)中, 請在環(huán)境環(huán)境欄內(nèi)docker- competable. yml 轉(zhuǎn)換器文件。

HTTP_PROXY=http:///
HTTPS_PROXY=http:////
NO_PROXY=localhost,127.0.0.1 


輸入代理代理服務(wù)器的詳細信息docker- competable. yml 轉(zhuǎn)換器顯示如下:

wKgaomTDjPSAfuVYAADc2HbLunA816.png

如果缺少代理細節(jié), 則無法獲取運行管道所需的源視頻文件, 并在容器內(nèi)安裝所需的包件 。
wKgaomTDjPeAVjGIAAMxGLcNyek252.png

運行命令sudo - E docker 合成(參考步驟8(安裝邊緣視頻分析微觀服務(wù))

在自定義模式下, 如果目標(biāo)設(shè)備在代理服務(wù)器后面, Helm CLI 安裝可能會失敗。 要修正它, 請更新 apag 代理服務(wù)器的細節(jié) 。

sudo snap set system proxy.http=http:////
sudo snap set system proxy.https=http:////

如果集裝箱顯示有沖突錯誤,則停止/刪除集裝箱。
要刪除邊緣 _ 視頻_分析_微觀服務(wù)和mqtt_ 經(jīng)紀(jì)人,使用以下任何一種備選辦法:

執(zhí)行下列命令:

sudo docker stop 邊緣 _ 視頻_分析_微觀服務(wù) mqtt_ 經(jīng)紀(jì)人
sudo docker rm 邊緣 _ 視頻_分析_微觀服務(wù) mqtt_ 經(jīng)紀(jì)人

或者運行sudo docker 合成向下從路徑 :視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources

wKgZomTDjP2APAlSAAInPo4h9vE772.png

支助論壇支助論壇

If you're unable to resolve your issues, contact the?支助論壇支助論壇.?

概覽概覽

視頻分析是指通過視頻處理、推論和分析操作將視頻流轉(zhuǎn)化為洞察力,用于醫(yī)療保健、零售、娛樂和工業(yè)等商業(yè)領(lǐng)域,視頻分析所使用的算法對輸入視頻流進行物體探測、分類、識別、計數(shù)和跟蹤。

使用這一案例的特點是可互操作的集裝箱化微服務(wù),用于開發(fā)和部署使用建造的優(yōu)化視頻分析管道Intel? DL Streamer包件提供的預(yù)制集裝箱圖像使開發(fā)商能夠用自己的深層學(xué)習(xí)模型和管道取代集裝箱中使用的深層學(xué)習(xí)模型和管道。工業(yè)邊緣觀察(EII)用于在邊緣設(shè)備上進行視頻分析的軟件堆疊 。

開發(fā)者可以通過使用預(yù)先制造的Docker* 圖像和簡單地以眾所周知的JSON格式配置視頻分析管道來節(jié)省開發(fā)和部署時間。

選定配置 下載下載微觀服務(wù)和下列軟件。

配置 下載

wKgZomTDZXyARi0cAAGLXLPSiE4201.png

完成時間 :45分鐘 45分鐘

語言:Python* 3

可用軟件 :

邊緣視頻分析

Deep Learning Streamer (Intel? DL Streamer) Pipeline Server

目標(biāo)系統(tǒng)要求

下列處理器之一:

6th to 11th generation Intel? Core? processors

1st to 3rd generation of Intel? Xeon? Scalable processors

Intel Atom? processor with Intel? Streaming SIMD Extensions 4.2 (Intel? SSE4.2)

至少8GB內(nèi)存。

至少64GB硬盤。

互聯(lián)網(wǎng)連接。

Ubuntu* 20.04 LTS Kernel 5.4?

引用到OpenVINO? Toolkit System Requirements支持的 GPU 和 VPU 處理器。

? Use Kernel 5.8 for 11th generation Intel? Core? processors.

如何運作

邊緣視頻分析

這是用于部署最佳視頻分析分析管道的Python* 微型服務(wù),作為Docker圖像在包件中提供。Intel? DL Streamer用于推斷的管道服務(wù)器。 Docker 圖像使用Intel? DL Streamer Pipeline Server as a library. The microservice can be started in one of two modes – Edge Insights Industrial (EII) to deploy with EII software stack or Edge Video Analytics (EVA) to deploy independent of the EII stack.

Edge Video Analytics (EVA) Mode: Provides the same RESTful APIs as Intel? DL Streamer Pipeline Server to discover, start, stop, customize,和monitor pipeline execution和supports MQTT和Kafka message brokers for publishing the inference results. For the REST API definition, refer to the Restfforforfor Microsservices 微服務(wù)接口.

工業(yè)(EII)模式的邊緣透視:支持管道執(zhí)行的 EII 配置管理器,以及發(fā)布推論結(jié)果的 EI 信息管道,使其與工業(yè)的邊緣透視軟件堆疊。

wKgZomTDjJyAHnpNAAE0p5-OjCY825.png

圖1:建筑圖圖

注意: 可以選擇, 人們也可以從 Docker 樞紐下載 docker 圖像, 來運行獨立版本的微服務(wù)。 這是斷層視頻分析微服務(wù), 沒有安裝信息總線出版商和 gst- udfloader 元素等工業(yè)部件的邊緣透視, 因此容器大小較小 。

wKgaomTDjJ-AaP7WAADkPrmrtPs923.png

圖2 建筑圖圖 - 獨立版本

微服務(wù)資源

在邊緣視頻分析微觀服務(wù)中使用的以下配置文件、腳本和工具已列入邊緣視頻分析資源拉鏈文件:

docker- competable. yml 轉(zhuǎn)換器用于邊緣視頻分析微服務(wù) 和 MQTT 經(jīng)紀(jì)人的文件配置、創(chuàng)建和啟動容器 。

管道和模型列表文件夾中包含“邊緣視頻分析微觀服務(wù)嵌入器”圖像中所包含的管道和示范定義文件。這些文件可以通過體積遞增來修改和使用“邊緣視頻分析微觀服務(wù)嵌入器”圖像。

工具/模型下下加載器工具工具從openvinotoolkit/open_model_zoo.

約克基多文件夾中包含一個配置 MQTT 代理器的文件, 以查看推斷結(jié)果 。

GST-UDF-LOADER元素

gst-udf-loader gstreamer 插件支持 python 和 本地(c) UDFs 的裝載和執(zhí)行。 UDF 是用戶定義的功能,使用戶能夠在 EVAM 定義的管道中添加任何預(yù)處理或后處理邏輯。

集裝箱發(fā)動機和管弦

該軟件包使用Docker和Docker Compose進行自動集裝箱管理。

Docker集裝箱框架是企業(yè)環(huán)境中廣泛使用的集裝箱框架,允許將各種應(yīng)用及其依賴性包裝在一起,作為自足單位運行。

Docker Compose是一個用于定義和運行多集裝箱套件應(yīng)用程序的工具。

開始

第1步:安裝微觀服務(wù)

選定配置 下載下載微服務(wù),然后按以下步驟安裝。

配置 下載

打開一個新的終端, 轉(zhuǎn)到下載的文件夾并解zip 下載的軟件包 :

unzip video_analytics.zip

轉(zhuǎn)到視頻分析/目錄 :

cd video_analytics

更改可執(zhí)行的邊緣軟件文件的權(quán)限 :

chmod 755 edgesoftware

在下面運行安裝微服務(wù)的命令 :

sudo ./edgesoftware install

安裝期間,您將被提示產(chǎn)品鍵。產(chǎn)品鍵包含在Intel發(fā)來的郵件中,該郵件確認您的下載。

wKgaomTDjKOALkiUAAJKzMNbOqE140.png

圖3:產(chǎn)品鍵

When the installation is complete, you see the message?“Installation of package complete”和the installation status for each module.

wKgaomTDjKeAcQ8rAALytPrD1ps365.png

圖4 圖4:安裝完成

要校驗安裝, 請列出使用以下命令下載的 Docker 圖像 :

sudo docker images

如果安裝成功, 您將會看到類似 :

wKgZomTDjKqAbD3jAAEd7c6fYOE246.png

圖5:安裝成功?

注:
路徑中將可用安裝失敗日志 :/var/log/esb-cli/video_analytics_何 地是下載的邊緣視頻分析微服務(wù)版本。
Docker 樞紐可直接下載邊緣視頻分析微服務(wù)嵌入圖像, 使用以下命令 :
docker pull intel/邊緣 _ 視頻_分析_微觀服務(wù):

安裝獨立版本

Docker 樞紐可使用以下命令直接從 Docker 樞紐下載獨立版本的 邊緣視頻分析微服務(wù) 的 docker 圖像 :

docker pull intel/邊緣 _ 視頻_分析_微觀服務(wù):-standalone

步驟2:運行邊緣視頻分析

在此步驟中,您將運行邊緣視頻分析微服務(wù),包括樣品物體探測、物體分類、物體跟蹤、面部檢測、情感識別、動作識別和環(huán)境音頻探測管道,這些已經(jīng)包含在多克圖像中。

添加文件權(quán)限 :

跳轉(zhuǎn)到工作目錄Edge_Video_Analytics_Resources帶有命令 :

cd 視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources/

添加文件權(quán)限以使用命令運行腳本 :

sudo chmod +x docker/run.sh
sudo chmod +x 工具/模型下下加載器/model_downloader.sh 

?下載模型 :

通過運行命令從工作目錄中 Open Model Zoo 下載所需的模型 :

sudo ./工具/模型下下加載器/model_downloader.sh --model-list models_list/models.list.yml

模型列表可以通過打開models_list/models.list.yml 文件。

通過瀏覽模式目錄, 檢查下載是否成功 :

wKgaomTDjK6AdzVdAALUxHs0TQM285.png

圖6:模型目錄

注:示范清單可以修改或更新。

運行微服務(wù):

以命令啟動應(yīng)用程序 :sudo docker 合成

檢查終端中的成功信息 。

wKgZomTDjLqARHlNAAnPWhie7D4460.png

圖7 圖7:成功信息

打開一個新的終端,檢查集裝箱是否使用以下命令運行:

sudo docker ps -–format 'table{{.Image}}t{{.Status}}t{{.Names}}' 

命令輸出應(yīng)該顯示兩個 docker 容器邊緣 _ 視頻_分析_微觀服務(wù)和日食- 日食- 日食具有咨商地位或具有Up.

wKgaomTDjL2ASKlBAAC0J4XeIFI950.png

圖8:集裝箱運行中的集裝箱

利用REST請求,獲取集裝箱內(nèi)現(xiàn)有模型和管道清單:

打開一個新的終端 。

運行以下命令以獲取微服務(wù)中可用的模型列表 :

curl --location -X GET 'http://localhost:8080/models'

運行以下命令以獲取微服務(wù)中可用的管道列表。 管道以名稱/ version tuple 顯示。 名稱反映動作, 版本提供此動作的更多細節(jié) 。

curl --location -X GET 'http://localhost:8080/pipelines' 


注:如果這些步驟由于代理問題而失敗,則提及排除故障段 次 頁 次

發(fā)送ReST請求以運行物體探測管道:

通過替換創(chuàng)建 REST 請求在下面的曲線命令中,您系統(tǒng)的 IP 地址為 IP 。 (如果您在 PRC 區(qū)域,請參考下面的第二個選項。 )
引用到自定義視頻分析管道請求以理解 " STP-REST " 申請格式。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
    "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/person-bicycle-car-detection.mp4?raw=true",
    "type": "uri"
  },
  "destination": {
    "metadata": {
      "type": "mqtt",
      "host": ":1883",
      "topic": "vaserving"
    },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}'

對于 PRC 用戶,請使用下面顯示的鏈接替換在下面的卷軸命令中,使用您的系統(tǒng)的 IP 地址。
引用到自定義視頻分析管道請求以理解 " STP-REST " 申請格式。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
    "uri": "file:///home/pipeline-server/resources/classroom.mp4",
    "type": "uri"
  },
  "destination": {
    "metadata": {
      "type": "mqtt",
      "host": ":1883",
      "topic": "vaserving"
    },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}'


注:對于低于0.7.2的EVAM版本,在工作目錄不同時,對uri使用以下文字:檔案: /app/resources/lechroom.mp4

打開一個新的終端并運行修改的卷軸命令。 REST 請求將返回管道實例 ID, 可用于查詢管道狀態(tài) 。

例如,就第一期而言,根據(jù)請求,管道(例如,a6d67224eacc11ec9f360242c0a8603)將歸還,隨后又以遞增號返回請求。

檢查結(jié)果:?

顯示微服務(wù)日志的初始終端窗口現(xiàn)在顯示新發(fā)送請求的日志, 包括管道實例、 狀態(tài)和 RTSP 流鏈接。 管道狀態(tài)將顯示隊列、 運行和完成 。

wKgZomTDjMGARuSgAALaNdRfJvw625.png

圖9:核對結(jié)果

使用管道實例ID發(fā)送 Get 請求,檢查輸油管狀況:

curl --location -X GET 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike//status'

何 地是管道實例。
從GET請求中收到的答復(fù)與以下各點相似:

{
  "avg_fps": 27.014388149183596,
  "elapsed_time": 2.2934277057647705,
  "id": a6d67224eacc11ec9f360242c0a86003,
  "start_time": 1641468940.5196402,
  "state": "RUNNING"
} 

注:如果輸油管線已經(jīng)終止,那么國家將顯示為"COMPLETED".

打開 VLC 播放器中的輸出 RTSP 流, 以查看替換后輸入視頻上的推推結(jié)果在您的系統(tǒng) IP 地址的下列 URL 中:rtsp:// :8554/vasserving

請注意, 管道應(yīng)該在 RUNNING 狀態(tài)下查看輸出視頻。 如果管道已經(jīng)結(jié)束, 請使用卷曲命令重新開始, 然后查看視頻 。

wKgaomTDjMyAbLDrAAUjOmFJKX8792.png

圖10: 推斷結(jié)果

發(fā)送 REST 請求的替代方法 :
REST請求也可以通過郵遞員應(yīng)用程序發(fā)送,使用與前幾個步驟相同的卷曲命令。
要安裝 Postman 應(yīng)用程序,請執(zhí)行以下步驟:

轉(zhuǎn)到郵差下載.

在想要的位置提取安裝文件 。

提取后,雙擊應(yīng)用程序,并用您現(xiàn)有的賬戶簽名,或創(chuàng)建新賬戶簽名。

正在運行獨立版本

獨立版本的邊緣視頻分析分析微服務(wù)與 EVA 模式相似,不同之處在于它沒有任何 EII 組件,因此只能以 EVA 模式運行。結(jié)構(gòu)結(jié)構(gòu)圖圖,它是全容器圖像的脫光版。需要以下步驟才能運行獨立的微服務(wù)版本。

如果尚未完成, 請使用命令下載雙向視頻分析微服務(wù)獨立版本的 docker 圖像 :

$ docker pull intel/邊緣 _ 視頻_分析_微觀服務(wù):1.0.0-standalone

為提升微服務(wù),請使用以下命令:

$ docker run -itd --rm 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     intel/邊緣 _ 視頻_分析_微觀服務(wù):1.0.0-standalone

向輸油管服務(wù)器發(fā)送 REST 請求以運行 對象_ 分類/ 車輛/ 屬性管道。 以下 CURL 命令為我們這樣做 。 回復(fù)將包含管道例 id (例如: a6d67224eacc11ec11ec9f360242c0a8603) , 用于使用輸油管- 服務(wù)器狀態(tài) API 查詢管道狀態(tài) 。

$ curl localhost:8080/pipelines/object_classification/vehicle_attributes -X POST -H 
     'Content-Type: application/json' -d 
     '{
        "source": {
"uri": "https://github.com/intel-iot-devkit/sample-videos/blob/master/car-detection.mp4?raw=true",
"type": "uri"
        },
        "destination": {
"metadata": {
   "type": "file",
   "path": "/tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl",
   "format": "json-lines"
},
"frame": {
   "type": "rtsp",
   "path": "pipeline-server"
}
        },
        "parameters": {
"detection-device": "CPU"
        }
     }'

微觀服務(wù)處公布元元數(shù)據(jù)的推推到一個本地文件,可在以下網(wǎng)址查閱:/tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl處理后的框架還作為RTSP流提供,可在下列地點查閱:trtsp://localhost:8554/管道-服務(wù)器,并且可以使用 RTSP 查看器查看。

添加模型和定制管道

可使用可用的下載腳本下載更多模型here.

您可以查詢pipeline server docs創(chuàng)建自定義管道,并使用邊緣視頻分析微服務(wù)。

假設(shè)其他模型和管道分別以${pwd}/模型和${pwd}/管道提供,則設(shè)定了以下環(huán)境變量。

$ export MODEL_DIR=$(pwd)/models
$ export PIPELINE_DIR=$(pwd)/pipelines

為提升微服務(wù),請使用以下命令:

$ docker run -itd --rm 
     --privileged 
     --device=/dev:/dev 
     --device-cgroup-rule='c 189:* rmw' 
     --device-cgroup-rule='c 209:* rmw' 
     --group-add 109 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     -e DETECTION_DEVICE=CPU 
     -e CLASSIFICATION_DEVICE=CPU 
     -v ${MODEL_DIR}:/home/pipeline-server/models 
     -v ${PIPELINE_DIR}:/home/pipeline-server/pipelines 
     intel/邊緣 _ 視頻_分析_微觀服務(wù):${TAG}

正在運行 iGPU 上的推斷

要啟用對 iGPU 推論的支持, 您將需要將額外的旗幟傳遞到 docker 運行命令上, 詳情如下 。

$ docker run -itd --rm 
     --privileged 
     --device=/dev:/dev 
     --device-cgroup-rule='c 189:* rmw' 
     --device-cgroup-rule='c 209:* rmw' 
     --group-add 109 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     intel/邊緣 _ 視頻_分析_微觀服務(wù):${TAG}

可選: 帶視頻分析測試模塊進行測試

安裝完成后,您可通過運行視頻分析測試模塊測試您的設(shè)置。

詳情,請參見Intel? Edge Software Device Qualification (Intel? ESDQ) for Video Analytics.

教腳

教程1: 在 GPU 上運行物件探測管道

此教程將演示如何更改運行 GPU 上的推論的推論設(shè)備 。
您將再次運行相同的對象_ 檢測管道, 但這次您將使用集成的 GPU 進行檢測推理, 設(shè)置檢測- 檢測設(shè)備參數(shù) 。

完成所有步驟Get Started上文一節(jié)。

在目標(biāo)設(shè)備上,檢查以下命令的輸出并獲得設(shè)備組:

stat -c '%g' /dev/dri/render*

在 docker-competect.yml 文件中添加設(shè)備組 :

    group_add:
      - 109

通過替換創(chuàng)建 REST 請求the 在下面的卷軸命令中,使用您的系統(tǒng)的 IP 地址。
請注意REST機體的參數(shù)部分。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/person-bicycle-car-detection.mp4?raw=true",
      "type": "uri"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  },
    "parameters": {
        "detection-device": "GPU"
   }
}' 

注:
GPU 電導(dǎo)內(nèi)插在首次裝入時動態(tài)構(gòu)建 OpenCL 內(nèi)核,導(dǎo)致產(chǎn)生推論結(jié)果前的延遲 ~ 30 秒。
Additional configuration might be needed to run inference on GPU depending on the HW. Refer Configurations for Intel? Processor Graphics (GPU) to download和install install_NEO_OCL_driver.sh (system reboot might be needed).

打開一個新的終端并運行卷軸命令。 REST 請求將返回管道實例 ID (例如, a6d67224eacc11ec9f360242c0a8603) , 可用于查詢管道狀態(tài) 。

校對結(jié)果運行邊緣視頻分析以上步驟。

教學(xué)圖2:使用 USB 相機輸入的 RUN 邊緣視頻分析分析微觀服務(wù)

在此教程中, 您將把物體探測管道的輸入源更改為 USB 相機 。

完成所有步驟Get Started上文一節(jié)。

在Ubuntu上,通過執(zhí)行以下命令,列出所有可用的視頻設(shè)備:是/dev/Vide*

創(chuàng)建 curl 請求, 以便使用視頻設(shè)備作為源。 例如, 如果命令的輸出為 / dev/ Video0, 那么對 curl 命令源進行如下修改 :

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "device": "/dev/video0",
      "type": "webcam"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}' 

打開一個新的終端并運行卷軸命令。 REST 請求將返回管道實例 ID (例如, a6d67224eacc11ec9f360242c0a8603) , 可用于查詢管道狀態(tài) 。

校對結(jié)果運行邊緣視頻分析以上步驟。

注意: 請確定設(shè)備源參數(shù)中使用了正確的設(shè)備節(jié)點 。

教程 3: 在邊緣視頻分析微服務(wù)中以新模式運行新管道

在此教程中, 您將創(chuàng)建一個基于 人- 檢測管道的新管道, 它將使用 人- 檢測- retail- 0013 模型。 管道和模式文件夾將被安裝到邊緣視頻分析微服務(wù)上, 無需重建 Docker 圖像。 您可以遵循同樣的步驟創(chuàng)建任何新的管道 。

完成所有步驟Get Started上文一節(jié)。

下載新模型。
要從開放型動物園下載新模型,請在模型中添加模型細節(jié)。 list. yml 顯示于 Edge_Video_Analytics_Resources/models_list 路徑中。
對于人-檢測-零售-0013,在文件模型.list.yml的結(jié)尾處添加以下條目。

- model: person-detection-retail-0013
  alias: object_detection
  version: person_detection
  precision: [FP16,FP32] 

然后,在一個新的終端中運行以下命令,下載模型。

cd 視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources/
# 何 地 is the Package version downloaded

sudo ./工具/模型下下加載器/model_downloader.sh --model-list models_list/models.list.yml

命令執(zhí)行完成后,下載的模型人-探測儀應(yīng)在模型/物體-探測目錄下提供。
如果您沒有使用來自開放型動物園的模型,請在模型目錄中直接復(fù)制您的模型。

wKgZomTDjNCASSs7AACrpu95hnk262.png

圖11:下載新模型

創(chuàng)建新管道
您將在管道/ 目標(biāo)/ 探測中創(chuàng)建一個新的管道。 既然您正在以現(xiàn)有人_ 車輛_ 自行車管道為基礎(chǔ), 請復(fù)制人_ 車輛_ 自行車文件夾, 將其重命名為人_ 探測, 然后更新管道.json , 以便使用新模式 。
在同一終端中( 從路徑 Edge_ Video_Analytics_Resources) 執(zhí)行命令 :

sudo cp -r pipelines/object_detection/person_vehicle_bike/ pipelines/object_detection/person_detection

在新復(fù)制的管道/物體/探測/人/探測/管道.json中,編輯管道.json文件的模板和說明部分。 json使用以下線條,將示范路徑指定為模型/物體/探測/人/探測,以便使用模型人-探測-零售-0013來探測物體。
將模板定義為 :

	"template": ["uridecodebin name=source"," ! gvadetect model={models[object_detection][person_detection][network]} name=detection"," ! gvametaconvert name=metaconvert ! gvametapublish name=destination"," ! appsink name=appsink"
	], 

說明的定義是:

"description": "Person Detection based on person-detection-retail-0013",

請參見界定媒體分析管道了解輸油管模板和界定自己的輸油管。

使用添加了模型和管道的微型運行服務(wù)
以命令啟動應(yīng)用程序 :

sudo docker 合成 

此步驟會大量掛載模型和管道目錄。 您可以在一個單獨的終端中檢查容器是否正在使用 sudo docker ps 命令運行 。

檢查新的管道和模式
打開一個新終端并運行以下命令以獲取可用的模型列表 :

curl --location -X GET 'http://localhost:8080/models'

運行以下命令以獲取管道列表 。 管道以名稱/ version tuple 顯示。 名稱反映動作, 版本提供動作的更多細節(jié) 。

curl --location -X GET 'http://localhost:8080/pipelines'

您應(yīng)該看到列表中新添加的管道和模型 。

對象_ 檢測/ 人_ 檢測運行管道
打開一個新的終端并輸入下面的曲線命令,用于下文給出的物件_ 檢測/ 人_ 檢測管道:

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_detection' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/store-aisle-detection.mp4?raw=true",
      "type": "uri"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}' 

何 地 is the IP address of the system.
The above curl command returns the pipeline instance. Use this pipeline instance to get the status by updating the in the below command:

curl --location --request GET 'http://localhost:8080/pipelines/object_detection/person_detection//status'  
wKgaomTDjNaAFIvbAATvck6Ists738.png

圖12: 人員探測運行管道

微服務(wù)日志將顯示,天體探測/人探測管道實例已經(jīng)建立,管道狀態(tài)已經(jīng)改為RUNNING,并結(jié)束了。

wKgaomTDjNmANRisAALLaxOiTCY108.png

圖13:管道日志

教程 4: 安裝邊緣視頻分析外殼圖

注:此教程從第2022.1號釋放起支持。

注:此教義假設(shè)您有一個寬網(wǎng)可用分組 。

在此教程中, 您將使用制導(dǎo)圖在 寬網(wǎng) 群集中部署邊緣視頻分析微服務(wù)。 使用 drawnchart 組合圖 。 用于樣本部署的 Guard 圖表包 邊緣視頻分析微服務(wù)和 MQTT 經(jīng)紀(jì)人。 要下載制導(dǎo)圖, 請使用定制的下載選項 。

完成所有步驟Get Started Guide. When the installation is complete, you see the message?“Installation of package complete”和the installation status for each module.

wKgZomTDjN6ALvYuAAGxiIA5Wv8367.png

圖14:成功安裝

將模型、管道和資源文件夾復(fù)制到 /可選/英特爾/評價/庫伯涅茨工人節(jié)點。

上述先決條件完成后,安裝如下圖表:helm install evam ./chart/

wKgaomTDjOOAFot6AAQKVfFGRaM733.png Figure 15: Chart Installation

Get the IP IP 地址 :

kubectl get pods -o wide

wKgaomTDjOiAf-heAAFvZ0IGhFA248.png Figure 16: Retrieving IP Address

更新管道請求指令以觸發(fā)管道。 替換EVAM_POD_IP, MQTT_POD_IP上面有 IP 地址 。

curl --location -X POST 'http://:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "file:///home/pipeline-server/resources/person-bicycle-car-detection.mp4",
      "type": "uri"
  },
  "destination": { 
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      }
  }
}'

注:使用 GitHub URL 支持代理服務(wù)器網(wǎng)絡(luò)時, 視頻文件使用 GitHub URL 可能無法工作 。 相反, 下載視頻文件并添加到資源目錄/可選/英特爾/評價立方公尺內(nèi)立體體體積的路徑。

獲取 MQTT 訂閱者的推斷輸出 :

docker run -it --entrypoint 約克基多_sub  日食- 日食- 日食:latest --topic vaserving -p 1883 -h 

wKgZomTDjO2AQoQ6AAUf5SZUD2U515.png Figure 17: Inference Output

概述和下一步步驟

使用“邊緣視頻分析微服務(wù)” 學(xué)習(xí)如何進行視頻分析。

學(xué)習(xí)更多

繼續(xù)學(xué)習(xí),見下列指南和軟件資源:

GitHub

Docker Image

Helm Charts (概覽概覽)

Microservice Endpoints

自定義視頻分析管道請求

界定媒體分析管道

Intel? Edge Software Device Qualification (Intel? ESDQ) for Video Analytics

排除故障

確保您在完全安裝期間有一個活躍的互聯(lián)網(wǎng)連接。 如果您隨時失去互聯(lián)網(wǎng)連接, 安裝可能會失敗 。

如果安裝在從 Intel 注冊處下載和提取圖像時失敗安裝, 然后重新運行安裝命令sudo ./edgesoftware install通過提供產(chǎn)品鑰匙。
wKgZomTDjPGAYQiFAAEjKf0Dn6M292.png

確保您正在使用一個新的 Ubuntu* 安裝。 早期軟件, 特別是 Docker 和 Docker Compose 可能會引起問題 。

在代理環(huán)境中,如果設(shè)定了單一用戶代理(即. bashrc 鍵) 然后部分組件安裝可能失敗或安裝掛掛掛。 請確定您已經(jīng)設(shè)置了代理服務(wù)器/貝茨/環(huán)境.

如果您的系統(tǒng)在代理服務(wù)器網(wǎng)絡(luò)中, 請在環(huán)境環(huán)境欄內(nèi)docker- competable. yml 轉(zhuǎn)換器文件。

HTTP_PROXY=http:///
HTTPS_PROXY=http:////
NO_PROXY=localhost,127.0.0.1 


輸入代理代理服務(wù)器的詳細信息docker- competable. yml 轉(zhuǎn)換器顯示如下:

wKgaomTDjPSAfuVYAADc2HbLunA816.png

如果缺少代理細節(jié), 則無法獲取運行管道所需的源視頻文件, 并在容器內(nèi)安裝所需的包件 。
wKgaomTDjPeAVjGIAAMxGLcNyek252.png

運行命令sudo - E docker 合成(參考步驟8(安裝邊緣視頻分析微觀服務(wù))

在自定義模式下, 如果目標(biāo)設(shè)備在代理服務(wù)器后面, Helm CLI 安裝可能會失敗。 要修正它, 請更新 apag 代理服務(wù)器的細節(jié) 。

sudo snap set system proxy.http=http:////
sudo snap set system proxy.https=http:////

如果集裝箱顯示有沖突錯誤,則停止/刪除集裝箱。
要刪除邊緣 _ 視頻_分析_微觀服務(wù)和mqtt_ 經(jīng)紀(jì)人,使用以下任何一種備選辦法:

執(zhí)行下列命令:

sudo docker stop 邊緣 _ 視頻_分析_微觀服務(wù) mqtt_ 經(jīng)紀(jì)人
sudo docker rm 邊緣 _ 視頻_分析_微觀服務(wù) mqtt_ 經(jīng)紀(jì)人

或者運行sudo docker 合成向下從路徑 :視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources

wKgZomTDjP2APAlSAAInPo4h9vE772.png

支助論壇支助論壇

If you're unable to resolve your issues, contact the?支助論壇支助論壇.?

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 視頻分析
    +關(guān)注

    關(guān)注

    0

    文章

    42

    瀏覽量

    11112
  • 邊緣
    +關(guān)注

    關(guān)注

    0

    文章

    29

    瀏覽量

    2237
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI 邊緣計算網(wǎng)關(guān):開啟智能新時代的鑰匙?—龍興物聯(lián)

    順暢地通向云端,實現(xiàn)設(shè)備與云端之間高效的數(shù)據(jù)傳輸與交互。通過融合先進的邊緣計算和人工智能技術(shù),AI 邊緣計算網(wǎng)關(guān)能夠在靠近數(shù)據(jù)源的網(wǎng)絡(luò)邊緣,對數(shù)據(jù)進行實時處理和精準(zhǔn)分析,進而實現(xiàn)智能化
    發(fā)表于 08-09 16:40

    AI視頻分析系統(tǒng)

    方案背景人工智能大時代背景下,視頻應(yīng)用領(lǐng)域相關(guān)的行業(yè)應(yīng)用方式已經(jīng)發(fā)生了深刻的變化,各論安防監(jiān)控還是各類垂直行業(yè)視頻應(yīng)用,都需要AI視覺分析與識別技術(shù)助力,而且需求廣泛而迫切。在應(yīng)用層面,以AI
    的頭像 發(fā)表于 08-06 14:39 ?530次閱讀
    AI<b class='flag-5'>視頻</b><b class='flag-5'>分析</b>系統(tǒng)

    邊緣智能網(wǎng)關(guān)在水務(wù)行業(yè)中的應(yīng)用—龍興物聯(lián)

    、水庫等關(guān)鍵設(shè)施進行視頻監(jiān)控(結(jié)合邊緣AI)、門禁控制、環(huán)境監(jiān)測(溫濕度、有害氣體)。 優(yōu)勢:? 本地智能分析:? 視頻AI在邊緣端完成入侵
    發(fā)表于 08-02 18:28

    邊緣智能:數(shù)字化浪潮下的變革新引擎

    在數(shù)字化發(fā)展進程中,邊緣智能(EdgeIntelligence)已成為驅(qū)動各行業(yè)變革的關(guān)鍵力量。作為融合了邊緣計算與人工智能,兼具近端處理與智能分析優(yōu)勢的創(chuàng)新技術(shù),邊緣智能不但能實現(xiàn)低
    的頭像 發(fā)表于 07-04 10:46 ?676次閱讀
    <b class='flag-5'>邊緣</b>智能:數(shù)字化浪潮下的變革新引擎

    利用邊緣計算和工業(yè)計算機實現(xiàn)智能視頻分析

    在人工智能和物聯(lián)網(wǎng)取得重大進步的時代,智能視頻分析(IVA)正在通過整合先進的人工智能技術(shù)來改變視頻監(jiān)控和分析。這項革命性的技術(shù)增強了視覺智能,是關(guān)鍵行業(yè)創(chuàng)新解決方案的驅(qū)動因素。在本文
    的頭像 發(fā)表于 05-16 14:37 ?439次閱讀
    利用<b class='flag-5'>邊緣</b>計算和工業(yè)計算機實現(xiàn)智能<b class='flag-5'>視頻</b><b class='flag-5'>分析</b>

    《RK3588核心板:AIoT邊緣計算的革命性引擎,能否解鎖智能物聯(lián)新范式?》

    ×Cortex-A55@1.8GHz) 與6TOPS NPU算力, 為邊緣設(shè)備賦予了“大腦級”處理能力。無論是智慧城市的交通監(jiān)控,還是工業(yè)現(xiàn)場的實時質(zhì)檢,RK3588核心板可同時處理多路8K視頻流并運行深度
    發(fā)表于 04-02 10:26

    邊緣計算網(wǎng)關(guān)賦能零售業(yè):智能客流分析技術(shù)革新

    天波的邊緣計算服務(wù)器是一種集數(shù)據(jù)處理、存儲、傳輸于一體的智能設(shè)備,它能夠?qū)碜员O(jiān)控攝像頭的視頻數(shù)據(jù)進行實時處理和分析,無需將數(shù)據(jù)上傳至云端,大大降低了數(shù)據(jù)傳輸?shù)难舆t和成本。同時,邊緣
    的頭像 發(fā)表于 03-31 14:46 ?545次閱讀
    <b class='flag-5'>邊緣</b>計算網(wǎng)關(guān)賦能零售業(yè):智能客流<b class='flag-5'>分析</b>技術(shù)革新

    天波與你聊聊:邊緣計算網(wǎng)關(guān)在4S車店客流分析應(yīng)用

    邊緣計算AI盒子、邊緣計算服務(wù)器、邊緣計算網(wǎng)關(guān)、AI視頻分析盒子這些設(shè)備名字,聽起來多數(shù)是應(yīng)用于安防視頻
    的頭像 發(fā)表于 03-24 17:26 ?514次閱讀
    天波與你聊聊:<b class='flag-5'>邊緣</b>計算網(wǎng)關(guān)在4S車店客流<b class='flag-5'>分析</b>應(yīng)用

    AI賦能邊緣網(wǎng)關(guān):開啟智能時代的新藍海

    的引入徹底改變了這一局面。通過在邊緣網(wǎng)關(guān)集成AI芯片和算法模型,使其具備了實時數(shù)據(jù)分析、智能決策和自主控制能力。在工業(yè)質(zhì)檢場景中,搭載AI算法的邊緣網(wǎng)關(guān)能夠?qū)崟r識別產(chǎn)品缺陷,將檢測效率提升300%以上
    發(fā)表于 02-15 11:41

    一文讀懂邊緣計算盒子在視頻監(jiān)控場景中的重要作用

    ,為視頻監(jiān)控場景帶來了革命性的變革。邊緣計算盒子,作為一種集成了邊緣計算和人工智能技術(shù)的智能設(shè)備,其核心優(yōu)勢在于能夠?qū)崟r處理和分析視頻數(shù)據(jù),
    的頭像 發(fā)表于 01-08 15:11 ?846次閱讀
    一文讀懂<b class='flag-5'>邊緣</b>計算盒子在<b class='flag-5'>視頻</b>監(jiān)控場景中的重要作用

    AI模型部署邊緣設(shè)備的奇妙之旅:邊緣端設(shè)備的局域網(wǎng)視頻流傳輸方案

    1、簡介 隨著物聯(lián)網(wǎng)(IoT)和智能設(shè)備的快速發(fā)展,邊緣計算技術(shù)已成為高效數(shù)據(jù)處理和服務(wù)交付的重要組成部分。當(dāng)我們考慮利用邊緣端設(shè)備進行實時監(jiān)控時,一個常見的需求是通過攝像頭捕捉視頻,并在局域網(wǎng)
    發(fā)表于 01-04 14:32

    AI模型部署邊緣設(shè)備的奇妙之旅:邊緣端設(shè)備的局域網(wǎng)視頻流傳輸方案

    1、簡介隨著物聯(lián)網(wǎng)(IoT)和智能設(shè)備的快速發(fā)展,邊緣計算技術(shù)已成為高效數(shù)據(jù)處理和服務(wù)交付的重要組成部分。當(dāng)我們考慮利用邊緣端設(shè)備進行實時監(jiān)控時,一個常見的需求是通過攝像頭捕捉視頻,并在局域網(wǎng)內(nèi)實現(xiàn)
    的頭像 發(fā)表于 01-04 12:00 ?1020次閱讀
    AI模型部署<b class='flag-5'>邊緣</b>設(shè)備的奇妙之旅:<b class='flag-5'>邊緣</b>端設(shè)備的局域網(wǎng)<b class='flag-5'>視頻</b>流傳輸方案

    晶圓邊緣需要鋪滿電路的原因分析

    本文簡單介紹了在晶圓制造過程中,晶圓邊緣需要鋪滿電路的原因。 晶圓制造工藝是半導(dǎo)體生產(chǎn)中的關(guān)鍵步驟,晶圓的邊緣區(qū)域?qū)φ麄€制造過程和成品良率具有重要影響。 1. 防止邊緣效應(yīng)影響芯片質(zhì)量 邊緣
    的頭像 發(fā)表于 12-31 11:24 ?1775次閱讀
    晶圓<b class='flag-5'>邊緣</b>需要鋪滿電路的原因<b class='flag-5'>分析</b>

    邊緣網(wǎng)關(guān)的介紹

    邊緣網(wǎng)關(guān),又稱邊緣計算網(wǎng)關(guān),部署在網(wǎng)絡(luò)邊緣,它位于物聯(lián)網(wǎng)設(shè)備與云計算平臺之間,充當(dāng)著數(shù)據(jù)流動的“守門員”和“處理器”。通過其強大的數(shù)據(jù)處理能力和多樣化的通信協(xié)議支持,邊緣網(wǎng)關(guān)能夠?qū)崟r
    的頭像 發(fā)表于 11-18 17:17 ?1542次閱讀

    邊緣計算與邊緣設(shè)備的關(guān)系

    能夠在數(shù)據(jù)采集源附近實時處理和分析。這種方法可以降低網(wǎng)絡(luò)延遲、減少數(shù)據(jù)傳輸成本,并實現(xiàn)實時反饋和決策。 邊緣設(shè)備 邊緣設(shè)備是指在物理上位于邊緣網(wǎng)絡(luò)中的計算設(shè)備。這些設(shè)備可以是智能手機、
    的頭像 發(fā)表于 10-24 14:33 ?1214次閱讀