chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA DeepStream對特定幀區(qū)域應(yīng)用推理

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-10-10 15:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在高分辨率輸入中檢測物體是計算機(jī)視覺中的一個眾所周知的問題。當(dāng)感興趣的是框架的某個區(qū)域時,不需要對整個框架進(jìn)行推理。解決這個問題有兩種方法:

使用具有高輸入分辨率的大型模型。

將大圖像分為塊,并將較小的模型應(yīng)用于每個塊。

在許多方面,第一種方法是困難的。訓(xùn)練輸入量大的模型通常需要更大的主干,使整個模型更笨重。訓(xùn)練或部署這樣的模型也需要更多的計算資源。較大的模型被認(rèn)為不適合在較小的設(shè)備上部署邊緣。

第二種方法,將整個圖像劃分為塊,并對每個塊應(yīng)用較小的模型,具有明顯的優(yōu)勢。使用較小的模型,因此在訓(xùn)練和推理中需要較小的計算能力。將模型應(yīng)用于高分辨率輸入不需要再培訓(xùn)。較小的模型也被認(rèn)為有利于邊緣部署。

在這篇文章中,我們將討論如何 NVIDIA DeepStream 可以幫助將較小的模型應(yīng)用于高分辨率輸入,以檢測特定的幀區(qū)域。

視頻監(jiān)控系統(tǒng)概述

視頻監(jiān)控系統(tǒng)用于解決各種問題,例如識別行人、車輛和汽車。如今, 4K 和 8K 攝像機(jī)用于捕捉場景細(xì)節(jié)。軍方將航空攝影用于各種目的,這也涵蓋了大片區(qū)域。

隨著分辨率的增加,像素數(shù)呈指數(shù)增長。處理如此大量的像素需要大量的計算能力,尤其是使用深度神經(jīng)網(wǎng)絡(luò)。

基于在建模過程中選擇的輸入維數(shù),深度神經(jīng)網(wǎng)絡(luò)對固定形狀的輸入進(jìn)行操作。這種固定大小的輸入也稱為感受野模型的。通常,在檢測和分割網(wǎng)絡(luò)中,感受野從 256 × 256 到 1280 × 1280 不等。

您可能會發(fā)現(xiàn)感興趣的區(qū)域是一個小區(qū)域,而不是整個幀。在這種情況下,如果檢測應(yīng)用于整個幀,則不必要地使用計算資源。 DeepStream NvDsPreprocess 插件使您能夠在框架的特定區(qū)域上進(jìn)行計算。

DeepStream NvDsPreprocessing 插件

然而,當(dāng)平鋪應(yīng)用于圖像或幀時,尤其是在視頻饋送上,您需要在推理管道中增加一個元素。這樣的元素預(yù)計將執(zhí)行可按流配置的分塊機(jī)制、分塊推理以及將多個分塊的推理組合到單個幀上。

有趣的是, DeepStream 中提供了所有這些功能 Gst-NvDsPreprocess 可自定義插件。它提供了一個用于預(yù)處理輸入流的自定義庫接口。每個流都有自己的預(yù)處理要求。

默認(rèn)插件實現(xiàn)提供以下功能:

具有預(yù)定義感興趣區(qū)域( ROI )或分片的流根據(jù)推理的網(wǎng)絡(luò)要求進(jìn)行縮放和格式轉(zhuǎn)換。每流 ROI 在配置文件中指定。

它從縮放和轉(zhuǎn)換的 ROI 中準(zhǔn)備一個原始張量,并通過用戶元數(shù)據(jù)傳遞給下游插件。下游插件可以訪問該張量進(jìn)行推理。

DeepStream NvDsPreprocessing 插件

下一步是修改現(xiàn)有代碼以支持平鋪。

使用 NvdsPreprocessing 插件

定義管道內(nèi)的預(yù)處理元素:

preprocess = Gst.ElementFactory.make("nvdspreprocess", "preprocess-plugin")

NvDsPreprocess需要一個配置文件作為輸入:

preprocess.set_property("config-file", "config_preprocess.txt")

將預(yù)處理元素添加到管道:

pipeline.add(preprocess)

將元素鏈接到管道:

streammux.link(preprocess)
preprocess.link(pgie)

讓 NvdsPreprocess 插件進(jìn)行預(yù)處理

推斷是通過NvDsInfer插件完成的,該插件具有幀預(yù)處理功能。

當(dāng)您在NvDsInfer之前使用NvdsPreprocess插件時,您希望預(yù)處理(縮放或格式轉(zhuǎn)換)由 NvdsPreprocess而不是NvDsInfer完成。為此,請將NvDsInfer的input-tensor-meta屬性設(shè)置為 true 。這使得NvdsPreprocess可以進(jìn)行預(yù)處理,并使用附加為元數(shù)據(jù)的預(yù)處理輸入張量,而不是NvDsInfer本身內(nèi)部的預(yù)處理。

將Gst-nvdspreprocess功能合并到現(xiàn)有管道中需要以下步驟。

定義nvdspreprocess插件并將其添加到管道:

preprocess = Gst.ElementFactory.make("nvdspreprocess", "preprocess-plugin")
pipeline.add(preprocess)

NvDsInferinput-tensor-meta屬性設(shè)置為 true :

pgie.set_property("input-tensor-meta", True)

定義nvdspreprocess插件的配置文件屬性:

preprocess.set_property("config-file", "config_preprocess.txt")

將預(yù)處理插件鏈接到主推理機(jī)(pgie)之前:

streammux.link(preprocess)
preprocess.link(pgie)

創(chuàng)建配置文件

Gst-nvdspreprocess配置文件使用密鑰文件格式。有關(guān)更多信息,請參閱 Python 和 C 源代碼中的config_preprocess.txt。

[property]組配置插件的一般行為。

[group-《id》]組使用自定義庫中的src-id值和custom-input-transformation-function為一組流配置 ROI 、 TILE 和 ull 幀。

[user-configs]組配置自定義庫所需的參數(shù),自定義庫通過《string, string》的映射作為鍵值對傳遞給自定義庫。然后,自定義庫必須相應(yīng)地解析這些值。

所需的最小值config_preprocess.txt類似于以下代碼示例:

[property]
enable=1
target-unique-ids=1 # 0=NCHW, 1=NHWC, 2=CUSTOM
network-input-order=0 network-input-order=0
processing-width=960
processing-height=544
scaling-buf-pool-size=6
tensor-buf-pool-size=6 # tensor shape based on network-input-order
network-input-shape=12;3;544;960 # 0=RGB, 1=BGR, 2=GRAY network-color-format=0 # 0=FP32, 1=UINT8, 2=INT8, 3=UINT32, 4=INT32, 5=FP16
tensor-data-type=0
tensor-name=input_1 # 0=NVBUF_MEM_DEFAULT 1=NVBUF_MEM_CUDA_PINNED 2=NVBUF_MEM_CUDA_DEVICE 3=NVBUF_MEM_CUDA_UNIFIED
scaling-pool-memory-type=0 # 0=NvBufSurfTransformCompute_Default 1=NvBufSurfTransformCompute_GPU 2=NvBufSurfTransformCompute_VIC
scaling-pool-compute-hw=0 # Scaling Interpolation method # 0=NvBufSurfTransformInter_Nearest 1=NvBufSurfTransformInter_Bilinear 2=NvBufSurfTransformInter_Algo1 # 3=NvBufSurfTransformInter_Algo2 4=NvBufSurfTransformInter_Algo3 5=NvBufSurfTransformInter_Algo4 # 6=NvBufSurfTransformInter_Default
scaling-filter=0
custom-lib-path=/opt/nvidia/deepstream/deepstream/lib/gst-plugins/libcustom2d_preprocess.so
custom-tensor-preparation-function=CustomTensorPreparation [user-configs]
pixel-normalization-factor=0.003921568
#mean-file=
#offsets= [group-0]
src-ids=0;1;2;3
custom-input-transformation-function=CustomAsyncTransformation
process-on-roi=1
roi-params-src-0=0;540;900;500;960;0;900;500;0;0;540;900;
roi-params-src-1=0;540;900;500;960;0;900;500;0;0;540;900;
roi-params-src-2=0;540;900;500;960;0;900;500;0;0;540;900;
roi-params-src-3=0;540;900;500;960;0;900;500;0;0;540;900;

Processing-width和processing-height是指切片在整個幀上的寬度和高度。

對于network-input-shape,當(dāng)前配置文件配置為最多運(yùn)行 12 個 ROI 。要增加 ROI 計數(shù),請將第一維度增加到所需數(shù)量,例如network-input-shape=12;3;544;960。

在當(dāng)前配置文件config-preprocess.txt中,每個源有三個 ROI ,所有四個源總共有 12 個 ROI 。所有源的總 ROI 不得超過network-input-shape參數(shù)中指定的第一個維度。

Roi-params-src-《id》表示source-《id》的 III 坐標(biāo)。如果啟用了process-on-roi,則為每個 ROI 指定定義 ROI 的left;top;width;height。Gst-nvdspreprocess沒有將重疊塊中的對象檢測和計數(shù)結(jié)合起來。

密碼

C 代碼可從/ opt / NVIDIA / deepstream / deepstream-6.0 / source / app / sample _ app / deepstream-preprocess-test 下載。

Python 代碼可從 NVIDIA-AI-IOT/deepstream_python_apps github 回購。

后果

Gst-nvdspreprocess允許對視頻的特定部分(磁貼或感興趣區(qū)域)應(yīng)用推理。使用Gst-nvdspreprocess,可以在單個幀上指定一個或多個平鋪。

以下是在整個幀上應(yīng)用yolov4與在磁貼上應(yīng)用yolov4時的性能指標(biāo)。通過將流的數(shù)量增加到解碼器或計算飽和點來收集性能指標(biāo),并且進(jìn)一步增加流不會顯示性能增益。

1080p 的視頻分辨率用于 NVIDIA V100 GPU 的性能基準(zhǔn)??紤]性能和磁貼數(shù)量之間的權(quán)衡,因為放置太多的磁貼會增加計算需求。

使用NvDsPreprocess平鋪有助于對視頻中需要的部分進(jìn)行選擇性推斷。例如,在圖 1 中,推理只能在人行道上使用,而不能在整個框架上使用。

GST-NVDSAnalytics 對nvinfer(主檢測器)和nvtracker附加的元數(shù)據(jù)執(zhí)行分析。Gst-nvdsanalytics可應(yīng)用于瓷磚,用于 ROI 過濾、過度擁擠檢測、方向檢測和線交叉。

關(guān)于作者

Sunil Patel 作為一名深入學(xué)習(xí)的數(shù)據(jù)科學(xué)家為 NVIDIA 工作。他的專長包括開發(fā)NVIDIA 平臺上的智能視頻分析和會話人工智能的高度可擴(kuò)展的人工智能解決方案。 Sunil 主要關(guān)注應(yīng)用程序擴(kuò)展和性能優(yōu)化。他畢業(yè)于印度阿拉哈巴德信息技術(shù)學(xué)院,獲得技術(shù)碩士學(xué)位。

Alvin Clark 是 DeepStream 的產(chǎn)品營銷經(jīng)理。阿爾文的職業(yè)生涯始于設(shè)計工程師,然后轉(zhuǎn)向技術(shù)銷售和市場營銷。他曾與多個行業(yè)的客戶合作,應(yīng)用范圍從衛(wèi)星系統(tǒng)、外科機(jī)器人到深海潛水器。阿爾文持有圣地亞哥加利福尼亞大學(xué)的工程學(xué)學(xué)位,目前正在喬治亞理工大學(xué)攻讀碩士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5565

    瀏覽量

    109376
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5149

    瀏覽量

    134747
  • python
    +關(guān)注

    關(guān)注

    57

    文章

    4867

    瀏覽量

    89801
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA DGX SuperPOD為Rubin平臺橫向擴(kuò)展提供藍(lán)圖

    NVIDIA DGX Rubin 系統(tǒng)整合了 NVIDIA 在計算、網(wǎng)絡(luò)和軟件領(lǐng)域的最新突破,將推理 token 成本降至 NVIDIA Blackwell 平臺的十分之一,可加速從
    的頭像 發(fā)表于 01-14 09:14 ?356次閱讀

    NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發(fā)

    新聞?wù)?: l NVIDIA 率先發(fā)布為應(yīng)對輔助駕駛長尾場景挑戰(zhàn)而設(shè)計的開源視覺-語言-動作推理模型(Reasoning VLA);NVIDIA Alpamayo 系列還包含賦能輔助駕駛汽車開發(fā)
    的頭像 發(fā)表于 01-06 09:40 ?256次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的<b class='flag-5'>推理</b>型輔助駕駛汽車開發(fā)

    如何在NVIDIA Jetson AGX Thor上通過Docker高效部署vLLM推理服務(wù)

    繼系統(tǒng)安裝與環(huán)境配置后,本期我們將繼續(xù)帶大家深入 NVIDIA Jetson AGX Thor 的開發(fā)教程之旅,了解如何在 Jetson AGX Thor 上,通過 Docker 高效部署 vLLM 推理服務(wù)。
    的頭像 發(fā)表于 11-13 14:08 ?3932次閱讀
    如何在<b class='flag-5'>NVIDIA</b> Jetson AGX Thor上通過Docker高效部署vLLM<b class='flag-5'>推理</b>服務(wù)

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺上的推理性能瓶頸。為實
    的頭像 發(fā)表于 10-21 11:04 ?997次閱讀

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1120次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1642次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理</b>模型發(fā)布

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    的發(fā)布持續(xù)深化了雙方的 AI 創(chuàng)新合作。NVIDIANVIDIA Blackwell 架構(gòu)上優(yōu)化了這兩款全新的開放權(quán)重模型并實現(xiàn)了推理性能加速,在 NVIDIA 系統(tǒng)上至高達(dá)到每
    的頭像 發(fā)表于 08-15 20:34 ?2138次閱讀
    <b class='flag-5'>NVIDIA</b>從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS<b class='flag-5'>推理</b>

    英偉達(dá)GTC2025亮點:Oracle與NVIDIA合作助力企業(yè)加速代理式AI推理

    Oracle 數(shù)據(jù)庫與 NVIDIA AI 相集成,使企業(yè)能夠更輕松、快捷地采用代理式 AI Oracle 和 NVIDIA 宣布,NVIDIA 加速計算和推理軟件與 Oracle 的
    的頭像 發(fā)表于 03-21 12:01 ?1305次閱讀
    英偉達(dá)GTC2025亮點:Oracle與<b class='flag-5'>NVIDIA</b>合作助力企業(yè)加速代理式AI<b class='flag-5'>推理</b>

    英偉達(dá)GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代

    英偉達(dá)GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代
    的頭像 發(fā)表于 03-20 15:35 ?1329次閱讀

    英偉達(dá)GTC25亮點:NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    NVIDIA Dynamo 提高了推理性能,同時降低了擴(kuò)展測試時計算 (Scaling Test-Time Compute) 的成本;在 NVIDIA Blackwell 上的推理優(yōu)化
    的頭像 發(fā)表于 03-20 15:03 ?1146次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首次實現(xiàn)集成,以幫助全球企業(yè)組織加速創(chuàng)建代理式 AI 應(yīng)用。 ? 此次
    發(fā)表于 03-19 15:24 ?515次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作助力企業(yè)加速代理式 AI <b class='flag-5'>推理</b>

    如何在特定區(qū)域設(shè)置線寬、線距規(guī)則

    “ ?今天偷個懶,分享一個 Hayden 大佬提供的自定義規(guī)則,非常實用??梢栽?b class='flag-5'>特定區(qū)域(如BGA器件范圍內(nèi))定義特殊的線寬、線距規(guī)則。? ” 就是下面這段自定義規(guī)則,表示 U10
    的頭像 發(fā)表于 03-19 11:20 ?1202次閱讀
    如何在<b class='flag-5'>特定</b><b class='flag-5'>區(qū)域</b>設(shè)置線寬、線距規(guī)則

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺

    NVIDIA 后訓(xùn)練的全新 Llama Nemotron 推理模型,為代理式 AI 提供業(yè)務(wù)就緒型基礎(chǔ) 埃森哲、Amdocs、Atlassian、Box、Cadence、CrowdStrike
    發(fā)表于 03-19 09:31 ?361次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放<b class='flag-5'>推理</b> AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1569次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺提高AI<b class='flag-5'>推理</b>性能

    NVIDIA發(fā)布DLSS 4技術(shù):多生成技術(shù)革新游戲體驗

    在1月23日,NVIDIA隨著RTX 50系列顯卡的問世,同步推出了全新的DLSS 4技術(shù)。這一技術(shù)憑借先進(jìn)的多生成(MFG)功能,顯著提升了游戲的幀率,為玩家?guī)砹烁鼮榱鲿车挠螒蝮w驗。
    的頭像 發(fā)表于 01-24 15:29 ?1502次閱讀