chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于MobileNet的多目標(biāo)跟蹤深度學(xué)習(xí)算法

恬靜簡樸1 ? 來源:恬靜簡樸1 ? 作者:恬靜簡樸1 ? 2022-11-09 10:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

針對深度學(xué)習(xí)算法在多目標(biāo)跟蹤中的實時性問題, 提出一種基于MobileNet的多目標(biāo)跟蹤算法. 借助于MobileNet深度可分離卷積能夠?qū)ι疃染W(wǎng)絡(luò)模型進行壓縮的原理, 將YOLOv3主干網(wǎng)絡(luò)替換為MobileNet, 通過將標(biāo)準(zhǔn)卷積分解為深度卷積和逐點卷積, 保留多尺度預(yù)測部分, 以有效減少參數(shù)量. 對于檢測得到的邊框信息, 利用Deep-SORT算法進行跟蹤. 實驗結(jié)果表明, 所提出方法在跟蹤效果基本不變的情況下可提升處理速度近50%.

關(guān)鍵詞

深度學(xué)習(xí)多目標(biāo)跟蹤目標(biāo)檢測YOLOv3deep-SORTMobileNet

0 引言

多目標(biāo)跟蹤是計算機視覺領(lǐng)域的研究熱點, 可應(yīng)用于交通監(jiān)測、安防等多個領(lǐng)域, 具有一定的應(yīng)用價值和挑戰(zhàn)性[1]. 檢測方式可以分為檢測跟蹤和無檢測跟蹤兩類, 前者需要檢測目標(biāo)后再進行跟蹤; 后者需要在第1幀手動初始化目標(biāo), 然后進行跟蹤. 在目標(biāo)跟蹤中, 涌現(xiàn)出許多具有良好性能的算法, 如SSD[2]、R-CNN[3-4]以及YOLO系列[5-7], 其中YOLOv3[7]算法在檢測跟蹤中體現(xiàn)出較強的優(yōu)勢.

由于深度學(xué)習(xí)的發(fā)展, 卷積神經(jīng)網(wǎng)絡(luò)模型逐漸替代了傳統(tǒng)手工設(shè)計的特征, 提供了一種端到端的處理方法, 精度也大幅提高. 但CNN模型在不斷提高精度的同時, 其網(wǎng)絡(luò)深度和尺寸也在成倍增長, 需要GPU來進行加速, 使得基于深度學(xué)習(xí)的跟蹤算法無法直接應(yīng)用于移動設(shè)備, 導(dǎo)致難以符合實時性要求. 因此降低算法復(fù)雜度、提高實時性、簡化和加速模型便成為亟待解決的問題. 文獻[8-10]使用剪枝方法對神經(jīng)網(wǎng)絡(luò)進行網(wǎng)絡(luò)壓縮. 文獻[11]提出從零開始訓(xùn)練低秩約束卷積神經(jīng)網(wǎng)絡(luò)模型的方法, 不僅速度得到提升, 而且在一些情況下模型性能也有所提高. 目前, 深度網(wǎng)絡(luò)模型壓縮方法分為兩個方向: 一是對已經(jīng)訓(xùn)練好的深度網(wǎng)絡(luò)模型進行壓縮得到小型化模型; 二是直接設(shè)計小型化模型進行訓(xùn)練, 如SqueezeNet[12]、ShuffleNet[13]、MobileNet[14]等.

在多目標(biāo)跟蹤方面, Zhang等[15]提出一種新型檢測跟蹤方法, 即將檢測與軌跡聯(lián)系起來, 形成長軌跡. Mahmoudi等[16]使用卷積神經(jīng)網(wǎng)絡(luò)代替手工標(biāo)注進行特征提取, 以改善算法精度, 并提出一種新的2D在線環(huán)境分組方法, 具有較高的準(zhǔn)確率和實時性. Xiang等[17]設(shè)計了一個卷積神經(jīng)網(wǎng)絡(luò)提取針對人的重識別, 并使用長期短期記憶網(wǎng)絡(luò)(long short-term memory, LSTM)提取運動信息來編碼目標(biāo)的狀態(tài); 此外, 還設(shè)計了基于遞歸神經(jīng)網(wǎng)絡(luò)的貝葉斯過濾模塊, 并將LSTM網(wǎng)絡(luò)的隱藏狀態(tài)作為輸入, 執(zhí)行遞歸預(yù)測和更新目標(biāo)狀態(tài). 而Deep-SORT[18]多目標(biāo)跟蹤算法則在SORT[19]算法的基礎(chǔ)上, 提取深度表觀特征,使跟蹤效果有了明顯的提升.

本文針對算法的實時性問題, 結(jié)合深度學(xué)習(xí)目標(biāo)檢測、深度網(wǎng)絡(luò)模型壓縮以及多目標(biāo)跟蹤算法, 提出基于MobileNet的多目標(biāo)跟蹤算法, 在保證精度的前提下, 有效改善深度網(wǎng)絡(luò)模型龐大以及計算復(fù)雜的問題, 提高了算法的執(zhí)行速度.

1 YOLOv3目標(biāo)檢測算法

YOLOv3算法的基本思想是: 將輸入圖像分割為S×S 個單元格, 每個單元格用于檢測中心點落在該網(wǎng)格內(nèi)的目標(biāo), 并預(yù)測B 個邊界框和置信度. 邊界框用(x,y,w,h,c)5個參數(shù)表達, 其中(x,y) 為目標(biāo)中心相對于單元格左上角的相對坐標(biāo), 而w 和h 則分別是目標(biāo)與整張圖像的寬和高之比. 單元格還預(yù)測C 個類別的各類概率值. 因此, 每個單元格共預(yù)測B×(5+C) 個值. YOLOv3借鑒ResNet的理念, 采用YOLOv2的Darknet-19, 并創(chuàng)建一個新的特征提取網(wǎng)絡(luò)Darknet-53[20]. YOLOv3采用類似FPN的上采樣和特征融合機制, 使用不同的特征尺度進行預(yù)測. 考慮到其對小目標(biāo)檢測的良好效果, 本文采用該算法進行目標(biāo)檢測.

2 基于MobileNet的多目標(biāo)跟蹤算法

利用MobileNet將標(biāo)準(zhǔn)卷積分解為深度卷積和逐點卷積以減少參數(shù)量的特點, 替換YOLOv3目標(biāo)檢測算法的主干網(wǎng)絡(luò)框架, 并保留多尺度預(yù)測, 形成基于MobileNet的目標(biāo)檢測算法, 再進一步結(jié)合Deep-SORT算法進行多目標(biāo)跟蹤.

2.1

MobileNet算法

MobileNet是Google為移動端和嵌入式設(shè)備提出的高效模型. 使用深度可分離卷積構(gòu)建深度神經(jīng)網(wǎng)絡(luò),并通過兩個超參數(shù), 從通道數(shù)量和特征圖大小兩個方面減少計算量. 分解過程如圖 1所示.

poYBAGNrDyOAXddPAAAoC9QMxs0989.jpg

圖 1 深度可分離卷積分解過程

假設(shè)輸入的特征映射F尺寸為(DF,DF,M) , 采用的標(biāo)準(zhǔn)卷積K 為(DK,DK,M,N) , 則輸出的映射G 尺寸為(DF,DF,N) . M 為輸入通道數(shù), N 為輸出通道數(shù), 對應(yīng)的計算量為

pYYBAGNrDyOAJlUKAAAJLqadjLM735.jpg

(1)

將標(biāo)準(zhǔn)卷積分解為深度卷積和逐點卷積, 深度卷積起濾波作用, 尺寸大小為(DK,DK,1,M) , 輸出特征映射尺寸為(DF,DF,M) ; 逐點卷積用于通道轉(zhuǎn)換, 尺寸大小為(1,1,M,N), 輸出映射尺寸為(DF,DF,N) . 兩者對應(yīng)的計算量為

poYBAGNrDyOAFU8eAAAM2b81bks622.jpg

(2)

相比于標(biāo)準(zhǔn)卷積, 深度可分離卷積計算量減少, 即

pYYBAGNrDyOAc6WZAAAZeV1dWks867.jpg

(3)

此外, MobileNet還引入了寬度乘子α 和分辨率乘子ρ 兩個超參數(shù), 分別用于改變通道數(shù)和特征圖分辨率, 便于控制模型大小, 降低參數(shù)量.

2.2

基于MobileNet的目標(biāo)檢測模型

MobileNet網(wǎng)絡(luò)基于深度可分離卷積, 除全連接層外, 所有層后跟有BatchNorm和ReLU, 最后使用softmax進行分類. MobileNet將深度卷積和逐點卷積計為單獨的層, 共有28層.

針對實時性問題, 本文結(jié)合卷積神經(jīng)網(wǎng)絡(luò)模型壓縮方法, 選用MobileNet與YOLOv3檢測模型相結(jié)合, 用前者代替后者的網(wǎng)絡(luò)框架, 同時保留YOLOv3的多尺度預(yù)測, 最終得到輕量級的檢測模型.

YOLOv3中包括13×13、26×26和52×52三個尺度, 在MobileNet網(wǎng)絡(luò)中找到對應(yīng)13×13×1024、26×26×512和52×52×256的部分, 使用YOLOv3多尺度預(yù)測的方法進行融合, 替換后的網(wǎng)絡(luò)結(jié)構(gòu)如圖 2所示.

poYBAGNrDyOATSH_AABhAyeI3y0948.jpg

圖 2 YOLOv3-MobileNet框架

2.3

多目標(biāo)跟蹤

由于Deep-SORT算法加入了深度表觀特征, 并具有較高的準(zhǔn)確度和實時性, 本文將基于MobileNet的目標(biāo)檢測算法與Deep-SORT相結(jié)合進行多目標(biāo)跟蹤, 主要分為以下部分:

1、目標(biāo)檢測. 首先對輸入的視頻進行目標(biāo)檢測, 得到目標(biāo)的邊框及特征信息, 并根據(jù)置信度和非極大值抑制進行邊框過濾.

2、軌跡處理和狀態(tài)估計. 運動狀態(tài)估計中使用8個參數(shù)

pYYBAGNrDySAba7rAAAHXC_ApuQ431.jpg

進行運動狀態(tài)的描述, 其中(u,υ)為邊框的中心坐標(biāo), γ為長寬比, h為高度, 這4個參數(shù)來源于目標(biāo)檢測部分, 其余4個參數(shù)表示對應(yīng)圖像坐標(biāo)系中的速度信息.使用卡爾曼濾波器對運動狀態(tài)進行預(yù)測.

3、對跟蹤器參數(shù)和特征集進行更新, 判斷有無目標(biāo)消失或者有無新目標(biāo)出現(xiàn). 對每個目標(biāo), 記錄其上次檢測結(jié)果和跟蹤結(jié)果匹配后的幀數(shù)ak, 只要檢測結(jié)果與跟蹤結(jié)果正確關(guān)聯(lián), 就將該參數(shù)置為0. 如果ak超過了設(shè)置的最大閾值A(chǔ)max, 則結(jié)束對該目標(biāo)的跟蹤.

4、檢測結(jié)果與跟蹤預(yù)測結(jié)果匹配. 區(qū)分已確認和未確認狀態(tài)的跟蹤器, 對已確認狀態(tài)的跟蹤器進行匹配指派. 其中指派問題使用了匈牙利算法, 并同時考慮運動信息的關(guān)聯(lián)和目標(biāo)外觀信息的關(guān)聯(lián).

運動信息關(guān)聯(lián): 使用卡爾曼濾波器預(yù)測狀態(tài)和新測量之間的馬氏距離, 以此表達運動信息, 有

poYBAGNrDySAFJiRAAALzFslCek811.jpg

(4)

式(4)表示第j個檢測結(jié)果與第ii條軌跡之間的運動匹配度. 其中: Si為卡爾曼濾波器當(dāng)前時刻觀測空間的協(xié)方差矩陣, yi為當(dāng)前時刻的預(yù)測觀測量, dj為第j個檢測的狀態(tài)(u,υ,γ,). 馬氏距離通過測量遠離平均軌道位置的標(biāo)準(zhǔn)偏差考慮狀態(tài)估計的不確定性, 通過逆卡方分布的0.95分位點作為閾值t(1), 指標(biāo)函數(shù)定義如下:

pYYBAGNrDySAQJHUAAAJcGMgUKU709.jpg

(5)

目標(biāo)外觀信息關(guān)聯(lián): 由于相機運動會使馬氏距離度量方法失效, 引入第2種關(guān)聯(lián)方法, 對每個跟蹤目標(biāo)構(gòu)建一個庫, 存儲每個跟蹤目標(biāo)成功關(guān)聯(lián)的最近100幀特征向量, 則第i個跟蹤器與當(dāng)前幀第j個檢測結(jié)果之間的表觀匹配度為

poYBAGNrDySAJ7PZAAAOAI6S3qQ628.jpg

(6)

指標(biāo)函數(shù)表示為

pYYBAGNrDySAaWMPAAAJpemEXJU394.jpg

(7)

采用上述兩種度量的線性加權(quán)作為最終度量, 有

poYBAGNrDySAUXItAAALyj2OWt4551.jpg

(8)

只有當(dāng)ci,j位于兩種度量閾值的交集內(nèi)時, 才認為實現(xiàn)了正確的關(guān)聯(lián). 當(dāng)指派完成后, 分類出未匹配的檢測和跟蹤器.

5) 對未確認狀態(tài)的跟蹤器、未匹配的跟蹤器和未匹配的檢測進行IOU匹配, 再次使用匈牙利算法進行指派.

6) 對于匹配的跟蹤器進行參數(shù)更新, 刪除再次未匹配的跟蹤器, 未匹配的檢測初始化為新目標(biāo).

算法整體流程如圖 3所示.

pYYBAGNrDyWAOOyfAAB9G2OLSUQ297.jpg

圖 3 多目標(biāo)跟蹤算法流程

3 實驗結(jié)果

本文算法使用keras實現(xiàn), 并利用PASCAL VOC 2007和VOC 2012數(shù)據(jù)集進行訓(xùn)練. 作為視覺分類檢測的基準(zhǔn)測試, PASCAL VOC數(shù)據(jù)集包含20類物體, 如人、動物、交通工具、家具等, 每張圖片均有標(biāo)注.本文使用VOC 2007 trainval數(shù)據(jù)集和VOC 2012 trainval數(shù)據(jù)集、共16 551張圖片進行訓(xùn)練, 訓(xùn)練環(huán)境為Google Colab云平臺. 所使用的操作系統(tǒng)為Ubuntu18.04.1, GPU為Tesla K80. 其他測試均在Windows 8.1下進行, CPUIntel(R) Core(TM) i5-5200U, 無GPU.

在目標(biāo)檢測評價中, 常用的評價指標(biāo)為mAP(mean average precision), 表示對目標(biāo)類的AP值取平均, 本文采用mAP、單張圖片檢測時間及模型大小等指標(biāo)對目標(biāo)檢測模型進行評估. 對于多目標(biāo)跟蹤算法, 由于很難使用單一評分評估多目標(biāo)跟蹤性能, 采用MOT Challenge評價標(biāo)準(zhǔn).

3.1

目標(biāo)檢測算法對比實驗

表 1為YOLOv3目標(biāo)檢測算法、基于MobileNet的目標(biāo)檢測算法和其他檢測算法實驗對比結(jié)果.

pYYBAGNrDyWAQH6zAAA4IZ3uBV4065.jpg

表 1 目標(biāo)檢測算法性能對比結(jié)果

本文選取比較流行的單階段檢測算法和兩階段檢測算法進行對比實驗. 由表 1可見, 基于MobileNet的目標(biāo)檢測算法模型是YOLOv3算法模型的1/3, 并且相比SSD和Fater R-CNN, 模型最小; 單張圖片檢測時間相比YOLOv3模型提高了2倍; 在精度方面, 本文檢測算法相比YOLOv3模型下降約12.4 %, 但相比SSD提高1.5 %. 總體而言, 雖然本文檢測算法在檢測精度上有所降低, 但可以滿足檢測跟蹤的實際需求, 并且在模型大小和單張檢測時間上具有優(yōu)勢. 精度降低的原因是由于YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)中使用了殘差網(wǎng)絡(luò), 并且網(wǎng)絡(luò)層數(shù)更深, 而MobileNet網(wǎng)絡(luò)結(jié)構(gòu)僅使用深度可分離卷積, 沒有使用殘差結(jié)構(gòu), 在網(wǎng)絡(luò)深度方面也比YOLOv3更淺, 因此造成本文檢測算法在mAP值上與YOLOv3差距較大. 雖然本文檢測算法在一定程度上犧牲了精度, 但實現(xiàn)了模型的小型化和速度上的提升.

3.2

多目標(biāo)跟蹤算法對比實驗

在MOT基準(zhǔn)數(shù)據(jù)庫提供的序列集上評估跟蹤性能, 以MOT Challenge標(biāo)準(zhǔn)對多目標(biāo)跟蹤算法進行評價, 具體評價指標(biāo)如表 2所示, 各指標(biāo)含義如下:

表 2 評價指標(biāo)對比

MOTA(↑): 多目標(biāo)跟蹤準(zhǔn)確度;

MOTP(↑): 多目標(biāo)跟蹤精度;

MT(↑): 目標(biāo)跟蹤軌跡占真實長度80 %以上的軌跡數(shù)目;

ML(↓): 目標(biāo)跟蹤丟失軌跡占真實長度至多20 %的軌跡數(shù)目;

IDs(↓): 目標(biāo)ID發(fā)生變化的次數(shù);

FP(↓): 誤報總數(shù);

FN(↓): 未命中目標(biāo)的總數(shù);

FPS(↑): 幀頻率.

對于帶有(↑)的評價指標(biāo), 分?jǐn)?shù)越高表示效果越好; 對于帶有(↓)的評價指標(biāo), 結(jié)果相反.

由表 2可見: 本文算法的MOTP值與YOLOv3-Deep-SORT算法相差不大, 但均高于表中其他算法; 被跟蹤的軌跡比例(MT)相比YOLOv3-Deep-SORT算法有所上升, 跟丟軌跡占比(ML)有所下降, 均優(yōu)于TC_ODAL和RMOT算法; ID變換次數(shù)低于表中前4個算法(即TC_ODAL、RMOT、SORT、MDP), 但相比YOLOv3-Deep-SORT算法有所上升; 幀頻率提高為該算法的3倍, 檢測跟蹤時間提高顯著. 本文算法雖然在跟蹤準(zhǔn)確度、ID變換次數(shù)和誤報總數(shù)上不及YOLOv3-Deep-SORT算法, 但其他跟蹤指標(biāo)均優(yōu)于該算法, 并且本文算法相比于TC_ODAL、RMOT和SORT等算法優(yōu)勢明顯. 為進一步表現(xiàn)本文算法的優(yōu)越性, 以ID標(biāo)號為3的目標(biāo)為例, 給出如圖 4所示的部分跟蹤結(jié)果, 且跟蹤框上帶有數(shù)字ID標(biāo)識. 由圖 4可見, 該算法在第200幀、260幀、320幀均能連續(xù)跟蹤, 跟蹤效果良好.

poYBAGNrDyaAWE_KAABysGUYl8A477.jpg

圖 4 跟蹤結(jié)果

3.3

無人機人流監(jiān)控實驗

以某城市交通路口人流監(jiān)控為例, 將本文算法應(yīng)用于無人機, 利用其高空獨特視角, 對十字路口行人進行統(tǒng)計, 實時監(jiān)測人流密度以及人流密度變化情況, 以配合地面警力巡查, 對各類警情及交通情況進行預(yù)警, 輔助警力調(diào)度, 實現(xiàn)對城市環(huán)境下的安全監(jiān)控. 此類監(jiān)管系統(tǒng)的關(guān)鍵是要具有良好的實時性, 因此降低網(wǎng)絡(luò)參數(shù)量, 提高實時性顯得十分重要.

本文以無人機數(shù)據(jù)集進行實驗, 選取第76、133和182幀, 如圖 5所示. 由圖 5可見, 本文算法可有效檢測和跟蹤大部分行人, 且實時性與之前檢測跟蹤實驗結(jié)果具有相同數(shù)量級, 但對于相互遮擋和全身信息不全的行人檢測跟蹤效果相對較差.

pYYBAGNrDyaAWAYuAABs95UevuU642.jpg

圖 5 無人機數(shù)據(jù)集跟蹤結(jié)果

4 結(jié)論

本文在YOLOv3和Deep-SORT算法的基礎(chǔ)上, 針對實時性問題, 使用輕量級網(wǎng)絡(luò)MobileNet代替原有網(wǎng)絡(luò)結(jié)構(gòu)對檢測模型進行壓縮. 實驗結(jié)果表明, 盡管改進算法由于更淺的網(wǎng)絡(luò)結(jié)構(gòu)和未使用殘差網(wǎng)絡(luò)等因素導(dǎo)致精度下降, 但實時性提高顯著, 實現(xiàn)了精度和速度間的折衷, 達到了快速有效跟蹤的目的.

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95380
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    視頻跟蹤目標(biāo)跟蹤算法簡介(上海凱視力成信息科技有限...

    本帖最后由 shkslc 于 2013-10-10 10:25 編輯 跟蹤算法簡介AVT21提供了多種跟蹤算法:質(zhì)心跟蹤
    發(fā)表于 09-29 08:59

    多目標(biāo)優(yōu)化算法有哪些

    多目標(biāo)優(yōu)化算法有哪些,該文圍繞包含柴油發(fā)電機、風(fēng)力發(fā)電、光伏發(fā)電和鉛酸蓄電池的獨立微網(wǎng)系統(tǒng)中的容量配置問題,提出了包含微網(wǎng)全壽命周期內(nèi)的總成本現(xiàn)值、負荷容量缺失率和污染物排放的多目標(biāo)優(yōu)化設(shè)計模型。該
    發(fā)表于 07-12 06:52

    一種適用于空間觀測任務(wù)的實時多目標(biāo)識別算法分享

    硬件平臺,運用散點聚類、軌跡跟蹤、特征提取技術(shù)快速識別目標(biāo)。對算法的功能需求、數(shù)據(jù)流向、運算流程和處理結(jié)果,進行了詳細闡述。實踐結(jié)果表明,該識別算法具有很強的實用性。關(guān)鍵詞
    發(fā)表于 12-21 07:02

    基于聚類融合的多目標(biāo)跟蹤算法

    多目標(biāo)跟蹤是多傳感器數(shù)據(jù)融合中的一個重要問題?;谀J阶R別理論,提出了一種通過對傳感器測量數(shù)據(jù)集類,以區(qū)分源于不同目標(biāo)的測量數(shù)據(jù)集合。對各個類對應(yīng)的目標(biāo)狀態(tài)估計進
    發(fā)表于 07-01 08:40 ?18次下載

    多傳感器多目標(biāo)跟蹤的JPDA算法

    文中提出了一種適用于多傳感器多目標(biāo)跟蹤的JPDA算法,它以極大似然估計完成對來自多傳感器的測量集合進行同源最優(yōu)分劃,然后采用JPDA方法對多目標(biāo)進行
    發(fā)表于 02-03 10:38 ?47次下載
    多傳感器<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>的JPDA<b class='flag-5'>算法</b>

    基于演化硬件的多目標(biāo)進化算法的研究

    基于演化硬件的多目標(biāo)進化算法的研究
    發(fā)表于 01-08 14:47 ?0次下載

    改進霍夫森林框架的多目標(biāo)跟蹤算法

    針對單目視覺對多個相似的目標(biāo)跟蹤因遮擋等因素影響而失效的問題,提出一種基于改進霍夫森林框架的多目標(biāo)跟蹤算法。在將
    發(fā)表于 12-14 17:09 ?0次下載

    基于深度學(xué)習(xí)多目標(biāo)跟蹤算法技術(shù)

    基于深度學(xué)習(xí)算法在圖像和視頻識別任務(wù)中取得了廣泛的應(yīng)用和突破性的進展。
    的頭像 發(fā)表于 10-27 07:28 ?1.3w次閱讀

    大華股份基于AI深度學(xué)習(xí)的視覺目標(biāo)跟蹤算法獲得排行榜第一

     近日,大華股份基于深度學(xué)習(xí)的視覺目標(biāo)跟蹤算法,在通用目標(biāo)
    發(fā)表于 06-11 14:24 ?3867次閱讀
    大華股份基于AI<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的視覺<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b><b class='flag-5'>算法</b>獲得排行榜第一

    深度學(xué)習(xí)多目標(biāo)跟蹤方向調(diào)研報告

    導(dǎo)讀 本文是一篇多目標(biāo)跟蹤方向的調(diào)研報告,從相關(guān)方向、核心步驟、評價指標(biāo)和最新進展等維度出發(fā),對MOT進行了全面的介紹,不僅適合作為入門科普,而且能夠幫助大家加深理解。 最近做了一些多目標(biāo)跟蹤
    的頭像 發(fā)表于 11-05 10:01 ?4022次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>:<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>方向調(diào)研報告

    新型基于深度學(xué)習(xí)目標(biāo)實時跟蹤算法

      針對基于深度學(xué)習(xí)目標(biāo)跟蹤算法模型參數(shù)多、難以部署于嵌入式設(shè)備上的問題,提出一種改進的孿生卷積網(wǎng)絡(luò)實時
    發(fā)表于 03-11 10:41 ?10次下載
    新型基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>目標(biāo)</b>實時<b class='flag-5'>跟蹤</b><b class='flag-5'>算法</b>

    多目標(biāo)跟蹤過程中的數(shù)據(jù)關(guān)聯(lián)技術(shù)綜述

    多目標(biāo)跟蹤,其中單目標(biāo)跟蹤相對簡單,除了需要解決與多目標(biāo)跟蹤共性的問題(如遮擋、形變等)外,單
    發(fā)表于 05-08 16:27 ?2次下載

    基于卷積特征的多伯努利視頻多目標(biāo)跟蹤算法

    目標(biāo)漏跟。針對該問題,在多伯努利濾波框架下,深度分析目標(biāo)的特征信息,引λ抗干擾的卷積特征,提出基于卷積特征的多伯努利視頻多目標(biāo)跟蹤
    發(fā)表于 05-12 15:18 ?11次下載

    最常見的目標(biāo)跟蹤算法

    對象跟蹤問題一直是計算機視覺的熱點任務(wù)之一,簡單的可以分為單目標(biāo)跟蹤多目標(biāo)跟蹤,最常見的目標(biāo)
    的頭像 發(fā)表于 09-14 16:20 ?3240次閱讀

    多目標(biāo)跟蹤算法總結(jié)歸納

    多目標(biāo)跟蹤是計算機視覺領(lǐng)域中的一個重要任務(wù),它旨在從視頻或圖像序列中準(zhǔn)確地檢測和跟蹤多個移動目標(biāo)。不過在落地部署時,有一些關(guān)鍵點需要解決。
    的頭像 發(fā)表于 04-28 09:42 ?3158次閱讀
    <b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b><b class='flag-5'>算法</b>總結(jié)歸納