chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的多目標跟蹤算法技術(shù)

ml8z_IV_Technol ? 來源:未知 ? 作者:工程師李察 ? 2018-10-27 07:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1、導(dǎo)言

在多目標跟蹤問題中,算法需要根據(jù)每一幀圖像中目標的檢測結(jié)果,匹配已有的目標軌跡;對于新出現(xiàn)的目標,需要生成新的目標;對于已經(jīng)離開攝像機視野的目標,需要終止軌跡的跟蹤。這一過程中,目標與檢測的匹配可以看作為目標的重識別,例如,當跟蹤多個行人時,把已有的軌跡的行人圖像集合看作為圖像庫(gallery),而檢測圖像看作為查詢圖像(query),檢測與軌跡的匹配關(guān)聯(lián)過程可以看作由查詢圖像檢索圖像庫的過程。如圖1。

圖1:把檢測圖像看作查詢圖像(query),行人軌跡中的圖像看作圖像庫(gallery),多目標跟蹤中的匹配過程可以看作為行人重識別。

與傳統(tǒng)的行人重識別不同的是,行人多目標跟蹤中的檢測與行人軌跡的匹配關(guān)聯(lián)問題更加復(fù)雜,具體表現(xiàn)在下面三個方面:首先,多目標跟蹤中的目標軌跡是頻繁發(fā)生變化的,圖像樣本庫的數(shù)量和種類并不固定。其次,檢測結(jié)果中可能出現(xiàn)新的目標,也可能不包括已有的目標軌跡。另外,檢測圖像并不像傳統(tǒng)行人重識別中的查詢圖像都是比較準確的檢測結(jié)果,通常,行人多目標跟蹤場景下的檢測結(jié)果混雜了一些錯誤的檢測(false-alarms),而由于背景以及目標之間的交互,跟蹤中的行人檢測可能出現(xiàn)圖像不對齊、多個檢測對應(yīng)同一目標、以及一個檢測覆蓋了多個目標這些情況。如圖2中所示為ACF行人檢測算法的結(jié)果。

如何擴展深度學(xué)習(xí)在行人重識別問題中的研究成果到多目標跟蹤領(lǐng)域,研究適用于多目標跟蹤問題的深度學(xué)習(xí)算法是具有挑戰(zhàn)性的問題。近年來,在計算機視覺頂級會議和期刊上,研究者從各方面提出了一些解決方案,發(fā)表了一些新的算法試圖解決這個問題。在這篇文章中,SIGAI將和大家一起對基于深度學(xué)習(xí)的視覺多目標跟蹤算法進行總結(jié)和歸納,以幫助理解基于深度學(xué)習(xí)框架的多目標跟蹤算法的原理和相對于傳統(tǒng)算法的優(yōu)勢,如果對本文的觀點持有不同的意見,歡迎向我們的公眾號發(fā)消息一起討論。

圖2:多目標跟蹤場景下行人的檢測結(jié)果。

綠色矩形框表示存在的檢測結(jié)果不準確的情況。藍色矩形框是檢測結(jié)果基本準確的示例。當目標特征與檢測器模型樣本分布相差較大時,存在檢測失敗的情況。

2、基于深度學(xué)習(xí)的多目標跟蹤算法分類

多目標跟蹤算法按照軌跡生成的順序可以分為離線的多目標跟蹤和在線的多目標跟蹤算法。離線方式的多目標跟蹤算法通常構(gòu)造為目標檢測關(guān)系的圖模型,其中設(shè)計和計算檢測之間的相似度或者距離度量是決定圖模型構(gòu)造正確性的關(guān)鍵。在線方式的多目標跟蹤算法根據(jù)當前檢測觀測,計算與已有軌跡的匹配關(guān)系,計算合適的匹配度量決定了匹配的正確性。因此,無論是離線方式的多目標跟蹤還是在線方式的多目標跟蹤算法,學(xué)習(xí)檢測結(jié)果的特征并計算匹配相似度或者距離度量都是多目標跟蹤算法的關(guān)鍵步驟。

基于深度學(xué)習(xí)的多目標跟蹤算法的主要任務(wù)是優(yōu)化檢測之間相似性或距離度量的設(shè)計。根據(jù)學(xué)習(xí)特征的不同,基于深度學(xué)習(xí)的多目標跟蹤可以分為表觀特征的深度學(xué)習(xí),基于相似性度量的深度學(xué)習(xí),以及基于高階匹配特征的深度學(xué)習(xí)(如圖3)。

圖3:按照深度學(xué)習(xí)目標和應(yīng)用對基于深度學(xué)習(xí)的多目標跟蹤算法進行分類。

利用深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)目標檢測的表觀特征是簡單有效的提升多目標跟蹤算法的方法。例如利用圖像識別或者行人重識別任務(wù)中學(xué)習(xí)到的深度特征直接替換現(xiàn)有多目標跟蹤算法框架中的表觀特征[1],或者采用深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)光流運動特征,計算運動相關(guān)性[2]。

采用深度學(xué)習(xí)提升多目標跟蹤算法更加直接的方法是學(xué)習(xí)檢測之間的特征相似性,比如設(shè)計深度網(wǎng)絡(luò)計算不同檢測的距離函數(shù),相同目標的檢測距離小,不同目標的檢測距離大,從而構(gòu)造關(guān)于檢測距離的代價函數(shù)[3]。也可以設(shè)計二類分類代價,使相同目標的檢測特征匹配類型為1,而不同目標的檢測特征匹配類型為0,從而學(xué)習(xí)并輸出(0,1]之間的檢測匹配度[4]。如果考慮已有軌跡與檢測之間的匹配或者軌跡之間的匹配,采用深度學(xué)習(xí)方法可以用于設(shè)計并計算軌跡之間的匹配相似度,這種方法可以認為是基于深度學(xué)習(xí)的高階特征匹配方法。采用深度學(xué)習(xí)計算高階特征匹配可以學(xué)習(xí)多幀表觀特征的高階匹配相似性[5],也可以學(xué)習(xí)運動特征的匹配相關(guān)度[6]。

下面我們對一些基于深度學(xué)習(xí)的多目標跟蹤算法進行概要介紹。

3、深度視覺多目標跟蹤算法介紹

3.1 基于對稱網(wǎng)絡(luò)的多目標跟蹤算法

一種檢測匹配度量學(xué)習(xí)方法是采用Siamese對稱卷積網(wǎng)絡(luò),以兩個尺寸相同的檢測圖像塊作為輸入,輸出為這兩個圖像塊是否屬于同一個目標的判別[3]。通常有三種拓撲形式的Siamese網(wǎng)絡(luò)結(jié)構(gòu),如圖4。

圖4:三種Siamese網(wǎng)絡(luò)拓撲結(jié)構(gòu)。

第一種結(jié)構(gòu),輸入A和B經(jīng)過相同參數(shù)的網(wǎng)絡(luò)分支,對提取的特征計算他們的距離度量作為代價函數(shù),以使得相同對象的距離接近,而不同對象的距離變大。第二種結(jié)構(gòu),輸入A和B經(jīng)過部分相同參數(shù)的網(wǎng)絡(luò)分支,對生成的特征進行合并,新的特征進行多層卷積濾波之后輸入代價函數(shù)作為輸出。第三種結(jié)構(gòu),對輸入A和B疊加組合作為新的網(wǎng)絡(luò)輸入,通過網(wǎng)絡(luò)濾波生成輸出。

經(jīng)過實驗表明,第三種網(wǎng)絡(luò)結(jié)構(gòu)能夠生成更好的判別結(jié)果。因此,在文獻[3]中,Lealtaixe等人采用第三種拓撲形式的Siamese網(wǎng)絡(luò)訓(xùn)練并計算兩個檢測的匹配相似度,原始的檢測特征包括正則化的LUV圖像I1和I2,以及具有x,y方向分量的光流圖像O1和O2,把這些圖像縮放到121x53,并且疊加到一起構(gòu)成10個通道的網(wǎng)絡(luò)輸入特征。卷積網(wǎng)絡(luò)由3個卷積層(Conv-Layer)、4個全連接層(FC-Layer)以及2元分類損失層(binary-softmax-loss)組成,如圖5。損失函數(shù)為:

其中Φ(d1,d2)表示兩個檢測d1,d2,經(jīng)過卷積之后的輸出特征。y表示是否對應(yīng)相同目標,如果d1,d2來自同一個目標的檢測,y=1;否則y=0。

為了學(xué)習(xí)這個網(wǎng)絡(luò),作者從真實跟蹤數(shù)據(jù)中抽取訓(xùn)練樣本,從利用檢測算法得到同一個軌跡的檢測對作為正樣本,從不同軌跡中得到檢測作為負樣本,為了增加樣本多樣性,增強分類器的泛化能力,負樣本還包括從檢測周圍隨機采集的重疊率較小的圖像塊。

學(xué)習(xí)過程采用經(jīng)典的帶有動量的隨機梯度反向傳播算法。最小批大小選擇為128,學(xué)習(xí)率初始為0.01。通過50個回合的訓(xùn)練,可以得到較為優(yōu)化的網(wǎng)絡(luò)參數(shù)。

在Siamese網(wǎng)絡(luò)學(xué)習(xí)完成之后,作者采用第六層全連接網(wǎng)絡(luò)的輸出作為表觀特征,為了融合運動信息,作者又設(shè)計了6維運動上下文特征:尺寸相對變化,位置相對變化,以及速度相對變化。通過經(jīng)典的梯度下降提升算法學(xué)習(xí)集成分類器。

圖5:采用Siamese對稱網(wǎng)絡(luò)學(xué)習(xí)表觀特征相似度,并通過基于梯度下降提升算法的分類器融合運動特征,得到融合運動和表觀特征的相似度判別。并利用線性規(guī)劃優(yōu)化算法得到多目標跟蹤結(jié)果。

多目標跟蹤的過程采用全局最優(yōu)算法框架,通過對每兩個檢測建立連接關(guān)系,生成匹配圖,計算他們的匹配狀態(tài)。通過最小代價網(wǎng)絡(luò)流轉(zhuǎn)化為線性規(guī)劃進行求解。

3.2 基于最小多割圖模型的多目標跟蹤算法

上述算法中為了匹配兩個檢測采用LUV圖像格式以及光流圖像。Tang等人在文獻[2]中發(fā)現(xiàn)采用深度學(xué)習(xí)計算的類光流特征(DeepMatching),結(jié)合表示能力更強的模型也可以得到效果很好的多目標跟蹤結(jié)果。

在文獻[2]中,作者通過觀察目標跟蹤問題中的檢測結(jié)果,發(fā)現(xiàn)僅僅考慮兩幀之間的檢測匹配不是最佳的模型表示。如圖6,由于存在很多檢測不準確的情況,同時考慮圖像之間以及圖像內(nèi)部的檢測匹配關(guān)系,并建立相應(yīng)的圖模型比僅僅考濾幀間檢測匹配的圖模型具有更廣泛的表示能力。

圖6:上圖是三幀圖像中的檢測結(jié)果,為了建立更準確的匹配模型,除了建立兩幀之間的匹配關(guān)系,還需要考慮同一幅圖像內(nèi),是否存在同一個目標對應(yīng)多個檢測的情況。下圖是構(gòu)造的幀間及幀內(nèi)連接圖模型。

類似于最小代價流模型求解多目標跟蹤算法,這種考慮了幀內(nèi)匹配的圖模型可以模型化為圖的最小多割問題,如下公式所示:

上式中Ce表示每個邊的代價,這里用檢測之間的相似度計算。x=0表示節(jié)點屬于同一個目標,x=1反之。這個二元線性規(guī)劃問題的約束條件表示,對于任何存在的環(huán)路,如果存在一個連接x=0,那么這個環(huán)上的其他路徑都是x=0。即,對于優(yōu)化結(jié)果中的0環(huán)路,他們都在同一個目標中。所以x=1表示了不同目標的分割,因此這個問題轉(zhuǎn)化為了圖的最小多割問題。對于最小代價多割問題的求解,可以采用KLj算法進行求解[7]。

現(xiàn)在的問題是如何計算幀內(nèi)及幀間檢測配對的匹配度量特征。作者采用了深度學(xué)習(xí)算法框架計算的光流特征(DeepMatching)作為匹配特征[8]。圖7是采用DeepMatching方法計算的深度光流特征示例。

圖7: 利用DeepMatching算法計算的深度光流特征,藍色箭頭表示匹配上的點對。

基于DeepMatching特征,可以構(gòu)造下列5維特征:

其中MI,MU表示檢測矩形框中匹配的點的交集大小以及并集大小,ξv和ξw表示檢測信任度。利用這5維特征可以學(xué)習(xí)一個邏輯回歸分類器。并得到是相同目標的概率Pe,從而計算公式(2)中的代價函數(shù):

為了連接長間隔的檢測匹配,增強對遮擋的處理能力,同時避免表觀形似但是不同目標檢測之間的連接,Tang等人在最小代價多割圖模型的基礎(chǔ)上提出了基于提升邊(lifted edges)的最小代價多割圖模型[9]?;镜乃枷胧?,擴展原來多割公式(2)的約束條件,把圖中節(jié)點的連接分為常規(guī)邊和提升邊,常規(guī)邊記錄短期匹配狀態(tài),提升邊記錄長期相似檢測之間的匹配關(guān)系。除了原來公式(2)中的約束,又增加了2個針對提升邊的約束,即(1)對于提升邊是正確匹配的,應(yīng)該有常規(guī)邊上正確匹配的支持;(2)對于提升邊是割邊的情況,也應(yīng)該有常規(guī)邊上連續(xù)的割邊的支持。如圖8。

圖8: (a)和(c)是傳統(tǒng)的最小代價多割圖模型。(b)和(d)是增加了提升邊(綠色邊)的最小多割圖模型。通過增加提升邊約束,圖中(b)中的提升邊可以被識別為割,而(d)中的邊被識別為鏈接。

同樣,為了計算邊的匹配代價,需要設(shè)計匹配特征。這里,作者采用結(jié)合姿態(tài)對齊的疊加Siamese網(wǎng)絡(luò)計算匹配相似度,如圖9,采用的網(wǎng)絡(luò)模型StackNetPose具有最好的重識別性能。

圖9: (a),(b),(c)分別為SiameseNet, StackNet, StackNetPose模型。(e)為這三種模型與ID-Net在行人重識別任務(wù)上對比。(d)為StackNetPose的結(jié)果示例。

綜合StackNetPose網(wǎng)絡(luò)匹配信任度、深度光流特征(deepMatching)和時空相關(guān)度,作者設(shè)計了新的匹配特征向量。類似于[2], 計算邏輯回歸匹配概率。最終的跟蹤結(jié)果取得了非常突出的進步。在MOT2016測試數(shù)據(jù)上的結(jié)果如下表:

表1:基于提升邊的最小代價多割算法在MOT2016測試數(shù)據(jù)集中的跟蹤性能評測結(jié)果。

3.3 通過時空域關(guān)注模型學(xué)習(xí)多目標跟蹤算法

除了采用解決目標重識別問題的深度網(wǎng)絡(luò)架構(gòu)學(xué)習(xí)檢測匹配特征,還可以根據(jù)多目標跟蹤場景的特點,設(shè)計合適的深度網(wǎng)絡(luò)模型來學(xué)習(xí)檢測匹配特征。Chu等人對行人多目標跟蹤問題中跟蹤算法發(fā)生漂移進行統(tǒng)計分析,發(fā)現(xiàn)不同行人發(fā)生交互時,互相遮擋是跟蹤算法產(chǎn)生漂移的重要原因[4]。如圖10。

圖10:當2個目標的運動發(fā)生交互的時候,被遮擋目標不能分辨正確匹配,導(dǎo)致跟蹤漂移。

針對這個問題,文獻[4]提出了基于空間時間關(guān)注模型(STAM)用于學(xué)習(xí)遮擋情況,并判別可能出現(xiàn)的干擾目標。如圖11,空間關(guān)注模型用于生成遮擋發(fā)生時的特征權(quán)重,當候選檢測特征加權(quán)之后,通過分類器進行選擇得到估計的目標跟蹤結(jié)果,時間關(guān)注模型加權(quán)歷史樣本和當前樣本,從而得到加權(quán)的損失函數(shù),用于在線更新目標模型。

圖11:用于遮擋判別的STAM模型框架,采用空間注意模型加權(quán)檢測結(jié)果的特征,通過歷史樣本、以及圍繞當前跟蹤結(jié)果采集的正、負樣本,來在線更新目標模型。

在這個模型中每個目標獨立管理并更新自己的空間時間關(guān)注模型以及特征模型,并選擇候選檢測進行跟蹤,因此本質(zhì)上,這種方法是對單目標跟蹤算法在多目標跟蹤中的擴展。為了區(qū)分不同的目標,關(guān)鍵的步驟是如何對遮擋狀態(tài)進行建模和區(qū)分接近的不同目標。

這里空間注意模型用于對每個時刻的遮擋狀態(tài)進行分析,空間關(guān)注模型如圖12中下圖所示。主要分為三個部分,第一步是學(xué)習(xí)特征可見圖(visibility map):

這里fvis是一個卷積層和全連接層的網(wǎng)絡(luò)操作。wvisi是需要學(xué)習(xí)的參數(shù)。

第二步是根據(jù)特征可見圖,計算空間關(guān)注圖(Spatial Attention):

其中fatt是一個局部連接的卷積和打分操作。wtji是學(xué)習(xí)到的參數(shù)。

圖12:采用空間注意模型網(wǎng)絡(luò)架構(gòu)學(xué)習(xí)遮擋狀態(tài),并用于每個樣本特征的加權(quán)和打分。

第三步根據(jù)空間注意圖加權(quán)原特征圖:

對生成的加權(quán)特征圖進行卷積和全連接網(wǎng)絡(luò)操作,生成二元分類器判別是否是目標自身。最后用得到分類打分選擇最優(yōu)的跟蹤結(jié)果。

3.4 基于循環(huán)網(wǎng)絡(luò)判別融合表觀運動交互的多目標跟蹤算法

上面介紹的算法采用的深度網(wǎng)絡(luò)模型都是基于卷積網(wǎng)絡(luò)結(jié)構(gòu),由于目標跟蹤是通過歷史軌跡信息來判斷新的目標狀態(tài),因此,設(shè)計能夠記憶歷史信息并根據(jù)歷史信息來學(xué)習(xí)匹配相似性度量的網(wǎng)絡(luò)結(jié)構(gòu)來增強多目標跟蹤的性能也是比較可行的算法框架。

在文獻[5]中,Sadeghian等人設(shè)計了基于長短期記憶循環(huán)網(wǎng)絡(luò)模型(LSTM)的特征融合算法來學(xué)習(xí)軌跡歷史信息與當前檢測之間的匹配相似度。如圖13。

圖13:軌跡目標與檢測的匹配需要采用三種特征(表觀特征、運動特征、交互特征)融合(左),為了融合三種特征采用分層的LSTM模型(中),最終匹配通過相似度的二部圖匹配算法實現(xiàn)(右)。

文獻[5]中,考慮從三個方面特征計算軌跡歷史信息與檢測的匹配:表觀特征,運動特征,以及交互模式特征。這三個方面的特征融合以分層方式計算。

在底層的特征匹配計算中,三個特征都采用了長短期記憶模型(LSTM)。對于表觀特征,首先采用VGG-16卷積網(wǎng)絡(luò)生成500維的特征?tA,以這個特征作為LSTM的輸入計算循環(huán)。

圖14:基于CNN模型和LSTM模型的軌跡與檢測表觀特征匹配架構(gòu)。

網(wǎng)絡(luò)的輸出特征?t,對于當前檢測BBjt+1,計算同樣維度的特征?j,連接這兩個特征并通過全鏈接網(wǎng)絡(luò)層計算500維特征?A,根據(jù)是否匹配學(xué)習(xí)分類器,并預(yù)訓(xùn)練這個網(wǎng)絡(luò)(圖14)。

對于運動特征,取相對位移vit為基本輸入特征,直接輸入LSTM模型計算沒時刻的輸出?i,對于下一時刻的檢測同樣計算相對位移vjt+1,通過全連接網(wǎng)絡(luò)計算特征?j,類似于表觀特征計算500維特征?m,并利用二元匹配分類器進行網(wǎng)絡(luò)的預(yù)訓(xùn)練(圖15)。

圖15:基于LSTM模型的軌跡運動特征匹配架構(gòu)。

對于交互特征,取以目標中心位置周圍矩形領(lǐng)域內(nèi)其他目標所占的相對位置映射圖作為LSTM模型的輸入特征,計算輸出特征?i,對于t+1時刻的檢測計算類似的相對位置映射圖為特征,通過全連接網(wǎng)絡(luò)計算特征?j,類似于運動模型,通過全連接網(wǎng)絡(luò)計算500維特征?I,進行同樣的分類訓(xùn)練(圖16)。

圖16:基于LSTM模型的目標交互特征匹配架構(gòu)。

當三個特征?A,?M,?I都計算之后拼接為完整的特征,輸入到上層的LSTM網(wǎng)絡(luò),對輸出的向量進行全連接計算,然后用于匹配分類,匹配正確為1,否則為0。對于最后的網(wǎng)絡(luò)結(jié)構(gòu),還需要進行微調(diào),以優(yōu)化整體網(wǎng)絡(luò)性能。最后的分類打分看作為相似度用于檢測與軌跡目標的匹配計算。最終的跟蹤框架采用在線的檢測與軌跡匹配方法進行計算。

3.5 基于雙線性長短期循環(huán)網(wǎng)絡(luò)模型的多目標跟蹤算法

在循環(huán)網(wǎng)絡(luò)判別融合表觀運動交互的多目標跟蹤算法中,作者采用LSTM作為表觀模型、運動模型以及交互模型的歷史信息模型表示。在對LSTM中各個門函數(shù)的設(shè)計進行分析之后,Kim等人認為僅僅用基本的LSTM模型對于表觀特征并不是最佳的方案,在文獻[10]中,Kim等人設(shè)計了基于雙線性LSTM的表觀特征學(xué)習(xí)網(wǎng)絡(luò)模型。

如圖17中,除了利用傳統(tǒng)的LSTM進行匹配學(xué)習(xí),或者類似[5]中的算法,拼接LSTM輸出與輸入特征,作者設(shè)計了基于乘法的雙線性LSTM模型,利用LSTM的隱含層特征(記憶)信息與輸入的乘積作為特征,進行匹配分類器的學(xué)習(xí)。

圖17:三種基于LSTM的匹配模型。(a)利用隱含層(記憶信息)與輸入特征乘積作為分類特征。(b)直接拼接隱含層特征與輸入特征作為新的特征進行分類學(xué)習(xí)。(c)使用傳統(tǒng)LSTM模型的隱含層進行特征學(xué)習(xí)。

這里對于隱含層特征ht-1,必須先進行重新排列(reshape)操作,然后才能乘以輸入的特征向量xt,如下公式:

其中f表示非線性激活函數(shù),mt是新的特征輸入。而原始的檢測圖像采用ResNet50提取2048維的特征,并通過全連接降為256維。下表中對于不同網(wǎng)絡(luò)結(jié)構(gòu)、網(wǎng)絡(luò)特征維度、以及不同LSTM歷史長度時,表觀特征的學(xué)習(xí)對跟蹤性能的影響做了驗證。

表2:(左)三種網(wǎng)絡(luò)結(jié)構(gòu)對跟蹤性能的影響, Baseline1和Baseline2分別對應(yīng)圖17中的中間圖結(jié)構(gòu)和右圖結(jié)構(gòu)。(中)不同網(wǎng)絡(luò)隱含層維度對性能的影響。(右)不同歷史信息長度對跟蹤性能的影響。

可以看出采用雙線性LSTM(bilinear LSTM)的表觀特征性能最好,此時的歷史相關(guān)長度最佳為40,這個值遠遠超過文獻[5]中的2-4幀歷史長度。相對來說40幀歷史信息影響更接近人類的直覺。

作者通過對比遞推最小二乘公式建模表觀特征的結(jié)果,認為雙線性LSTM模型對于表觀模型的長期歷史特征建模比簡單的LSTM更具有可解釋性,而對于運動特征,原始的LSTM特征表現(xiàn)的更好。綜合雙線性LSTM表觀模型和LSTM運動模型,作者提出了新的基于MHT框架的跟蹤算法MHT-bLSTM,得到的性能如下表:

表3:在MOT2017和MOT2016中多目標跟蹤算法比較。在IDF1評測指標上,MHT-bLSTM的性能最佳。

4、基于深度學(xué)習(xí)的視覺多目標跟蹤算法討論

上文我們討論了視覺多目標跟蹤領(lǐng)域中,深度學(xué)習(xí)算法近年來的發(fā)展。從直接擴展行人重識別任務(wù)中深度學(xué)習(xí)算法的網(wǎng)絡(luò)模型,深度學(xué)習(xí)被證明在多目標跟蹤領(lǐng)域中是確實可行的特征學(xué)習(xí)和特征匹配算法,對于提升跟蹤性能可以起到非常重要的作用。目前的基于深度學(xué)習(xí)的多目標跟蹤框架在以下兩個方向取得了較好的進展:(1)結(jié)合多目標跟蹤場景的網(wǎng)絡(luò)設(shè)計,比如在文獻[4]中考慮多目標交互的情況設(shè)計網(wǎng)絡(luò)架構(gòu),這種考慮跟蹤場景的網(wǎng)絡(luò)設(shè)計對于跟蹤結(jié)果有明顯提升。(2)采用循環(huán)神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)應(yīng)用,比如文獻[5]和[10],討論歷史信息對跟蹤中軌跡特征的描述,是研究跟蹤問題的一個重要方向。

從跟蹤結(jié)果來看,即使采用簡單的重識別網(wǎng)絡(luò)特征以及光流特征,如果使用優(yōu)化的全局跟蹤框架,也能夠得到比使用復(fù)雜的網(wǎng)絡(luò)架構(gòu)更好的結(jié)果。例如使用提升邊建模長期鏈接的多割圖模型,對于跟蹤過程中目標的檢測錯誤和檢測不準確具有很好的補償作用,可以提升正確檢測聚類的性能。而使用循環(huán)網(wǎng)絡(luò)模型對于運動特征的長期匹配相似度計算也是非常有效的。比較上文中討論的兩種循環(huán)網(wǎng)絡(luò)的使用,由于缺少交互特征,基于雙線性LSTM的方法比特征融合的方法具有一定的性能損失。 因此, 嘗試在網(wǎng)絡(luò)模型中加入交互特征的建模,對于多目標跟蹤結(jié)果具有一定的性能提升。

5、基于深度學(xué)習(xí)的視覺多目標跟蹤發(fā)展趨勢

近年來,基于深度學(xué)習(xí)的單目標跟蹤算法取得了長足的進步。相對來說,深度學(xué)習(xí)在多目標跟蹤領(lǐng)域的應(yīng)用,比較多的局限于匹配度量的學(xué)習(xí)。主要的原因是,在圖像識別領(lǐng)域中,例如圖像分類、行人重識別問題中,深度學(xué)習(xí)取得的進展能夠較好的直接應(yīng)用于多目標跟蹤問題。然而,考慮對象到之間的交互以及跟蹤場景復(fù)雜性,多目標跟蹤問題中深度學(xué)習(xí)算法的應(yīng)用還遠沒有達到充分的研究。隨著深度學(xué)習(xí)領(lǐng)域理論的深入研究和發(fā)展,近年來基于生成式網(wǎng)絡(luò)模型和基于強化學(xué)習(xí)的深度學(xué)習(xí)越來越得到大家的關(guān)注,在多目標跟蹤領(lǐng)域中,由于場景的復(fù)雜性,研究如何采用生成式網(wǎng)絡(luò)模型和深度強化學(xué)習(xí)來學(xué)習(xí)跟蹤場景的適應(yīng)性,提升跟蹤算法的性能是未來深度學(xué)習(xí)多目標跟蹤領(lǐng)域研究的趨勢。

參考文獻

[1] C. Kim, F. Li, A. Ciptadi, and J. Rehg. Multiple Hypothesis Tracking Revisited. In ICCV, 2015.

[2] S. Tang, B. Andres, M. Andriluka, and B. Schiele. Multi-person tracking by multicut and deep matching. In ECCV Workshops, 2016.

[3] L. Lealtaixe, C. Cantonferrer, and K. Schindler, “Learning by tracking: Siamese CNN for robust target association,” in Proceedings of Computer Vision and Pattern Recognition. 2016.

[4] Q. Chu, W. Ouyang, H. Li, X. Wang, B. Liu, N. Yu. "Online Multi-Object Tracking Using CNN-based Single Object Tracker with Spatial-Temporal Attention Mechanism", ICCV 2017.

[5] A. Sadeghian, A. Alahi, and S. Savarese. "Tracking the untrackable: Learning to track multiple cues with long-term dependencies", ICCV2017.

[6] K. Fang, Y. Xiang, X. Li and S. Savarese, "Recurrent Autoregressive Networks for Online Multi-Object Tracking", In IEEE Winter Conference on Applications of Computer Vision 2018.

[7] M. Keuper, E. Levinkov, N. Bonneel, G. Lavou′e, T. Brox, B. Andres. "Efficient decomposition of image and mesh graphs by lifted multicuts", ICCV 2015.

[8] P. Weinzaepfel, J. Revaud, Z. Harchaoui, C. Schmid. "DeepFlow: large displacement optical flow with deep matching", In ICCV 2013.

[9] S. Tang, M. Andriluka, B. Andres, and B. Schiele. Multiple People Tracking with Lifted Multi-cut and Person Re-identification. In CVPR, 2017.

[10] C. Kim, F. Li, and J. M. Rehg, "Multi-object Tracking with Neural Gating Using Bilinear LSTM", in ECCV 2018.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4760

    瀏覽量

    97142
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5590

    瀏覽量

    123901

原文標題:深度多目標跟蹤算法綜述

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    視頻跟蹤目標跟蹤算法簡介(上海凱視力成信息科技有限...

    本帖最后由 shkslc 于 2013-10-10 10:25 編輯 跟蹤算法簡介AVT21提供了多種跟蹤算法:質(zhì)心跟蹤
    發(fā)表于 09-29 08:59

    多目標優(yōu)化算法有哪些

    多目標優(yōu)化算法有哪些,該文圍繞包含柴油發(fā)電機、風(fēng)力發(fā)電、光伏發(fā)電和鉛酸蓄電池的獨立微網(wǎng)系統(tǒng)中的容量配置問題,提出了包含微網(wǎng)全壽命周期內(nèi)的總成本現(xiàn)值、負荷容量缺失率和污染物排放的多目標優(yōu)化設(shè)計模型。該
    發(fā)表于 07-12 06:52

    一種適用于空間觀測任務(wù)的實時多目標識別算法分享

    硬件平臺,運用散點聚類、軌跡跟蹤、特征提取技術(shù)快速識別目標。對算法的功能需求、數(shù)據(jù)流向、運算流程和處理結(jié)果,進行了詳細闡述。實踐結(jié)果表明,該識別算法
    發(fā)表于 12-21 07:02

    基于聚類融合的多目標跟蹤算法

    多目標跟蹤是多傳感器數(shù)據(jù)融合中的一個重要問題?;谀J阶R別理論,提出了一種通過對傳感器測量數(shù)據(jù)集類,以區(qū)分源于不同目標的測量數(shù)據(jù)集合。對各個類對應(yīng)的目標狀態(tài)估計進
    發(fā)表于 07-01 08:40 ?18次下載

    多傳感器多目標跟蹤的JPDA算法

    文中提出了一種適用于多傳感器多目標跟蹤的JPDA算法,它以極大似然估計完成對來自多傳感器的測量集合進行同源最優(yōu)分劃,然后采用JPDA方法對多目標進行
    發(fā)表于 02-03 10:38 ?47次下載
    多傳感器<b class='flag-5'>多目標</b><b class='flag-5'>跟蹤</b>的JPDA<b class='flag-5'>算法</b>

    基于演化硬件的多目標進化算法的研究

    基于演化硬件的多目標進化算法的研究
    發(fā)表于 01-08 14:47 ?0次下載

    改進霍夫森林框架的多目標跟蹤算法

    針對單目視覺對多個相似的目標跟蹤因遮擋等因素影響而失效的問題,提出一種基于改進霍夫森林框架的多目標跟蹤算法。在將
    發(fā)表于 12-14 17:09 ?0次下載

    深度學(xué)習(xí)多目標跟蹤方向調(diào)研報告

    導(dǎo)讀 本文是一篇多目標跟蹤方向的調(diào)研報告,從相關(guān)方向、核心步驟、評價指標和最新進展等維度出發(fā),對MOT進行了全面的介紹,不僅適合作為入門科普,而且能夠幫助大家加深理解。 最近做了一些多目標跟蹤
    的頭像 發(fā)表于 11-05 10:01 ?4309次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>:<b class='flag-5'>多目標</b><b class='flag-5'>跟蹤</b>方向調(diào)研報告

    技術(shù)可有效地使用目標檢測的對抗示例欺騙多目標跟蹤

    對抗機器學(xué)習(xí)的最新研究開始關(guān)注自主駕駛中的視覺感知,并研究了目標檢測模型的對抗示例。然而在視覺感知管道中,在被稱為多目標跟蹤的過程中,檢測到的目標
    的頭像 發(fā)表于 02-01 11:01 ?3708次閱讀
    新<b class='flag-5'>技術(shù)</b>可有效地使用<b class='flag-5'>目標</b>檢測的對抗示例欺騙<b class='flag-5'>多目標</b><b class='flag-5'>跟蹤</b>

    新型基于深度學(xué)習(xí)目標實時跟蹤算法

      針對基于深度學(xué)習(xí)目標跟蹤算法模型參數(shù)多、難以部署于嵌入式設(shè)備上的問題,提出一種改進的孿生卷積網(wǎng)絡(luò)實時
    發(fā)表于 03-11 10:41 ?10次下載
    新型基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>目標</b>實時<b class='flag-5'>跟蹤</b><b class='flag-5'>算法</b>

    多目標跟蹤過程中的數(shù)據(jù)關(guān)聯(lián)技術(shù)綜述

    多目標跟蹤,其中單目標跟蹤相對簡單,除了需要解決與多目標跟蹤共性的問題(如遮擋、形變等)外,單
    發(fā)表于 05-08 16:27 ?2次下載

    基于卷積特征的多伯努利視頻多目標跟蹤算法

    目標漏跟。針對該問題,在多伯努利濾波框架下,深度分析目標的特征信息,引λ抗干擾的卷積特征,提出基于卷積特征的多伯努利視頻多目標跟蹤
    發(fā)表于 05-12 15:18 ?11次下載

    最常見的目標跟蹤算法

    對象跟蹤問題一直是計算機視覺的熱點任務(wù)之一,簡單的可以分為單目標跟蹤多目標跟蹤,最常見的目標
    的頭像 發(fā)表于 09-14 16:20 ?3584次閱讀

    基于MobileNet的多目標跟蹤深度學(xué)習(xí)算法

    針對深度學(xué)習(xí)算法多目標跟蹤中的實時性問題, 提出一種基于MobileNet的多目標
    的頭像 發(fā)表于 11-09 10:23 ?1686次閱讀
    基于MobileNet的<b class='flag-5'>多目標</b><b class='flag-5'>跟蹤</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>

    多目標跟蹤算法總結(jié)歸納

    多目標跟蹤是計算機視覺領(lǐng)域中的一個重要任務(wù),它旨在從視頻或圖像序列中準確地檢測和跟蹤多個移動目標。不過在落地部署時,有一些關(guān)鍵點需要解決。
    的頭像 發(fā)表于 04-28 09:42 ?3908次閱讀
    <b class='flag-5'>多目標</b><b class='flag-5'>跟蹤</b><b class='flag-5'>算法</b>總結(jié)歸納