chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SA-Siam:用于實時目標跟蹤的孿生網(wǎng)絡(luò)A Twofold Siamese Network for Real-Time Object Tracking

jf_96884364 ? 來源:代碼的路 ? 作者:代碼的路 ? 2023-01-11 17:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

原文鏈接

論文地址:https://openaccess.thecvf.com/content_cvpr_2018/papers/He_A_Twofold_Siamese_CVPR_2018_paper.pdf

摘要

1.本文核心一:將圖像分類任務(wù)中的 語義特征 (Semantic features)與相似度匹配任務(wù)中的外觀特征(Appearance features)互補結(jié)合,非常適合與目標跟蹤任務(wù),因此本文方法可以簡單概括為:SA-Siam=語義分支+外觀分支;

2.Motivation:目標跟蹤的特點是,我們想從眾多背景中區(qū)分出變化的目標物體,其中難點為:背景和變化。本文的思想是用一個語義分支過濾掉背景,同時用一個外觀特征分支來泛化目標的變化,如果一個物體被語義分支判定為不是背景,并且被外觀特征分支判斷為該物體由目標物體變化而來,那么我們認為這個物體即需要被跟蹤的物體;

3.本文的目的是提升SiamFC在目標跟蹤任務(wù)中的判別力。在深度CNN訓練目標分類的任務(wù)中,網(wǎng)絡(luò)中深層的特征具有強的語義信息并且對目標的外觀變化擁有不變性。這些語義特征是可以用于互補SiamFC在目標跟蹤任務(wù)中使用的外觀特征?;诖税l(fā)現(xiàn),我們提出了SA-Siam,這是一個雙重孿生網(wǎng)絡(luò),由語義分支和外觀分支組成。每一個分支都使用孿生網(wǎng)絡(luò)結(jié)構(gòu)計算候選圖片和目標圖片的相似度。為了保持兩個分支的獨立性,兩個孿生網(wǎng)絡(luò)在訓練過程中沒有任何關(guān)系,僅僅在測試過程中才會結(jié)合。

4.本文核心二:對于新引入的語義分支,本文進一步提出了通道注意力機制。在使用網(wǎng)絡(luò)提取目標物體的特征時,不同的目標激活不同的特征通道,我們應(yīng)該對被激活的通道賦予高的權(quán)值,本文通過目標物體在網(wǎng)絡(luò)特定層中的響應(yīng)計算這些不同層的權(quán)值。實驗證實,通過此方法,可以進一步提升語義孿生網(wǎng)絡(luò)的判別力。

其仍然沿用SiamFC在跟蹤過程中所有幀都和第一幀對比,是該類方法的主要缺陷。

相關(guān)工作

RPN詳細介紹:https://mp.weixin.qq.com/s/VXgbJPVoZKjcaZjuNwgh-A

SiamFC詳細介紹:https://mp.weixin.qq.com/s/kS9osb2JBXbgb_WGU_3mcQ

SiamRPN詳細介紹:https://mp.weixin.qq.com/s/pmnip3LQtQIIm_9Po2SndA

1.SiamFC:對于A,B,C三個圖片,假設(shè)C圖片和A圖片是一個物體,但是外觀發(fā)生了一些變化,B和A沒有任何關(guān)系。SiamFC網(wǎng)絡(luò)輸入兩張圖片,那么經(jīng)過SiamFC后會得到A和C相似度高,A和B相似度低。通過上述SiamFC的功能,自然地其可以用于目標跟蹤算法中。SiamFC網(wǎng)絡(luò)突出優(yōu)點:無需在線fine-tune和end-to-end跟蹤模式,使得其可以做到保證跟蹤效果的前提下進行實時跟蹤。

2.集成跟蹤器:大多數(shù)跟蹤是一個模型A,利用模型A對當前數(shù)據(jù)進行計算得到跟蹤結(jié)果,集成跟蹤器就是它有多個模型A,B,C,分別對當前數(shù)據(jù)進行分析,然后對結(jié)果融合得到最終的跟蹤結(jié)果。本文的語義特征+外觀特征正是借鑒了集成跟蹤器的思路。在集成跟蹤器,模型A,B,C相關(guān)度越低,跟蹤效果越好,這個很好理解,如果他們?nèi)浅O嚓P(guān),那么用三個和用一個沒啥區(qū)別,因為這個原因,本文的語義特征和外觀特征網(wǎng)絡(luò)在訓練過程中是完全不相關(guān)的。

框架

提議的雙重SA-Siam網(wǎng)絡(luò)的體系結(jié)構(gòu)。A-Net表示外觀網(wǎng)絡(luò)。用虛線連接的網(wǎng)絡(luò)和數(shù)據(jù)結(jié)構(gòu)與SiamFC完全相同。S-Net表示語義網(wǎng)絡(luò)。提取最后兩個卷積層的特征。信道關(guān)注模塊基于目標和上下文信息確定每個特征信道的權(quán)重。外觀分支和語義分支是單獨訓練的,直到測試時間才結(jié)合。

1.外觀分支(藍色部分)

一個目標A送到網(wǎng)絡(luò)P里,一個比目標大的搜索域S送到網(wǎng)絡(luò)P里,A出來的特征圖與S出來的特征圖進行卷積操作得到相關(guān)系數(shù)圖,相關(guān)系數(shù)越大,越可能是同一個目標,網(wǎng)絡(luò)則采用和SiamFC中一樣的網(wǎng)絡(luò)。

外觀分支以(z,X)為輸入。它克隆了SiamFC網(wǎng)絡(luò)。用于提取外觀特征的卷積網(wǎng)絡(luò)稱為A-Net。來自外觀分支的響應(yīng)映射可以寫為:

L(y,v)=\\frac{1}{D}\\sum_{u\\in D}l(y[u],v[u])

在相似性學習問題中,A-Net中的所有參數(shù)都是從頭開始訓練的。

通過最小化邏輯損失函數(shù)L(·)來優(yōu)化A-Net,如下:

arg \\min_{\\theta_a}\\frac{1}{N} \\sum^N_{i=1}{(L(h_a(z_i,X_i,\\theta_a),Y_i))}

其中θa表示A-Net中的參數(shù),N是訓練樣本的數(shù)量,Yi是ground truth的響應(yīng)。

2.語義分支(橙色部分)

這篇文章的重點便是此。橙色的表示語義網(wǎng)絡(luò),用的是預(yù)訓練好的AlexNet,在訓練和測試時固定所有參數(shù),只提取最后conv4和conv5的特征,目標模板變?yōu)閦s,zs和X一樣大,和z有一樣的中心,但包含了上下文信息,因為支路上加了通道注意力模型,通過目標和周圍的信息來決定權(quán)重,選擇對特定跟蹤目標影響更大的通道。另外,為了更好的進行后續(xù)的相關(guān)操作,作者將上下兩支路加入融合模型,加入了1×1的卷積層,對提取的兩層每層進行卷積操作,使目標模板支路和檢測支路的特征通道相同,而且通道總數(shù)和外觀網(wǎng)絡(luò)的通道一樣。

語義分支網(wǎng)絡(luò)訓練時只訓練通道注意力模塊和融合模塊。

來自語義分支的響應(yīng)映射可以寫為:

h_s(z^s,X)=corr(g(\\xi ·f_s(z)),g(f_s(X)))

ξ是通道權(quán)重,g()是對特征進行融合,便于相關(guān)操作。

損失函數(shù)L(·)如下:

arg \\min_{\\theta_a}\\frac{1}{N} \\sum^N_{i=1}{(L(h_s(z_i^s,X_s,\\theta_a),Y_i))}

其中θs表示可訓練參數(shù),N是訓練樣本的數(shù)量。

3.結(jié)合

外觀網(wǎng)絡(luò)和語義網(wǎng)絡(luò)分開訓練,語義網(wǎng)絡(luò)只訓練通道注意力模塊和融合模塊。在測試時間內(nèi),最終的響應(yīng)圖計算為來自兩個分支的圖的加權(quán)平均值:

h(z^s,X)=\\lambda h_a(z,X)+(1-\\lambda)h_s(z^s,X)

其中 λ 是加權(quán)參數(shù),以平衡兩個分支的重要性。在實踐中,λ可以從驗證集估計。作者通過實驗得出 λ=0.3 最好。

4.語義分支中的Channel Attention機制

為什么要這么做:高維語義特征對目標的外觀(圖片的形變、旋轉(zhuǎn)等)變化是魯棒的,導致判別力低。為了提升語義分支的判別力,我們設(shè)計了一個Channel Attention模塊。直覺上,在跟蹤不同的物體時,不同的通道扮演著不同的角色,某些通道對于一些物體來說是極其重要的,但是對于其他物體而言則可以被忽略,甚至可能引入噪聲。如果我們能自適應(yīng)的調(diào)整通道的重要性,那么我們將獲得目標跟可靠地特征表達。為了達到這個目的,不僅目標對于我們來說是重要的,其周圍一定范圍內(nèi)的背景對于我們來說同樣重要,因此這里輸入網(wǎng)絡(luò)的模板要比外觀分支大一圈。

下面講具體怎么實現(xiàn)這個功能的。

通道注意力通過最大池化層和多層感知器(MLP)生成通道i的加權(quán)系數(shù)ξi。

上述圖中,假設(shè)是conv5層的第i個通道特征圖,維度為22×22,將該圖分割成3×3份(其中中間的那份為6×6,是準確的目標),經(jīng)過max-pooling操作后變成3×3的圖,經(jīng)過一個兩層的MLP網(wǎng)絡(luò)(Multi-Layer Perceptron多層感知機,含有9個神經(jīng)元和一個隱層,隱層采用ReLU函數(shù))后得到分數(shù),在sigmoid一下(為了讓得分系數(shù)在0~1之間)得到最終的得分系數(shù)。值得注意的是:這里的得分系數(shù)計算操作僅僅在第一幀進行計算,后續(xù)幀沿用第一幀的結(jié)果,所以其計算時間是可以忽略不計的。

實驗

數(shù)據(jù)維度:在我們的實現(xiàn)中,目標圖像塊z的尺寸為127×127×3,并且zs和X都具有255×255×3的尺寸。對于z和X,A-Net的輸出特征具有尺寸分別為6×6×256和22×22×256。來自S-Net的conv4和conv5功能具有尺寸為24×24×384和22×22×256通道的zs和X。這兩組功能的1×1 ConvNet每個輸出128個通道(最多可達256個通道) ),空間分辨率不變。響應(yīng)圖具有相同的17×17維度。

學習更多編程知識,請關(guān)注我的公眾號:

代碼的路

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    LabVIEW 不適用于實時處理( Real-Time )的應(yīng)用?

    答案:No! LabVIEW有Real-Time實時作業(yè)模塊,可以讓LabVIEW程序在RTOS上執(zhí)行。常見的作業(yè)系統(tǒng),諸如 Microsoft Windows 與 Mac OS 等,是針對一般用途
    發(fā)表于 10-21 10:53

    如何獲得NI Linux Real-Time系統(tǒng)?

    現(xiàn)在在做上下位機實時通信的課題,哪位大俠有關(guān)于real-time的資料,感激不盡,小弟郵箱944950215@qq.com
    發(fā)表于 05-08 21:34

    如何獲得NI Linux Real-Time系統(tǒng)?

    現(xiàn)在在做上下位機實時通信的課題,哪位大俠有關(guān)于real-time的資料,感激不盡,小弟郵箱944950215@qq.com
    發(fā)表于 03-25 11:19

    FPGA and Real-time技術(shù)

    中級篇 II什么是Real-time(實時) 1-4選擇合適的LabVIEW實時開収平臺 5-20FPGA深層解析 21-23FPGA技術(shù)介紹:五大優(yōu)勢 24-34基于FPGA的控制:數(shù)百萬個供您遣用的晶體管——FP
    發(fā)表于 07-01 09:04 ?20次下載

    Real-Time DSP Implementation f

    Abstract—This paper describes the real-time implementationof a simple and robust motion detection
    發(fā)表于 07-01 16:09 ?14次下載

    Improved Real-Time Quantitativ

    For faster, improved real-time quantitative PCR (qPCR) results choose Agilent●   
    發(fā)表于 08-17 11:55 ?14次下載

    BQ32002,pdf(Real-Time Clock (R

    The BQ32002 device is a compatible replacement for industry standard real-time clocks.The BQ32002
    發(fā)表于 10-28 19:54 ?23次下載

    DS1346,DS1347(compatible real-time clocks RTCs)

    The DS1346/DS1347 SPI-compatible real-time clocks (RTCs) contain a real-time clock/calendar and 31
    發(fā)表于 08-19 09:59 ?19次下載
    DS1346,DS1347(compatible <b class='flag-5'>real-time</b> clocks RTCs)

    MathWorks推出Simulink Real-Time,提供完整、集成的實時仿真和測試

    中國北京–2014年8月5日–MathWorks宣布將把Simulink Real-Time?用于Simulink?產(chǎn)品系列。
    發(fā)表于 08-07 17:08 ?5522次閱讀

    基于信息熵的級聯(lián)Siamese網(wǎng)絡(luò)目標跟蹤方法

    目標跟蹤是計算機視覺領(lǐng)域的一個重要研究方向,針對目前算法對于目標外觀變化的魯棒性較差等問題,提出了一種基于信息熵的級聯(lián) Siamese網(wǎng)絡(luò)
    發(fā)表于 05-07 14:11 ?1次下載

    SiamFC:用于目標跟蹤的全卷積孿生網(wǎng)絡(luò) fully-convolutional siamese networks for object tracking

    原文鏈接 SiamFC網(wǎng)絡(luò) 圖中z代表的是模板圖像,算法中使用的是第一幀的ground truth;x代表的是search region,代表在后面的待跟蹤幀中的候選框搜索區(qū)域;?代表的是一種特征
    的頭像 發(fā)表于 01-11 17:35 ?2106次閱讀
    SiamFC:<b class='flag-5'>用于</b><b class='flag-5'>目標</b><b class='flag-5'>跟蹤</b>的全卷積<b class='flag-5'>孿生</b><b class='flag-5'>網(wǎng)絡(luò)</b> fully-convolutional <b class='flag-5'>siamese</b> networks for <b class='flag-5'>object</b> <b class='flag-5'>tracking</b>

    SiamRPN:High Performance Visual Tracking with Siamese Region Proposal Network 孿生網(wǎng)絡(luò)

    /Li_High_Performance_Visual_CVPR_2018_paper.pdf 摘要 大多數(shù)性能優(yōu)越的視覺目標跟蹤器很難有實時速度。在這篇文章中,我們提出了孿生候選區(qū)域
    的頭像 發(fā)表于 01-11 17:41 ?1591次閱讀
    SiamRPN:High Performance Visual <b class='flag-5'>Tracking</b> with <b class='flag-5'>Siamese</b> Region Proposal <b class='flag-5'>Network</b> <b class='flag-5'>孿生</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    DW-Siam:Deeper and Wider Siamese Networks for Real-Time Visual Tracking 更寬更深的孿生網(wǎng)絡(luò)

    原文鏈接 論文地址:https://arxiv.org/pdf/1901.01660.pdf 摘要 目前在孿生網(wǎng)絡(luò)追蹤器中使用的主干網(wǎng)絡(luò)相對較淺,例AlexNet。本文研究如何利用更深和更廣的卷積
    的頭像 發(fā)表于 01-12 09:24 ?1315次閱讀
    DW-<b class='flag-5'>Siam</b>:Deeper and Wider <b class='flag-5'>Siamese</b> Networks for <b class='flag-5'>Real-Time</b> Visual <b class='flag-5'>Tracking</b> 更寬更深的<b class='flag-5'>孿生</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    新版本Real-time Edge正式發(fā)布啦!高效的工業(yè)邊緣實時應(yīng)用開發(fā),就用它!

    Real-time Edge Software是恩智浦提供的針對工業(yè)和物聯(lián)網(wǎng)領(lǐng)域的一套軟件集,面對工業(yè)和物聯(lián)網(wǎng)垂直領(lǐng)域的具體需求,提供了針對性的實時系統(tǒng)、工業(yè)實時網(wǎng)絡(luò)和豐富的工業(yè)協(xié)議支
    的頭像 發(fā)表于 08-18 08:05 ?2148次閱讀
    新版本<b class='flag-5'>Real-time</b> Edge正式發(fā)布啦!高效的工業(yè)邊緣<b class='flag-5'>實時</b>應(yīng)用開發(fā),就用它!

    恩智浦Real-time Edge v2.7正式發(fā)布!

    Real-time Edge軟件是恩智浦提供的針對工業(yè)和物聯(lián)網(wǎng)應(yīng)用的一套軟件集,面對工業(yè)和物聯(lián)網(wǎng)垂直領(lǐng)域的具體需求,提供了針對性的實時系統(tǒng), 工業(yè)實時網(wǎng)絡(luò)和豐富的工業(yè)協(xié)議支持。
    的頭像 發(fā)表于 01-26 09:19 ?1308次閱讀
    恩智浦<b class='flag-5'>Real-time</b> Edge v2.7正式發(fā)布!