chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自主駕駛中對抗式機(jī)器學(xué)習(xí)對完全視覺感知管道的攻擊

上海控安 ? 來源:上海控安 ? 作者:上??匕?/span> ? 2021-02-01 11:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對抗機(jī)器學(xué)習(xí)的最新研究開始關(guān)注自主駕駛中的視覺感知,并研究了目標(biāo)檢測模型的對抗示例。然而在視覺感知管道中,在被稱為多目標(biāo)跟蹤的過程中,檢測到的目標(biāo)必須被跟蹤,以建立周圍障礙物的移動(dòng)軌跡。由于多目標(biāo)跟蹤被設(shè)計(jì)為對目標(biāo)檢測中的錯(cuò)誤具有魯棒性,它對現(xiàn)有的盲目針對目標(biāo)檢測的攻擊技術(shù)提出了挑戰(zhàn):我們發(fā)現(xiàn)攻擊方需要超過98%的成功率來實(shí)際影響跟蹤結(jié)果,這是任何現(xiàn)有的攻擊技術(shù)都無法達(dá)到的。本文首次研究了自主駕駛中對抗式機(jī)器學(xué)習(xí)對完全視覺感知管道的攻擊,并發(fā)現(xiàn)了一種新的攻擊技術(shù)——軌跡劫持,該技術(shù)可以有效地使用目標(biāo)檢測的對抗示例欺騙多目標(biāo)跟蹤。使用我們的技術(shù),僅在一個(gè)幀上成功的對抗示例就可以將現(xiàn)有物體移入或移出自駕車輛的行駛區(qū)域,從而造成潛在的安全危險(xiǎn)。我們使用Berkeley Deep Drive數(shù)據(jù)集進(jìn)行評(píng)估,發(fā)現(xiàn)平均而言,當(dāng)3幀受到攻擊時(shí),我們的攻擊可以有接近100%的成功率,而盲目針對目標(biāo)檢測的攻擊只有25%的成功率。

01

背景

自從Eykholt等人發(fā)現(xiàn)第一個(gè)針對交通標(biāo)志圖像分類的對抗示例以來,對抗式機(jī)器學(xué)習(xí)中的若干研究工作開始關(guān)注自動(dòng)駕駛中的視覺感知,并研究物體檢測模型上的對抗示例。例如,Eykholt等人和鐘等人針對YOLO物體探測器研究了停車標(biāo)志或前車背面的貼紙形式的對抗示例, 并進(jìn)行室內(nèi)實(shí)驗(yàn),以證明攻擊在現(xiàn)實(shí)世界中的可行性。在這些工作的基礎(chǔ)上,最近趙等人利用圖像變換技術(shù)來提高戶外環(huán)境中這種對抗式貼紙攻擊的魯棒性,并且能夠在真實(shí)道路上以30 km/h的恒定速度行駛的汽車上實(shí)現(xiàn)72%的攻擊成功率。雖然之前研究的結(jié)果令人擔(dān)憂,但在自動(dòng)駕駛或一般的機(jī)器人系統(tǒng)中,目標(biāo)檢測實(shí)際上只是視覺感知管道的前半部分——在后半部分,在一個(gè)稱為多目標(biāo)跟蹤的過程中,必須跟蹤檢測到的目標(biāo),以建立周圍障礙物的移動(dòng)軌跡。這對于隨后的駕駛決策過程是必需的,該過程需要構(gòu)建的軌跡來預(yù)測這些障礙物的未來移動(dòng)軌跡,然后相應(yīng)地規(guī)劃駕駛路徑以避免與它們碰撞。為了確保目標(biāo)檢測中的高跟蹤精度和對錯(cuò)誤的魯棒性,在多目標(biāo)跟蹤中,只有在多個(gè)幀中具有足夠一致性和穩(wěn)定性的檢測結(jié)果可以包括在跟蹤結(jié)果中,并且實(shí)際上影響駕駛決策。因此,自動(dòng)駕駛視覺感知中的多目標(biāo)跟蹤對現(xiàn)有的盲目針對目標(biāo)檢測的攻擊技術(shù)提出了新的挑戰(zhàn)。例如,正如我們稍后在第3節(jié)中的分析所示,對目標(biāo)檢測的攻擊需要連續(xù)成功至少60幀才能欺騙典型的多目標(biāo)跟蹤過程,這需要至少98%的攻擊成功率。據(jù)我們所知,沒有現(xiàn)有的針對目標(biāo)檢測的攻擊能夠達(dá)到如此高的成功率。在本文中,我們首次研究了自動(dòng)駕駛中考慮完全視覺感知管道的對抗性機(jī)器學(xué)習(xí)攻擊,即目標(biāo)檢測和目標(biāo)跟蹤,并發(fā)現(xiàn)了一種新的攻擊技術(shù),稱為跟蹤器劫持,它可以用在目標(biāo)檢測上的對抗示例有效地欺騙多目標(biāo)跟蹤過程。我們的關(guān)鍵見解是,雖然很難直接為假對象創(chuàng)建軌跡或刪除現(xiàn)有對象的軌跡,但我們可以仔細(xì)設(shè)計(jì)對抗示例來攻擊多目標(biāo)跟蹤中的跟蹤誤差減少過程,以使現(xiàn)有對象的跟蹤結(jié)果偏離攻擊者希望的移動(dòng)方向。這種過程旨在提高跟蹤結(jié)果的魯棒性和準(zhǔn)確性,但諷刺的是,我們發(fā)現(xiàn)攻擊者可以利用它來大大改變跟蹤結(jié)果。利用這種攻擊技術(shù),少至一幀的對抗示例足以將現(xiàn)有物體移入或移出自主車輛的行駛區(qū)域,從而導(dǎo)致潛在的安全危險(xiǎn)。我們從Berkeley Deep Drive數(shù)據(jù)集隨機(jī)抽樣的100個(gè)視頻片段中選擇20個(gè)進(jìn)行評(píng)估。在推薦的多目標(biāo)檢測配置和正常測量噪聲水平下,我們發(fā)現(xiàn)我們的攻擊可以在少至一幀和平均2到3個(gè)連續(xù)幀的對抗示例中成功。我們重復(fù)并比較了之前盲目針對目標(biāo)檢測的攻擊,發(fā)現(xiàn)當(dāng)攻擊連續(xù)3幀時(shí),我們的攻擊成功率接近100%,而盲目針對對象檢測攻擊的成功率只有25%。

o4YBAGASFbmAKs6tAABlExttAtM489.jpg

圖表 1自動(dòng)駕駛中的完整視覺感知管道,即目標(biāo)檢測和多目標(biāo)跟蹤

本文貢獻(xiàn)

考慮到自動(dòng)駕駛中完整的視覺感知管道,即目標(biāo)檢測和運(yùn)動(dòng)檢測,我們首次研究了對抗性機(jī)器學(xué)習(xí)攻擊。我們發(fā)現(xiàn),在不考慮多目標(biāo)跟蹤的情況下,盲目針對目標(biāo)檢測的攻擊至少需要98%的成功率才能真正影響自動(dòng)駕駛中的完整視覺感知管道,這是任何現(xiàn)有攻擊技術(shù)都無法達(dá)到的?!の覀儼l(fā)現(xiàn)了一種新的攻擊技術(shù)——軌跡劫持,它可以有效地利用物體檢測中的對抗示例來欺騙移動(dòng)終端。這種技術(shù)利用了多目標(biāo)跟蹤中的跟蹤誤差減少過程,并且可以使僅在一幀內(nèi)成功的對抗示例將現(xiàn)有物體移入或移出自主車輛的行駛距離,從而導(dǎo)致潛在的安全危險(xiǎn)?!な褂肂erkeley Deep Drive數(shù)據(jù)集進(jìn)行的攻擊評(píng)估表明,我們的攻擊可以在少至一幀、平均只有2到3個(gè)連續(xù)幀的情況下獲得成功,當(dāng)3個(gè)連續(xù)幀受到攻擊時(shí),我們的攻擊成功率接近100%,而盲目針對目標(biāo)檢測的攻擊成功率僅為25%。

多目標(biāo)跟蹤

多目標(biāo)跟蹤的目的是識(shí)別視頻幀序列中的物體及其運(yùn)動(dòng)軌跡。隨著物體檢測的進(jìn)步,通過檢測進(jìn)行跟蹤已經(jīng)成為多目標(biāo)跟蹤的范例,其中檢測步驟識(shí)別圖像中的物體,跟蹤步驟將物體鏈接到軌跡(即軌跡)。如圖1所示,在時(shí)間t檢測到的每個(gè)物體將與動(dòng)態(tài)模型(例如,位置、速度)相關(guān)聯(lián),動(dòng)態(tài)模型表示物體的過去軌跡(track| t1)。,每一條軌跡都用卡爾曼濾波器來維護(hù)狀態(tài)模型,其以預(yù)測-更新循環(huán)運(yùn)行:預(yù)測步驟根據(jù)運(yùn)動(dòng)模型估計(jì)當(dāng)前對象狀態(tài),更新步驟采用檢測結(jié)果detc|t 作為測量值來更新其狀態(tài)估計(jì)結(jié)果track|t。檢測到的物體與現(xiàn)有跟蹤器之間的關(guān)聯(lián)被公式化為二分匹配問題, 基于軌跡和被檢測對象之間的成對相似性損失,最常用的相似性度量是基于空間的損失,它測量邊界框或bbox之間的重疊量。為了減少這種關(guān)聯(lián)中的誤差,在卡爾曼濾波預(yù)測中需要精確的速度估計(jì)。由于攝像機(jī)幀的離散性,卡爾曼濾波器使用速度模型來估計(jì)下一幀中被跟蹤對象的位置,以補(bǔ)償幀間對象的運(yùn)動(dòng)。然而,如后面第3節(jié)中所述,這種錯(cuò)誤減少過程意外地使得進(jìn)行跟蹤者劫持成為可能。多目標(biāo)跟蹤通過兩個(gè)閾值管理軌跡的創(chuàng)建和刪除。具體來說,只有當(dāng)對象被持續(xù)檢測到一定數(shù)量的幀時(shí),才會(huì)創(chuàng)建一個(gè)新的軌跡,該閾值將被稱為命中數(shù),或用H指代,這有助于過濾掉物體檢測器偶爾產(chǎn)生的誤報(bào)。另一方面,如果在R幀的持續(xù)時(shí)間(或者稱為保留時(shí)間)內(nèi)沒有對象與軌跡相關(guān)聯(lián),軌跡將被刪除。它可以防止軌跡由于物體檢測器罕見的假陰性而被意外刪除。R和H的配置通常既取決于檢測模型的精度,也取決于幀速率(fps)。先前的研究提出了R = 2幀/秒和H = 0.2幀/秒的配置,對于普通的30幀/秒視覺感知系統(tǒng)給出了R = 60幀和H = 6幀。第3節(jié)的評(píng)估將表明,一個(gè)盲目地以目標(biāo)檢測為目標(biāo)的攻擊需要不斷地欺騙至少60幀(R)來擦除一個(gè)對象,而我們提出的軌跡劫持攻擊可以通過少到一幀,平均只有2~3幀的攻擊,來偽造持續(xù)R幀的對象,或在跟蹤結(jié)果中抹除H幀的目標(biāo)對象。

02

軌道劫持攻擊

多目標(biāo)跟蹤可以選擇包括一個(gè)或多個(gè)相似性度量來匹配跨幀的對象。常見的度量包括邊界框重疊、對象外觀、視覺表示和其他統(tǒng)計(jì)度量。作為多目標(biāo)跟蹤對抗威脅的首次研究,我們選擇了基于并集的交集(IoU)的匈牙利匹配作為我們的目標(biāo)算法,因?yàn)樗亲顝V泛采用和標(biāo)準(zhǔn)化的相似性度量,不僅是最近的研究,兩個(gè)真實(shí)世界的自動(dòng)駕駛系統(tǒng),百度阿波羅和Autoware也采用了這一度量 ,這確保了我們工作的代表性和實(shí)際意義。

pIYBAGASFbmAO5TBAACJsmZWVT4940.jpg

圖表 2描述軌跡劫持攻擊流程(a),以及兩種不同的攻擊場景:對象移入(b)和移出(c),其中軌跡劫持可能導(dǎo)致嚴(yán)重的安全后果,包括急停和追尾。

圖2a展示了本文發(fā)現(xiàn)的軌跡劫持攻擊,其中用于對象檢測的對抗示例(例如,前車上的對抗補(bǔ)丁)可以欺騙檢測結(jié)果,只用一幀就極大地偏離多目標(biāo)跟蹤中目標(biāo)對象(例如,前車)的軌跡。如圖所示,目標(biāo)汽車最初在t0時(shí)被跟蹤到以預(yù)測的速度向左。攻擊開始于時(shí)間t1,在汽車后部貼上對抗的補(bǔ)丁。該補(bǔ)丁是精心生成的,以兩個(gè)對立的目標(biāo)欺騙目標(biāo)檢測器:(1)從檢測結(jié)果中刪除目標(biāo)對象的邊界框;(2)制作一個(gè)類似形狀的邊界框,但稍微向攻擊者指定的方向移動(dòng)。所構(gòu)造的邊界框(t1處檢測結(jié)果中的紅色邊界框)將與跟蹤結(jié)果中的目標(biāo)對象的原始軌跡相關(guān)聯(lián),我們稱之為軌跡劫持,并且因此將向軌跡給出朝向攻擊者期望的方向的假速度。圖2a中所示的軌跡劫持僅持續(xù)一幀,但其對抗效果可能持續(xù)數(shù)十幀,這取決于MOT參數(shù)R和H(在第2節(jié)中介紹)。例如,在攻擊后的時(shí)間t2,所有的檢測邊界框都恢復(fù)正常,但是,兩個(gè)不利影響持續(xù)存在: (1)目標(biāo)對象雖然在檢測結(jié)果中被恢復(fù),但是將不會(huì)被跟蹤,直到達(dá)到命中計(jì)數(shù)(H),并且在此之前,該對象在跟蹤結(jié)果中仍然丟失;(2)受攻擊者誘導(dǎo)速度劫持的軌跡將不會(huì)被刪除,直到一個(gè)保留時(shí)間(R)過去。然而,值得注意的是,我們的攻擊在實(shí)踐中并不總是成功的,因?yàn)槿绻壽E在短時(shí)間的攻擊期間沒有偏離對象的真實(shí)位置足夠遠(yuǎn),恢復(fù)的對象可能仍然與其原始軌跡相關(guān)聯(lián)。我們的實(shí)驗(yàn)結(jié)果表明,當(dāng)使用對抗示例成功攻擊3個(gè)連續(xù)幀時(shí),我們的攻擊通常達(dá)到接近100%的成功率。這種持續(xù)的不良效應(yīng)可能會(huì)在自動(dòng)駕駛場景中造成嚴(yán)重的安全后果。我們強(qiáng)調(diào)兩種可能導(dǎo)致緊急停車甚至追尾事故的攻擊場景:

攻擊場景1: 目標(biāo)物體移入

如圖2b所示,可以在路邊物體(例如停放的車輛)上放置對抗貼片,以欺騙經(jīng)過的自駕車輛的視覺感知。在檢測結(jié)果中,生成對抗補(bǔ)丁以導(dǎo)致目標(biāo)邊緣框向道路中心平移,并且被劫持的軌跡將在受害車輛的感知中表現(xiàn)為在前方加塞的移動(dòng)車輛。如果按照朱等人的建議將R配置為2 fps,該跟蹤器將持續(xù)2秒鐘,并且這種情況下的軌跡劫持可能導(dǎo)致緊急停止和潛在的追尾碰撞。

攻擊場景2:目標(biāo)物體移出

同樣,軌跡劫持攻擊也可以使受害自駕車輛前方的物體偏離道路,導(dǎo)致撞車,如圖2c所示。如果H使用0.2 fps的推薦配置,則應(yīng)用于前車后部的對抗貼片可能會(huì)欺騙后面的自動(dòng)車輛的多目標(biāo)跟蹤器相信物體正在偏離其路線,并且前車將在200ms的持續(xù)時(shí)間內(nèi)從跟蹤結(jié)果中消失,這可能會(huì)導(dǎo)致受害者的自動(dòng)駕駛汽車撞上前車。

o4YBAGASFbmAGxPiAAC7Z-ZMgIE052.jpg

我們的攻擊目標(biāo)是一階卡爾曼濾波器,它預(yù)測一個(gè)狀態(tài)向量,包含檢測到的對象與時(shí)間相關(guān)的位置和速度。對于數(shù)據(jù)關(guān)聯(lián),我們采用最廣泛使用的并集的交集(IoU)作為相似性度量,通過匈牙利匹配算法計(jì)算邊緣框之間的IoU,以解決將連續(xù)幀中檢測到的邊緣框與現(xiàn)有軌跡關(guān)聯(lián)的二分匹配問題。多目標(biāo)跟蹤中的這種算法組合在以前的研究和現(xiàn)實(shí)世界中是最常見的?,F(xiàn)在描述我們的方法,即生成一個(gè)敵對補(bǔ)丁,操縱檢測結(jié)果劫持軌跡。詳見Alg.1,給定一個(gè)目標(biāo)視頻圖像序列,攻擊迭代地找到成功劫持所需的最少干擾幀,并為這些幀生成對抗補(bǔ)丁。在每次攻擊迭代中,對原始視頻剪輯中的一個(gè)圖像幀進(jìn)行處理,給定目標(biāo)對象的索引K,該算法通過求解等式1找到放置對抗邊緣框的最佳位置pos,以劫持目標(biāo)對象的軌跡。然后,攻擊使用對抗補(bǔ)丁構(gòu)建針對目標(biāo)檢測模型的對抗幀,使用等式2作為損失函數(shù),擦除目標(biāo)對象的原始邊緣框,并在給定位置構(gòu)建對抗邊緣框。軌跡隨后被偏離其原始方向的對抗幀更新,如果下一幀中的目標(biāo)對象沒有通過多目標(biāo)跟蹤算法與其原始跟蹤器相關(guān)聯(lián),則攻擊成功;否則,對下一幀重復(fù)該過程。我們下面討論這個(gè)算法中的兩個(gè)關(guān)鍵步驟。

pIYBAGASFbqAVLJjAAB_DA8OInY135.jpg

圖表 3現(xiàn)有的目標(biāo)檢測攻擊和我們的軌跡劫持攻擊的比較。簡單擦除bbox的攻擊對跟蹤輸出沒有影響(b),而利用精心選擇的位置偽造bbox的軌跡劫持攻擊成功地將軌跡重定向到攻擊者指定的方向(c)。

尋找對抗包圍盒的最佳位置

為了偏離目標(biāo)對象K的跟蹤器,除了移除其原始邊界框detc|t[K] 之外,攻擊還需要制造一個(gè)向指定方向移動(dòng)δ的對抗框。這就變成了優(yōu)化問題(Eq.1),即找到使檢測框和現(xiàn)有跟蹤器之間的匈牙利匹配(M())的損失最大化的平移向量δ,使得邊界框仍然與其原始跟蹤器相關(guān)聯(lián)(M ≤ λ),但是偏移足夠大,以給軌跡提供對抗速度。請注意,我們還將移動(dòng)的邊界框限制為與補(bǔ)丁重疊,以方便對抗示例的生成,因?yàn)閿硨_動(dòng)通常更容易影響其附近的預(yù)測結(jié)果,尤其是在物理環(huán)境中。

o4YBAGASFbqAY4PPAAAaMyOL3Qo998.jpg

生成對抗目標(biāo)檢測的補(bǔ)丁

類似于現(xiàn)有的針對目標(biāo)檢測模型的對抗性攻擊,我們還將對抗性補(bǔ)丁生成公式化為等式2中所示的優(yōu)化問題。現(xiàn)有的不考慮多目標(biāo)跟蹤的攻擊直接將目標(biāo)類(如停止標(biāo)志) 的概率降到最低從而在檢測結(jié)果中抹去對象。然而,如圖3b所示,這種對抗示例在欺騙多目標(biāo)跟蹤方面非常無效,因?yàn)榧词乖跈z測邊界框被擦除之后,跟蹤器仍將跟蹤R幀。相反,我們的跟蹤器劫持攻擊的損失函數(shù)包含兩個(gè)優(yōu)化目標(biāo):(1)最小化目標(biāo)類概率以擦除目標(biāo)對象的邊緣框;(2)在攻擊者想要的位置以特定的形狀偽造對抗邊緣框以劫持軌跡。

pIYBAGASFbuAXouKAAA2LaSHwTg786.jpg

03

攻擊評(píng)估

評(píng)估指標(biāo)

我們將成功的攻擊定義為當(dāng)攻擊停止時(shí),檢測到的目標(biāo)對象的邊界框不再與任何現(xiàn)有的跟蹤器相關(guān)聯(lián)。我們使用物體檢測的對抗示例成功所需的最小幀數(shù)來衡量我們的軌跡劫持攻擊的有效性。攻擊效果高度依賴于原軌跡的方向向量與敵手目標(biāo)的差異。例如,如果選擇對抗方向與其原始方向相反,攻擊者可以在只有一幀的情況下對跟蹤器進(jìn)行大的移動(dòng),而如果敵手方向恰好與目標(biāo)的原始方向相同,則很難使跟蹤器偏離其已建立的軌跡。為了控制變量,我們在前面定義的兩種攻擊場景中測量攻擊所需的幀數(shù):即目標(biāo)對象移入和移出。具體來說,在所有的移入場景中,我們選擇沿著道路停放的車輛作為目標(biāo),攻擊目標(biāo)是將軌跡移動(dòng)到中心,而在所有的移出場景中,我們選擇向前移動(dòng)的車輛,攻擊目標(biāo)是將目標(biāo)軌跡移離道路。

數(shù)據(jù)集

我們從Berkeley Deep Drive數(shù)據(jù)集中隨機(jī)采樣了100個(gè)視頻片段,然后手動(dòng)選擇10個(gè)適合對象移入場景,另外10個(gè)適合對象移出場景。對于每個(gè)片段,我們手動(dòng)標(biāo)記一個(gè)目標(biāo)車輛,并將補(bǔ)丁區(qū)域標(biāo)注為其后面的一個(gè)小區(qū)域,如圖3c所示。所有視頻每秒30幀。

實(shí)施細(xì)節(jié)

我們使用Python實(shí)現(xiàn)了我們的目標(biāo)視覺感知管道,使用YOLOv3作為目標(biāo)檢測模型,因?yàn)樗趯?shí)時(shí)系統(tǒng)中非常受歡迎。對于多目標(biāo)跟蹤實(shí)現(xiàn),我們在sklearn包中使用了稱為線性賦值的匈牙利匹配實(shí)現(xiàn)來進(jìn)行數(shù)據(jù)關(guān)聯(lián),并在OpenCV中使用的基礎(chǔ)上提供了卡爾曼濾波器的參考實(shí)現(xiàn)。攻擊的有效性取決于卡爾曼濾波器的配置參數(shù),稱為測量噪聲協(xié)方差(cov)。cov是對系統(tǒng)中有多少噪聲的估計(jì),當(dāng)更新軌跡時(shí),較低的cov值將使卡爾曼濾波器對在時(shí)間t的檢測結(jié)果更有信心,而較高的cov值將使卡爾曼濾波器在時(shí)間t 更信任它先前在時(shí)間t- 1的預(yù)測。這種測量噪聲協(xié)方差通常基于實(shí)際中檢測模型的性能來調(diào)整。如圖4a所示,我們在從非常小(103)到非常大(10)的不同cov配置下評(píng)估我們的方法,而在實(shí)踐中cov通常設(shè)置在0.01和10之間。

圖表 4 在正常的測量噪聲協(xié)方差范圍(a)中,盡管有(R,H)設(shè)置,我們的軌跡劫持攻擊僅需要對抗示例平均只欺騙2~3個(gè)連續(xù)的幀來成功地帶偏目標(biāo)軌跡。我們還比較了在不同的攻擊者能力下,軌跡劫持的成功率與以前對目標(biāo)檢測器的敵對攻擊的成功率,即對抗示例可以可靠地欺騙目標(biāo)檢測器所需的連續(xù)幀的數(shù)量(b)

評(píng)估結(jié)果

圖4a表明了在20個(gè)視頻剪輯上成功的軌道劫持,物體檢測上的對抗示例需要欺騙的平均幀數(shù)。雖然在fps為30時(shí)推薦R = 60、H = 6的配置,我們?nèi)匀粶y試不同的保留時(shí)間(R)和命中數(shù)(H)組合,這是因?yàn)楝F(xiàn)實(shí)部署通常比較保守,使用較小的R和H。結(jié)果表明,盡管有(R,H)配置,軌跡劫持攻擊僅需要平均在2到3個(gè)連續(xù)幀中成功的目標(biāo)檢測對抗示例就能成功。我們還發(fā)現(xiàn),即使只有一幀成功的對抗示例,當(dāng)cov分別為0.1和0.01時(shí),我們的攻擊仍有50%和30%的成功率。有趣的是,我們發(fā)現(xiàn)對象移入通常比對象移出需要更少的幀。原因是,在駛?cè)雸鼍爸型7诺能囕v(圖2b)相對于自主車輛自然具有駛離速度。因此,與移出攻擊相比,移入攻擊觸發(fā)了攻擊者期望的速度和原始速度之間的較大差異。這使得原始對象一旦恢復(fù),就更難正確關(guān)聯(lián),使得劫持更容易。圖4b顯示了我們的攻擊和以前盲目針對目標(biāo)檢測的攻擊(稱為檢測攻擊)的成功率。我們復(fù)制了鐘等人最近針對目標(biāo)檢測的對抗性補(bǔ)丁攻擊,該攻擊針對自動(dòng)駕駛環(huán)境,并通過真實(shí)世界的汽車測試顯示了其有效性。在這種攻擊中,目標(biāo)是從每一幀的檢測結(jié)果中擦除目標(biāo)類。在兩種(R,H)設(shè)置下進(jìn)行評(píng)估,我們發(fā)現(xiàn)我們的軌跡劫持攻擊即使只攻擊3幀也能達(dá)到優(yōu)越的攻擊成功率(100%),而檢測攻擊需要可靠地欺騙至少R個(gè)連續(xù)幀。當(dāng)按照30 fps的幀率將R設(shè)置為60時(shí),檢測攻擊需要在受害自駕車行駛的同時(shí)對抗性補(bǔ)丁能夠持續(xù)成功至少60幀。這意味著超過98.3% (59/60)的對抗示例成功率,這在以前的研究中從未達(dá)到。請注意,檢測攻擊在R之前仍然可以有高達(dá)約25%的成功率。這是因?yàn)闄z測攻擊導(dǎo)致對象在某些幀中消失,并且當(dāng)車輛航向在此消失期間發(fā)生變化時(shí),仍然有可能導(dǎo)致原始對象在恢復(fù)時(shí)與原始軌跡中的軌跡預(yù)測不匹配。然而,由于我們的攻擊是為了故意誤導(dǎo)多目標(biāo)跟蹤中的軌跡預(yù)測,我們的成功率要高得多(3-4倍),并且可以在少至3幀的攻擊下達(dá)到100%。

04

討論與總結(jié)

對該領(lǐng)域未來研究的啟示

如今,針對自動(dòng)駕駛中視覺感知的對抗性機(jī)器學(xué)習(xí)研究,無論是攻擊還是防御,都使用目標(biāo)檢測的準(zhǔn)確性作為事實(shí)上的評(píng)估指標(biāo)。然而,正如在我們的工作中具體顯示的,在不考慮多目標(biāo)跟蹤的情況下,對檢測結(jié)果的成功攻擊并不意味著對多目標(biāo)跟蹤結(jié)果的同等或接近成功的攻擊,多目標(biāo)跟蹤結(jié)果是真實(shí)世界自動(dòng)駕駛中視覺感知任務(wù)的最終輸出。因此,我們認(rèn)為這一領(lǐng)域的未來研究應(yīng)考慮:(1)使用多目標(biāo)跟蹤準(zhǔn)確度作為評(píng)估指標(biāo);(2)不僅僅關(guān)注目標(biāo)檢測,還應(yīng)研究多目標(biāo)跟蹤特有的弱點(diǎn)或多目標(biāo)跟蹤與目標(biāo)檢測之間的相互作用,這是一個(gè)目前尚未充分探索的研究領(lǐng)域。這篇論文標(biāo)志著第一次朝兩個(gè)方向努力的研究。

實(shí)用性提升

我們的評(píng)估目前都是用捕獲的視頻幀進(jìn)行數(shù)字處理的,而我們的方法在應(yīng)用于生成物理補(bǔ)丁時(shí)應(yīng)該仍然有效。例如,我們提出的對抗補(bǔ)丁生成方法可以自然地與以前工作提出的不同技術(shù)相結(jié)合,以增強(qiáng)物理世界中的可靠性。

通用性提高

雖然在這項(xiàng)工作中,我們側(cè)重于使用基于IoU的數(shù)據(jù)關(guān)聯(lián)的多目標(biāo)跟蹤算法,但我們尋找位置來放置對抗邊界框的方法通常適用于其他關(guān)聯(lián)機(jī)制(例如,基于外觀的匹配)。我們針對YOLOv3的對抗示例生成算法也應(yīng)該適用于其他具有適度適應(yīng)性的目標(biāo)檢測模型。我們計(jì)劃提供更多真實(shí)世界端到端視覺感知管道的參考實(shí)現(xiàn),為未來自動(dòng)駕駛場景中的對抗學(xué)習(xí)研究鋪平道路。

fqj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 跟蹤器
    +關(guān)注

    關(guān)注

    0

    文章

    133

    瀏覽量

    20836
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    792

    文章

    14801

    瀏覽量

    178347
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    視覺自動(dòng)駕駛的優(yōu)勢和劣勢有哪些?

    [首發(fā)于智駕最前沿微信公眾號(hào)]最近有很多小伙伴在后臺(tái)詢問純視覺自動(dòng)駕駛的優(yōu)劣,純視覺自動(dòng)駕駛以其低成本、高冗余的技術(shù)路徑,正成為自動(dòng)駕駛現(xiàn)階
    的頭像 發(fā)表于 01-18 09:50 ?1838次閱讀
    純<b class='flag-5'>視覺</b>自動(dòng)<b class='flag-5'>駕駛</b>的優(yōu)勢和劣勢有哪些?

    多模態(tài)感知大模型驅(qū)動(dòng)的密閉空間自主勘探系統(tǒng)的應(yīng)用與未來發(fā)展

    ? ? 多模態(tài)感知大模型驅(qū)動(dòng)的密閉空間自主勘探系統(tǒng) ? ?北京華盛恒輝多模態(tài)感知大模型驅(qū)動(dòng)的密閉空間自主勘探系統(tǒng),是融合多模態(tài)大模型與自主機(jī)器
    的頭像 發(fā)表于 12-29 11:27 ?183次閱讀

    如何在NVIDIA Jetson Thor上提升機(jī)器感知效率

    構(gòu)建自主機(jī)器人需要具備可靠且低延遲的視覺感知能力,以實(shí)現(xiàn)在動(dòng)態(tài)環(huán)境的深度估計(jì)、障礙物識(shí)別、定位與導(dǎo)航。這些功能對計(jì)算性能有較高要求。NVIDIA Jetson 平臺(tái)雖為深度
    的頭像 發(fā)表于 12-24 10:14 ?3756次閱讀
    如何在NVIDIA Jetson Thor上提升<b class='flag-5'>機(jī)器</b>人<b class='flag-5'>感知</b>效率

    沒有地圖,純視覺自動(dòng)駕駛就只能摸瞎嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]最近在一篇討論高精度地圖的文章,有位小伙伴提到一個(gè)非常有趣的觀點(diǎn)“如果人在陌生的目的地,只依托純視覺(眼睛)去辨別道路,若沒有導(dǎo)航,就只能摸瞎”。對于純視覺自動(dòng)
    的頭像 發(fā)表于 11-27 17:22 ?1359次閱讀
    沒有地圖,純<b class='flag-5'>視覺</b>自動(dòng)<b class='flag-5'>駕駛</b>就只能摸瞎嗎?

    機(jī)器視覺系統(tǒng)工業(yè)相機(jī)的常用術(shù)語解讀

    1、機(jī)器視覺系統(tǒng)機(jī)器視覺系統(tǒng)machinevisionsystem是通過對聲波、電磁輻射等時(shí)空模式進(jìn)行探測及感知,對所獲取的圖像進(jìn)行自動(dòng)處理
    的頭像 發(fā)表于 10-31 17:34 ?1149次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>系統(tǒng)<b class='flag-5'>中</b>工業(yè)相機(jī)的常用術(shù)語解讀

    RK3576機(jī)器人核心:三屏異顯+八路攝像頭,重塑機(jī)器人交互與感知

    ?!?利用開發(fā)板上的MIPI CSI1和CSI2接口,完整接入8路攝像頭,實(shí)現(xiàn)了所有通道的視頻預(yù)覽與采集,為機(jī)器人構(gòu)建了全方位的視覺感知系統(tǒng)。卓越性能表現(xiàn):· CPU占用率:34%· DDR占用率:50
    發(fā)表于 10-29 16:41

    機(jī)器視覺檢測PIN針

    : 結(jié)合形態(tài)學(xué)處理、特征提?。ㄈ玳L寬比、面積)及深度學(xué)習(xí)(針對復(fù)雜缺陷),自動(dòng)檢出彎曲、斷裂、變形、污染等。輸出與控制:實(shí)時(shí)顯示檢測結(jié)果(OK/NG)及具體參數(shù)數(shù)值。生成檢測報(bào)告,支持?jǐn)?shù)據(jù)追溯。NG品自動(dòng)剔除信號(hào)輸出,無縫對接產(chǎn)線。了解更多機(jī)器
    發(fā)表于 09-26 15:09

    自動(dòng)駕駛感知、決策、控制都起到什么作用?

    將軌跡精確執(zhí)行到車輛上,同時(shí)應(yīng)對執(zhí)行器非線性與延遲。每一層既有經(jīng)典算法的成熟路徑,也在迅速被學(xué)習(xí)型方法推動(dòng)邊界,但是想要讓自動(dòng)駕駛落地最重要的始終是魯棒性、可驗(yàn)證性與安全性。理解三層的分工并把接口上的不確定性顯處理好,是把研究
    的頭像 發(fā)表于 08-31 15:40 ?1665次閱讀
    自動(dòng)<b class='flag-5'>駕駛</b><b class='flag-5'>中</b><b class='flag-5'>感知</b>、決策、控制都起到什么作用?

    機(jī)器人競技幕后:磁傳感器芯片激活 “精準(zhǔn)感知力”

    2025 世界人形機(jī)器人運(yùn)動(dòng)會(huì)于 8 月 17 日圓滿收官,賽場上機(jī)器人在跑步、跳躍、抓取等項(xiàng)目中的精彩表現(xiàn),背后是運(yùn)動(dòng)控制、環(huán)境感知等技術(shù)的迭代升級(jí)。而在這些技術(shù),磁傳感器芯片憑借
    發(fā)表于 08-26 10:02

    如何確保自動(dòng)駕駛汽車感知的準(zhǔn)確性?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛汽車想要自動(dòng)駕駛,首先要做的就是能對周邊環(huán)境實(shí)現(xiàn)精準(zhǔn)感知,也就是能“看”清道路,那自動(dòng)駕駛汽車如何在復(fù)雜、快速變化的道路環(huán)境
    的頭像 發(fā)表于 08-23 15:06 ?1573次閱讀
    如何確保自動(dòng)<b class='flag-5'>駕駛</b>汽車<b class='flag-5'>感知</b>的準(zhǔn)確性?

    SONY FCB-CR8530,如何重塑自動(dòng)駕駛視覺感知格局?

    在自動(dòng)駕駛技術(shù)快速發(fā)展的當(dāng)下,車輛對周圍環(huán)境的精準(zhǔn)感知是確保安全與高效運(yùn)行的關(guān)鍵。凱茉銳電子SONY FCB-CR8530攝像機(jī)憑借其卓越性能,正逐漸成為自動(dòng)駕駛領(lǐng)域視覺
    的頭像 發(fā)表于 06-25 17:54 ?577次閱讀

    明晚開播 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第7期「面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)」明晚8點(diǎn)精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目面向高泛化能力的視覺
    的頭像 發(fā)表于 06-24 08:01 ?945次閱讀
    明晚開播 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的<b class='flag-5'>視覺</b><b class='flag-5'>感知</b>系統(tǒng)空間建模與微調(diào)<b class='flag-5'>學(xué)習(xí)</b>

    自動(dòng)駕駛視覺替代不了激光雷達(dá)?

    [首發(fā)于智駕最前沿微信公眾號(hào)]隨著自動(dòng)駕駛技術(shù)的不斷發(fā)展,純視覺和激光雷達(dá)(LiDAR)兩種主流環(huán)境感知成為了大家的熱議話題?;跀z像頭的“純視覺”方案在成本、分辨率和語義理解方面取得
    的頭像 發(fā)表于 06-11 09:06 ?787次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    建模與微調(diào)學(xué)習(xí)報(bào)告簡介構(gòu)建高效、物理一致且具備良好泛化能力的視覺感知系統(tǒng),是視覺智能、邊緣計(jì)算與具身機(jī)器人中的關(guān)鍵挑戰(zhàn)。為提升系統(tǒng)的泛化與適
    的頭像 發(fā)表于 05-29 10:04 ?539次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的<b class='flag-5'>視覺</b><b class='flag-5'>感知</b>系統(tǒng)空間建模與微調(diào)<b class='flag-5'>學(xué)習(xí)</b>

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    閱讀心得體會(huì):ROS2機(jī)器視覺與地圖構(gòu)建技術(shù) 通過對本書第7章(ROS2視覺應(yīng)用)和第8章(ROS2地圖構(gòu)建)的學(xué)習(xí),我對機(jī)器
    發(fā)表于 05-03 19:41