chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于動量的迭代算法來構(gòu)造對抗擾動以攻擊黑盒和白盒模型

5b9O_deeplearni ? 來源:lq ? 2019-05-15 17:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:深度模型的精度和速度長期以來成為了評價模型性能的核心標準,但即使性能優(yōu)越的深度神經(jīng)網(wǎng)絡(luò)也很容易被對抗樣本攻擊。因此,尋找到合適的對抗攻擊策略可有效提升模型本身的魯棒性。本文作者提出了基于動量的迭代算法來構(gòu)造對抗擾動,有效地減輕了白盒攻擊成功率和遷移性能之間的耦合,并能夠同時成功攻擊白盒和黑盒模型。

一、研究動機

深度神經(jīng)網(wǎng)絡(luò)雖然在語音識別、圖像分類、物體檢測等諸多領(lǐng)域取得了顯著效果,但是卻很容易受到對抗樣本的攻擊。對抗樣本是指向原始樣本中添加微小的噪聲,使得深度學習模型錯誤分類,但是對于人類觀察者來說,卻很難發(fā)現(xiàn)對抗樣本和正常樣本之間的區(qū)別。

生成對抗樣本的場景主要分為兩種:白盒攻擊和黑盒攻擊。對于白盒攻擊,攻擊者知道目標網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù),可以利用基于梯度的方法構(gòu)造對抗樣本。由于所構(gòu)造的對抗樣本具有一定的遷移性能(即對于一個模型構(gòu)造的對抗樣本也可以欺騙另一個模型),所以其可以被用來攻擊未知結(jié)構(gòu)和參數(shù)的黑盒模型,即黑盒攻擊。

然而,在實際的應用過程中,攻擊一個黑盒模型十分困難,尤其對于具有一定防御措施的模型更加難以黑盒攻擊成功。造成此現(xiàn)象的根本原因在于現(xiàn)有攻擊方法的白盒攻擊成功率和遷移性能之間的耦合與限制,使得沒有能夠同時達到很好的白盒攻擊成功率和遷移性能的方法。

具體地,對于一步迭代的快速梯度符號算法(FGSM),雖然這種方法構(gòu)造的對抗樣本的遷移性能很好,其攻擊白盒模型的成功率受到了很大的限制,不能有效地攻擊黑盒模型;另一方面,對于多步迭代的方法(I-FGSM),雖然可以很好地攻擊白盒模型,但是所構(gòu)造對抗樣本的遷移性能很差,也不能有效地攻擊黑盒模型。所以我們提出了一類新的攻擊方法,可以有效地減輕白盒攻擊成功率和轉(zhuǎn)移性能之間的耦合,同時成功攻擊白盒和黑盒模型。

圖1:對抗樣本示例

二、研究方案

2.1 問題定義

生成對抗噪聲本質(zhì)上可以歸結(jié)為一個優(yōu)化問題。對于單個模型f(x),攻擊者希望生成滿足L_∞限制的無目標對抗樣本,即生成對抗樣本x^*,使得f(x^*)≠y且‖x^*-x‖_∞≤?,其中y為真實樣本x所對應的真實類別、?為所允許的噪聲規(guī)模。所對應的優(yōu)化目標為

其中J為模型的損失函數(shù),通常定義為交叉信息熵損失。

2.2 相關(guān)工作

為了求解此優(yōu)化問題,Goodfellow等人首先提出了快速梯度符號法(FGSM),僅通過一次梯度迭代即可以生成對抗樣本:

此方法白盒攻擊成功率較低。為了提升成功率,迭代式攻擊方法(I-FGSM)通過多步更新,可以更好地生成對抗樣本,即

此方法雖然白盒攻擊成功率較高,但是遷移能力較差,也不利用攻擊其它的黑盒模型。

2.3 動量攻擊算法

我們提出在基礎(chǔ)的迭代式攻擊方法上加入動量項,避免在迭代過程中可能出現(xiàn)的更新震蕩和落入較差的局部極值,得到能夠成功欺騙目標網(wǎng)絡(luò)的對抗樣本。由于迭代方法在迭代過程中的每一步計算當前的梯度,并貪戀地將梯度結(jié)果加到對抗樣本上,使得所生成的對抗樣本僅能欺騙直接攻擊的白盒模型,而不能欺騙未知的黑盒模型,在實際的應用中受到了很大的限制。

在一般優(yōu)化算法中,動量項可以加速收斂、避免較差的局部極值、同時使得更新方向更加平穩(wěn)。受到一般優(yōu)化算法中動量項的啟發(fā),在生成對抗樣本的迭代方法中加入動量項,可以使得生成的對抗樣本不僅能有效欺騙白盒模型,也能欺騙未知的黑盒模型,達到更好的攻擊效果。

基于動量的迭代式快速梯度符號算法(MI-FGSM)可以用來解決上述問題,算法為:

假設(shè)以上迭代過程共迭代T輪,為了滿足限制‖x^*-x‖_∞≤?,定義每一步的步長α=?/T。μ為動量值g的衰減系數(shù)。通過以上迭代過程對一個真實樣本x逐步添加噪聲,可以得到能夠欺騙模型f(x)的對抗樣本x^*,同時x^*也能轉(zhuǎn)移到其他未知模型上,導致多個模型發(fā)生分類錯誤。此方法可以被擴展到有目標攻擊和基于L_2度量下的攻擊。

2.4 攻擊多個模型

為了進一步提升黑盒攻擊的成功率,我們可以同時攻擊多個白盒模型,以提升對抗樣本的遷移性能。對于K個不同的模型,目標是使得構(gòu)造的對抗樣本同時攻擊成功所有K個模型。為了達到上述目標,首先將K個模型的未歸一化概率值進行加權(quán)平均,即

其中l(wèi)_k (x)為第個模型的未歸一化概率值(即網(wǎng)絡(luò)最后一層softmax的輸入);w_k為第k個模型的權(quán)重,滿足w_k≥0且∑_(k=1)^K?w_k =11。由此得到了一個集成模型,定義此模型的損失函數(shù)為softmax交叉信息熵損失:

由此可以利用之前所述的基于動量的生成對抗樣本的方法對此集成模型進行攻擊。

三、算法流程圖

算法流程圖如圖2所示。輸入一張原始的圖片,其可以被圖片分類模型正確分類。通過所提出的基于動量的迭代算法構(gòu)造對抗擾動并添加到原始樣本上,得到了對抗圖片,會被圖片分類模型所錯分。

圖2:算法流程圖

四、實驗結(jié)果

4.1 數(shù)據(jù)集

為了測試所提方法的有效性,針對圖片分類任務進行對抗樣本生成。首先選取7個模型作為研究對象,它們分別為Inception V3 (Inc-v3)、Inception V4 (Inc-v4)、Inception Resnet V2 (IncRes-v2)、Resnet v2-152 (Res-152)、Inc-v3ens3、Inc-v3ens4和IncRes-v2ens。這些模型均在大規(guī)模圖像數(shù)據(jù)集ImageNet上訓練得到,其中后三個模型為集成對抗訓練得到的模型,具備一定的防御能力。本實施選取ImageNet驗證集中1000張圖片作為研究對象,衡量不同攻擊方法的成功率,進而說明其攻擊性能。

4.2 評測指標

這里我們選取攻擊成功率作為評測指標,定義為原本可以被分類正確的圖片中,添加了對抗噪聲后被預測為錯誤標簽的圖片占的比率。

4.3 實驗結(jié)果

基于所提方法,我們攻擊了Inc-v3、Inc-v4、IncRes-v2和Res-152四個模型,并利用所產(chǎn)生的對抗樣本輸入所有的7個模型中,測試攻擊的效果。為了比較所提出方法的效果,我們還選取了FGSM,I-FGSM兩個方法作為基準方法進行比較。實驗結(jié)果如表1所示:

表1:攻擊成功率結(jié)果

從表中可以看出,所提出的MI-FGSM方法可以顯著地提升黑盒攻擊的成功率,相比于I-FGSM,我們的方法可以將攻擊成功率提升了一倍左右。我們還展示了集成攻擊的效果。實驗結(jié)果如表2所示。

表2:集成攻擊結(jié)果

從結(jié)果中可以看出,所提出的在模型未歸一化概率值進行加權(quán)平均的方法效果最好。

五、結(jié)論與展望

本篇論文證明了深度學習模型在黑盒場景下的脆弱性,也證明了基于動量的攻擊算法的有效性。實驗中可以看出,所提出的方法對于具有防御機制的模型的攻擊效果較差。我們在后續(xù)工作中還提出了平移不變的攻擊算法(“Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks”, CVPR 2019, Oral),可以將防御模型的攻擊效果進一步提升。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103596
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95375
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    96

    瀏覽量

    12167

原文標題:動量迭代式對抗噪聲生成方法 | VALSE2018年度杰出學生論文獎

文章出處:【微信號:deeplearningclass,微信公眾號:深度學習大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    系統(tǒng)測試、驗收測試、黑盒測試、測試、單元測試、集成測試的區(qū)別

    系統(tǒng)測試、驗收測試、黑盒測試、測試、單元測試、集成測試的區(qū)別黑盒測試:已知產(chǎn)品的功能設(shè)計規(guī)格,可以進行測試證明每個實現(xiàn)了的功能是否符合要求。  
    發(fā)表于 10-22 12:42

    黑盒測試與測試區(qū)別

    黑盒測試與測試區(qū)別   黑盒測試  黑盒測試也稱功能測試或數(shù)據(jù)驅(qū)動測試,它是在已知產(chǎn)品所應具有的功能,通
    發(fā)表于 10-22 12:40 ?9570次閱讀

    黑盒測試、測試、單元測試、集成測試、系統(tǒng)測試、驗收測試的

    黑盒測試、測試、單元測試、集成測試、系統(tǒng)測試、驗收測試的區(qū)別黑盒測試:已知產(chǎn)品的功能設(shè)計規(guī)格,可以進行測試證明每個實現(xiàn)了的功能是否符
    發(fā)表于 10-22 12:43 ?2687次閱讀

    密碼技術(shù)如何打造更安全的物聯(lián)網(wǎng)

    密碼算法是一種新的密碼算法,它與傳統(tǒng)密碼算法的不同點是能夠抵抗
    發(fā)表于 11-05 09:54 ?816次閱讀
    <b class='flag-5'>白</b><b class='flag-5'>盒</b>密碼技術(shù)如何打造更安全的物聯(lián)網(wǎng)

    測試和黑盒測試的優(yōu)缺點

    測試和黑盒測試是軟件測試的兩種基本方法。 測試又稱結(jié)構(gòu)測試、透明測試、邏輯驅(qū)動測試或基
    發(fā)表于 11-02 11:18 ?1.9w次閱讀
    <b class='flag-5'>白</b><b class='flag-5'>盒</b>測試和<b class='flag-5'>黑盒</b>測試的優(yōu)缺點

    高級加密標準的任務規(guī)劃系統(tǒng)安全傳輸

    針對任務規(guī)劃系統(tǒng)中的安全傳輸在攻擊環(huán)境( WABC)下通信密鑰容易被竊取的問題,提出基于修改之后的高級加密標準(
    發(fā)表于 12-06 10:53 ?1次下載
    <b class='flag-5'>白</b><b class='flag-5'>盒</b>高級加密標準的任務規(guī)劃系統(tǒng)安全傳輸

    機器學習算法之基于黑盒語音識別的目標對抗樣本

    本文提出了一種將遺傳算法和梯度估計結(jié)合的黑盒攻擊方法,使之可以產(chǎn)生比單獨算法更好的對抗樣本.引入了一個新的
    發(fā)表于 05-28 06:27 ?3671次閱讀

    如何用對抗樣本修改圖片,誤導神經(jīng)網(wǎng)絡(luò)指鹿為馬

    黑盒攻擊則是在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為黑箱時,僅通過模型的輸入和輸出,逆推生成對抗樣本。下圖左圖為
    的頭像 發(fā)表于 11-22 09:49 ?5612次閱讀

    軟件測試的代碼劃分:黑盒的區(qū)別

    黑盒測試也是功能測試,測試中把被測的軟件當成一個黑盒子,不關(guān)心盒子的內(nèi)部結(jié)構(gòu)是什么,只關(guān)心軟件的輸入數(shù)據(jù)和輸出數(shù)據(jù)。
    的頭像 發(fā)表于 06-29 11:00 ?1.7w次閱讀

    詳談黑盒測試與測試的異同及用例

    詳談黑盒測試與測試的異同及用例
    的頭像 發(fā)表于 08-19 17:07 ?7295次閱讀
    詳談<b class='flag-5'>黑盒</b>測試與<b class='flag-5'>白</b><b class='flag-5'>盒</b>測試的異同及用例

    深度學習模型對抗攻擊及防御措施

    深度學習作為人工智能技術(shù)的重要組成部分,被廣泛應用于計算機視覺和自然語言處理等領(lǐng)域。盡管深度學習在圖像分類和目標檢測等任務中取得了較好性能,但是對抗攻擊的存在對深度學習模型的安全應用構(gòu)成了潛在威脅
    發(fā)表于 03-12 13:45 ?77次下載
    深度學習<b class='flag-5'>模型</b>的<b class='flag-5'>對抗</b><b class='flag-5'>攻擊</b>及防御措施

    一種針對DoT算法的模板攻擊方法

    ,但是該算法在具體實現(xiàn)中是否足以抵御側(cè)信道攻擊仍有待研究?;贒oT算法結(jié)構(gòu)及其S特點,提出一種針對DoT算法的模板
    發(fā)表于 03-21 10:34 ?12次下載
    一種針對DoT<b class='flag-5'>算法</b>的模板<b class='flag-5'>攻擊</b>方法

    基于生成器的圖像分類對抗樣本生成模型

    現(xiàn)有基于生成器的對抗樣本生成模型相比基于迭代修改原圖的算法可有效降低對抗樣本的構(gòu)造時間,但其生成
    發(fā)表于 04-07 14:56 ?2次下載
    基于生成器的圖像分類<b class='flag-5'>對抗</b>樣本生成<b class='flag-5'>模型</b>

    GAN圖像對抗樣本生成方法研究綜述

    模型蒸餾方法對目標模型進行黑盒復制,獲取目標模型的本地復制;然后G1的輸出作為輸入蒸餾
    發(fā)表于 04-28 16:39 ?72次下載
    GAN圖像<b class='flag-5'>對抗</b>樣本生成方法研究綜述

    功能測試是還是黑盒測試

    功能測試是軟件測試的一種方法,主要用于驗證軟件的功能是否滿足需求規(guī)格說明書中的要求。功能測試可以采用測試或黑盒測試的方法,具體取決于測試的目的和需求。本文將詳細介紹功能測試的概念、
    的頭像 發(fā)表于 05-30 14:53 ?1662次閱讀