chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對抗樣本是如何在不同的媒介上發(fā)揮作用的,為什么保護(hù)系統(tǒng)很難對抗它們?

人工智能和機(jī)器人研究院 ? 來源:未知 ? 作者:李倩 ? 2018-04-16 15:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一般來說,對抗樣本(adversarial examples)是機(jī)器學(xué)習(xí)模型的輸入,攻擊者故意設(shè)計(jì)它們以引起模型出錯(cuò);它們就像是機(jī)器的視覺錯(cuò)覺。這篇文章中,將展示對抗樣本是如何在不同的媒介上發(fā)揮作用的,并將討論為什么保護(hù)系統(tǒng)很難對抗它們。

在OpenAI中,我們認(rèn)為對抗樣本是安全工作的一個(gè)很好的方面。因?yàn)樗鼈兇砹?a target="_blank">人工智能安全中的一個(gè)具體問題,而它們可以在短期內(nèi)得以解決。而且由于修復(fù)它們非常困難,需要進(jìn)行認(rèn)真的研究工作(盡管我們需要探索機(jī)器學(xué)習(xí)安全的許多方面,以實(shí)現(xiàn)我們構(gòu)建安全、廣泛分布的人工智能的目標(biāo))。

想要了解對抗樣本看起來是什么樣的,請參考《解釋和利用對抗樣本》(Explaining and Harnessing Adversarial Examples)中的闡釋:從一張熊貓的圖像開始,攻擊者添加一個(gè)小干擾,且該小干擾被計(jì)算出來,使圖像被認(rèn)為是一個(gè)具有高置信度的長臂猿。

覆蓋在典型圖像上的對抗輸入會(huì)導(dǎo)致分類器將熊貓誤歸類為長臂猿

這種方法相當(dāng)具有魯棒性;最近的研究表明,對抗樣本可以在標(biāo)準(zhǔn)紙張上打印出來,然后用標(biāo)準(zhǔn)智能手機(jī)拍攝,而且用的仍然是傻瓜系統(tǒng)。

對抗樣本可以在標(biāo)準(zhǔn)紙張上打印出來并用標(biāo)準(zhǔn)分辨率的智能手機(jī)拍照,并且在這種情況下仍然會(huì)導(dǎo)致分類器將“洗衣機(jī)”標(biāo)記為“安全”

對抗樣本是有潛在危險(xiǎn)性的。例如,攻擊者可以通過這種方法攻擊自動(dòng)駕駛汽車:使用貼紙或涂料創(chuàng)建一個(gè)對抗性的停車標(biāo)志,讓車輛將其解釋為“屈服”或其他標(biāo)志,就像《使用對抗樣本對深度學(xué)習(xí)系統(tǒng)進(jìn)行實(shí)用黑盒攻擊》(Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples)中所述的那樣。

加州大學(xué)伯克利分校、OpenAI和賓夕法尼亞州立大學(xué)的新研究《對神經(jīng)網(wǎng)絡(luò)策略的對抗性攻擊》(Adversarial Attacks on Neural Network Policies)以及內(nèi)華達(dá)大學(xué)雷諾分校的研究《深度強(qiáng)化學(xué)習(xí)對策略誘導(dǎo)攻擊的脆弱性》(Vulnerability of Deep Reinforcement Learning to Policy Induction Attacks)表明,強(qiáng)化學(xué)習(xí)智能體也可以被對抗樣本操縱。研究表明,諸如DQN、TRPO和A3C等這些廣泛使用的RL算法,很容易受到對抗輸入的影響。即使是在所存在的干擾微小到人類無法察覺,這些也會(huì)導(dǎo)致性能下降,使智能體在應(yīng)該將乒乓球拍向上移動(dòng)的時(shí)候?qū)⑺蛳乱苿?dòng)了,或者使其在Seaquest中發(fā)現(xiàn)對手的能力受到了干擾。

如果你想嘗試打破你自己的模型,你可以使用cleverhans,這是一個(gè)由Ian Goodfellow和Nicolas Papernot共同開發(fā)的開源庫,用來測試你的AI對對抗樣本的漏洞。

對抗樣本讓我們在人工智能安全方面有了一些動(dòng)力

當(dāng)我們思考人工智能安全的研究時(shí),我們通常會(huì)想到這個(gè)領(lǐng)域中最困難的一些問題——我們?nèi)绾未_保那些比人類聰明得多的復(fù)雜的強(qiáng)化學(xué)習(xí)智能體能夠以它們的設(shè)計(jì)者所期望的方式行事?

對抗樣本告訴我們,對于監(jiān)督和強(qiáng)化學(xué)習(xí)而言,即使是簡單的現(xiàn)代算法,也已經(jīng)可能以并非我們所想的令人驚訝的方式表現(xiàn)出來。

防御對抗樣本所做出過的嘗試

如權(quán)值衰減(weight decay)和dropout等這種使機(jī)器學(xué)習(xí)模型更具有魯棒性的傳統(tǒng)技術(shù),通常不能為對抗樣本提供實(shí)際的防御。到目前為止,只有兩種方法提供了重要的防御。

對抗性訓(xùn)練:這是一種暴力破解(brute force)的解決方案。其中,我們只是簡單地生成很多對抗樣本,并明確訓(xùn)練模型不會(huì)被它們中的任何一個(gè)愚弄。對抗性訓(xùn)練的開源實(shí)現(xiàn)可以在cleverhans庫中找到,下面的教程對其用法在進(jìn)行了說明。

防御性精煉:這是一種策略。我們訓(xùn)練模型來輸出不同類的概率,而不是將哪個(gè)類輸出的艱難決策。概率由早期的模型提供,該模型使用硬分類標(biāo)簽在相同的任務(wù)上進(jìn)行訓(xùn)練。這就創(chuàng)建了一個(gè)模型,其表面在攻擊者通常會(huì)試圖開拓的方向上是平滑的,從而使它們難以發(fā)現(xiàn)導(dǎo)致錯(cuò)誤分類的對抗輸入調(diào)整(精煉(Distillation)最初是在《神經(jīng)網(wǎng)絡(luò)中知識(shí)的精煉》(Distilling the Knowledge in a Neural Network)中作為模型壓縮的一種技術(shù)而被引入的,在這種技術(shù)中,一個(gè)小模型被訓(xùn)練以模仿一個(gè)大模型,以便節(jié)省計(jì)算量)。

然而,即使是這些專門的算法,也可能被擁有了更多計(jì)算火力的攻擊者輕易破解。

失敗的防御:“梯度掩碼”(gradient masking)

舉一個(gè)簡單防御失敗的例子,讓我們考慮一下為什么一種叫做“梯度掩碼”的技術(shù)不起作用。

“梯度掩碼”是一個(gè)在《使用對抗樣本對深度學(xué)習(xí)系統(tǒng)進(jìn)行實(shí)用黑盒攻擊》(Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples)中所引入的術(shù)語,用于描述一整套失敗的防御方法——它們試圖阻止攻擊者訪問一個(gè)有用的梯度。

大多數(shù)對抗樣本構(gòu)造技術(shù)使用模型的梯度來進(jìn)行攻擊。換句話說,它們看一張飛機(jī)的圖片,它們對圖片空間進(jìn)行測試,以發(fā)現(xiàn)哪個(gè)方向使“貓”類的概率增加,然后它們給予這個(gè)方向一點(diǎn)推動(dòng)力(換句話說,它們擾亂輸入)。這張新的、修改后的圖像被錯(cuò)誤地認(rèn)為是一只貓。

但是如果沒有梯度,如果對圖像進(jìn)行一個(gè)無窮小的修改會(huì)導(dǎo)致模型的輸出沒有變化,那該怎么辦?這似乎提供了一些防御,因?yàn)楣粽卟恢朗窍蚰膫€(gè)方向“助推”圖像。

我們可以很容易地想象一些非常簡單的方法來擺脫梯度。例如,大多數(shù)圖像分類模型可以在兩種模式下運(yùn)行:一種模式是只輸出最可能的類的標(biāo)識(shí),另一種模式是輸出概率。如果模型的輸出是“99.9%的可能是飛機(jī),0.1%的可能是貓”,那么對輸入的微小改變會(huì)給輸出帶來很小的變化,而且梯度告訴我們哪個(gè)變化會(huì)增加“貓”類的概率。如果我們在輸出只是“飛機(jī)”的模式下運(yùn)行模型,那么對輸入的微小改變就完全不會(huì)改變輸出,而且梯度不會(huì)告訴我們?nèi)魏螙|西。

讓我們進(jìn)行一個(gè)思考實(shí)驗(yàn),看看我們在“最可能的類”模式下,而不是“概率模式”下,能夠以怎樣的程度來保護(hù)我們的模型抵抗對抗樣本。攻擊者不再知道去哪里尋找那些將被歸類為貓的輸入,所以我們可能有了一些防御。不幸的是,之前被歸類為貓的每張圖像現(xiàn)在仍然被歸類為貓。如果攻擊者能夠猜測哪些點(diǎn)是對抗樣本,那么這些點(diǎn)仍然會(huì)被錯(cuò)誤分類。我們還沒有使這個(gè)模型更具魯棒性;我們剛剛給了攻擊者更少的線索來找出模型防御漏洞的位置。

更不幸的是,事實(shí)證明,攻擊者有一個(gè)非常好的策略來猜測防守漏洞的位置。攻擊者可以訓(xùn)練出自己的一種具有梯度的平滑模型來為它們的模型提供對抗樣本,然后將這些對抗樣本配置到我們的非平滑模型上。很多時(shí)候,我們的模型也會(huì)對這些樣本進(jìn)行錯(cuò)誤的分類。最后,我們的思考實(shí)驗(yàn)表明,隱藏梯度并沒有給我們帶來任何幫助。

執(zhí)行梯度掩碼的防御策略通常會(huì)導(dǎo)致一個(gè)模型在特定的方向和訓(xùn)練點(diǎn)的附近非常平滑,這使得攻擊者很難找到指示好候選方向的梯度,從而以損害模型的方式干擾輸入。然而,攻擊者可以訓(xùn)練一種替代模型:一種通過觀察被防御模型分配給攻擊者精心選擇的輸入的標(biāo)簽來模仿防御模型的副本。

在“黑箱攻擊”論文中引入了執(zhí)行這種模型提取攻擊的過程。然后,攻擊者還可以使用替代模型的梯度來找到被防御模型錯(cuò)誤分類的對抗樣本。在上圖中,對從《機(jī)器學(xué)習(xí)中的安全和隱私科學(xué)》(Towards the Science of Security and Privacy in Machine Learning)中找到的梯度掩碼的討論再現(xiàn),我們用一維的ML問題來說明這種攻擊策略。對于更高維度的問題,梯度掩碼現(xiàn)象將會(huì)加劇,但難以描述。

我們發(fā)現(xiàn),對抗性訓(xùn)練和防御性精煉都意外地執(zhí)行了一種梯度掩碼。這兩種算法都沒有明確地被設(shè)計(jì)來執(zhí)行梯度掩碼,但是當(dāng)算法被訓(xùn)練來保護(hù)自己并且沒有給出具體的指令時(shí),梯度掩碼顯然是一種機(jī)器學(xué)習(xí)算法可以相對容易地發(fā)明出的防御措施。如果我們將對抗樣本從一個(gè)模型遷移到另一個(gè)用對抗性訓(xùn)練或防御性精煉訓(xùn)練過的模型,攻擊通常也會(huì)成功,即使對第二個(gè)模型直接的攻擊失敗了。這表明,這兩種訓(xùn)練技術(shù)都會(huì)做更多的工作來使模型平滑并消除梯度,而不是確保它能夠正確地對更多的點(diǎn)進(jìn)行分類。

為什么很難防御對抗樣本

難以防御對抗樣本,因?yàn)殡y以構(gòu)建一個(gè)對抗樣本制作過程的理論模型。對于包括神經(jīng)網(wǎng)絡(luò)在內(nèi)的許多ML模型來說,對抗樣本是對非線性和非凸性的優(yōu)化問題的解決方案。因?yàn)槲覀儧]有很好的理論工具來描述這些復(fù)雜的優(yōu)化問題的解決方案,所以很難做出任何理論上的論證來證明一個(gè)防御系統(tǒng)會(huì)排除一系列對抗樣本。

難以防御對抗樣本,還因?yàn)樗鼈円髾C(jī)器學(xué)習(xí)模型為每一個(gè)可能的輸入產(chǎn)生良好的輸出。大多數(shù)情況下,機(jī)器學(xué)習(xí)模型運(yùn)行得很好,但所能處理的只是它們可能遇到的所有可能輸入中的很小一部分。

我們迄今為止測試的每一種策略都失敗了,因?yàn)樗皇亲赃m應(yīng)的:它可能會(huì)阻止一種攻擊,但是留給攻擊者另一個(gè)漏洞,而攻擊者知道此次所使用的防御。設(shè)計(jì)一種可以防御強(qiáng)大的、自適應(yīng)的攻擊者的防御系統(tǒng)是一個(gè)重要的研究領(lǐng)域。

結(jié)論

對抗樣本表明,許多現(xiàn)代機(jī)器學(xué)習(xí)算法可以以多種令人驚訝的方式被打破。機(jī)器學(xué)習(xí)的這些失敗表明,即使是簡單的算法也能與其設(shè)計(jì)者的意圖截然不同。我們鼓勵(lì)機(jī)器學(xué)習(xí)研究人員參與進(jìn)來并設(shè)計(jì)防范對抗樣本的方法,以縮小設(shè)計(jì)師意圖和算法行為之間的差距。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49706

    瀏覽量

    261221
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8540

    瀏覽量

    136206

原文標(biāo)題:OpenAI詳細(xì)解析:攻擊者是如何使用「對抗樣本」攻擊機(jī)器學(xué)習(xí)的

文章出處:【微信號(hào):gh_ecbcc3b6eabf,微信公眾號(hào):人工智能和機(jī)器人研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    電子對抗系統(tǒng)中的概率準(zhǔn)則存在哪些缺陷?

    :  (1)在電子對抗系統(tǒng)中,大多數(shù)性能指標(biāo)不但受到電子干擾環(huán)境影響,而且它們都不是用概率形式直接表示,但也有例外,如:虛警概率、引導(dǎo)概率、識(shí)別概率等?! ∫虼?,就不是用概率形式表示的指標(biāo),卻用受干擾
    發(fā)表于 12-15 15:47

    請問浪涌保護(hù)器能有效對抗雷擊嗎?

    浪涌保護(hù)器能有效對抗雷擊嗎?
    發(fā)表于 03-17 07:13

    數(shù)據(jù)轉(zhuǎn)換器是如何拯救電子監(jiān)控與對抗系統(tǒng)的?

    現(xiàn)代監(jiān)控系統(tǒng)包括哪些基本功能?請問數(shù)據(jù)轉(zhuǎn)換器是如何拯救電子監(jiān)控與對抗系統(tǒng)的?
    發(fā)表于 04-12 06:05

    網(wǎng)絡(luò)對抗訓(xùn)練模擬系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

    提高計(jì)算機(jī)網(wǎng)絡(luò)對抗能力,是奪取信息優(yōu)勢和控制網(wǎng)絡(luò)權(quán)的必要手段和途徑;網(wǎng)絡(luò)對抗訓(xùn)練模擬系統(tǒng)的建立有利于網(wǎng)絡(luò)對抗人才的培養(yǎng)。研究和設(shè)計(jì)了一種網(wǎng)絡(luò)對抗
    發(fā)表于 12-16 01:12 ?20次下載

    機(jī)載雷達(dá)對抗系統(tǒng)仿真

    文中首先研究了F16雷達(dá)對抗系統(tǒng)仿真的流程,重點(diǎn)對雷達(dá)系統(tǒng)的基本模型以及干擾模型進(jìn)行了論述,并對F16機(jī)載雷達(dá)對抗系統(tǒng)進(jìn)行了仿真。測試結(jié)果表
    發(fā)表于 04-20 10:51 ?44次下載
    機(jī)載雷達(dá)<b class='flag-5'>對抗</b><b class='flag-5'>系統(tǒng)</b>仿真

    機(jī)器學(xué)習(xí)算法之基于黑盒語音識(shí)別的目標(biāo)對抗樣本

    本文提出了一種將遺傳算法和梯度估計(jì)結(jié)合的黑盒攻擊方法,使之可以產(chǎn)生比單獨(dú)算法更好的對抗樣本.引入了一個(gè)新的黑盒攻擊領(lǐng)域,特別是在深層非線性的 ASR 系統(tǒng)中可以輸出任意長度的轉(zhuǎn)換。作者提出了一種將遺傳算法和梯度估計(jì)結(jié)合的黑盒攻擊
    發(fā)表于 05-28 06:27 ?3817次閱讀

    對抗樣本真的是bug嗎?對抗樣本不是Bug, 它們是特征

    過去幾年里,對抗樣本在機(jī)器學(xué)習(xí)社區(qū)中得到了極大的關(guān)注。關(guān)于如何訓(xùn)練模型使它們不易受到對抗樣本攻擊的工作有很多,但所有這些研究都沒有真正地面對
    的頭像 發(fā)表于 05-10 08:54 ?5243次閱讀
    <b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>真的是bug嗎?<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>不是Bug, <b class='flag-5'>它們</b>是特征

    Reddit熱議MIT新發(fā)現(xiàn) 對抗樣本是有意義的數(shù)據(jù)特征

    對抗樣本不是Bug, 它們實(shí)際是有意義的數(shù)據(jù)分布特征。來自MIT的最新研究對神經(jīng)網(wǎng)絡(luò)的對抗樣本
    的頭像 發(fā)表于 05-13 16:01 ?2411次閱讀
    Reddit熱議MIT新發(fā)現(xiàn) <b class='flag-5'>對抗</b><b class='flag-5'>樣本是</b>有意義的數(shù)據(jù)特征

    何在NLP領(lǐng)域?qū)嵤?b class='flag-5'>對抗攻擊

    當(dāng)視覺領(lǐng)域中的對抗攻擊研究很難再有重大突破的時(shí)候(坑已滿,請換坑),研究人員便把目光轉(zhuǎn)移到了NLP領(lǐng)域。其實(shí)就NLP領(lǐng)域而言,垃圾郵件檢測、有害文本檢測、惡意軟件查殺等實(shí)用系統(tǒng)已經(jīng)大規(guī)模部署了深度學(xué)習(xí)模型
    的頭像 發(fā)表于 03-05 16:01 ?4510次閱讀
    如<b class='flag-5'>何在</b>NLP領(lǐng)域?qū)嵤?b class='flag-5'>對抗</b>攻擊

    深度學(xué)習(xí)模型的對抗攻擊及防御措施

    ,進(jìn)而影響了模型的安全性。在簡述對抗樣本的概念及其產(chǎn)生原因的基礎(chǔ),分析對抗攻擊的主要攻擊方式及目標(biāo),研究具有代表性的經(jīng)典對抗
    發(fā)表于 03-12 13:45 ?78次下載
    深度學(xué)習(xí)模型的<b class='flag-5'>對抗</b>攻擊及防御措施

    基于生成器的圖像分類對抗樣本生成模型

    現(xiàn)有基于生成器的對抗樣本生成模型相比基于迭代修改原圖的算法可有效降低對抗樣本的構(gòu)造時(shí)間,但其生成的對抗
    發(fā)表于 04-07 14:56 ?2次下載
    基于生成器的圖像分類<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>生成模型

    基于深度學(xué)習(xí)的自然語言處理對抗樣本模型

    相關(guān)概念的基礎(chǔ),文中首先對基于深度學(xué)習(xí)的自然語言處理模型的復(fù)雜結(jié)構(gòu)、難以探知的訓(xùn)練過程和樸素的基本原理等脆弱性成因進(jìn)行分析,進(jìn)一步闡述了文本對抗樣本的特點(diǎn)、分類和評(píng)價(jià)指標(biāo),并對該領(lǐng)堿對抗
    發(fā)表于 04-20 14:36 ?39次下載
    基于深度學(xué)習(xí)的自然語言處理<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>模型

    GAN圖像對抗樣本生成方法研究綜述

    為了提高生成對抗網(wǎng)絡(luò)模型對抗樣本的多樣性和攻擊成功率,提出了一種GAN圖像對抗樣本生成方法。首先,利用原始
    發(fā)表于 04-28 16:39 ?72次下載
    GAN圖像<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>生成方法研究綜述

    HCG和LCG相機(jī)功能如何在苛刻的照明條件下發(fā)揮作用

    轉(zhuǎn)換增益(HCG)和低轉(zhuǎn)換增益(LCG)相機(jī)功能如何在苛刻的照明條件下發(fā)揮作用,以及通常會(huì)出現(xiàn)這些苛刻情形的成像應(yīng)用示例。
    的頭像 發(fā)表于 12-08 14:21 ?7634次閱讀

    物聯(lián)網(wǎng)系統(tǒng)設(shè)計(jì)如何發(fā)揮作用

    物聯(lián)網(wǎng)系統(tǒng)設(shè)計(jì)如何發(fā)揮作用
    的頭像 發(fā)表于 01-03 09:45 ?1228次閱讀