chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在NLP領(lǐng)域?qū)嵤构?/h1>

如果是咱家公眾號的忠實粉絲就一定還記得之前咱家一篇關(guān)于NLP Privacy的文章,不出意外的話,你們是不是現(xiàn)在依然還擔心自己的隱私被輸入法竊取而瑟瑟發(fā)抖。所以,我們又來了!今天給大家討論的是NLP Privacy中一個非常核心的話題——文本對抗攻擊。

相信大家已經(jīng)非常熟悉對抗攻擊了,此類攻擊是攻擊者針對機器學習模型的輸入即數(shù)值型向量(Numeric Vectors)設(shè)計的一種可以讓模型做出誤判的攻擊。簡言之,對抗攻擊就是生成對抗樣本的過程。對抗樣本的概念最初是在2014年提出的,指的是一類人為構(gòu)造的樣本,通過對原始的樣本數(shù)據(jù)添加針對性的微小擾動所得到(該微擾不會影響人類的感知),但會使機器學習模型產(chǎn)生錯誤的輸出[1]。因此,從上述定義可知,對抗攻擊以及對抗樣本的生成研究最開始被用于計算機視覺領(lǐng)域。在當時,那家伙,文章多的你看都看不完…當然在這里我也拋出當時寫的比較好的一篇綜述:“Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey”[2]。大家可以溫故而知新啦。

當視覺領(lǐng)域中的對抗攻擊研究很難再有重大突破的時候(坑已滿,請換坑),研究人員便把目光轉(zhuǎn)移到了NLP領(lǐng)域。其實就NLP領(lǐng)域而言,垃圾郵件檢測、有害文本檢測、惡意軟件查殺等實用系統(tǒng)已經(jīng)大規(guī)模部署了深度學習模型,安全性對于這些系統(tǒng)尤為重要。但相比于圖像領(lǐng)域,NLP領(lǐng)域?qū)构舻难芯窟€遠遠不夠,特別是文本具有離散和前后輸入具有邏輯的特點使得對抗樣本的生成更具挑戰(zhàn)性,也有更多的研究空間。我們欣喜地看到,目前有越來越多的 NLP 研究者開始探索文本對抗攻擊這一方向,以 2020 年 ACL 為例,粗略統(tǒng)計有超過 10 篇相關(guān)論文,其中最佳論文Beyond Accuracy: Behavioral Testing of NLP Models with CheckList[3]中大部分測試方法其實和文本對抗攻擊有異曲同工之妙。故在本次推文中,我們一起來探究和領(lǐng)略一下如何在NLP領(lǐng)域?qū)嵤构?,并提供一些在該領(lǐng)域繼續(xù)深入挖掘的工具和方向。

對抗攻擊的分類

對抗攻擊按攻擊者所掌握的知識來分的話,可分為以下兩類:

白盒攻擊:稱為white-box attack,也稱為open-box attack,即攻擊者對模型(包括參數(shù)、梯度等信息)和訓練集完全了解,這種情況比較攻擊成功,但是在實際情況中很難進行操作和實現(xiàn)。

黑盒攻擊:稱為black-box attack,即攻擊者對模型不了解,對訓練集不了解或了解很少。這種情況攻擊很難成功但是與實際情況比較符合,因此也是主要的研究方向。

如果按攻擊者的攻擊目標來分的話,可以分為以下兩類:

定向攻擊:稱為targeted attack,即對于一個多分類網(wǎng)絡(luò),把輸入分類誤判到一個指定的類上

非定向攻擊:稱為non-target attack,即只需要生成對抗樣本來欺騙神經(jīng)網(wǎng)絡(luò),可以看作是上面的一種特例。

發(fā)展歷史與方法分類

我們先談談白盒攻擊,因為白盒攻擊易于實現(xiàn),因此早在2014年關(guān)于對抗樣本的開山之作“Intriguing Properties of Neural Networks”中設(shè)計了一種基于梯度的白盒攻擊方法。具體來說,作者通過尋找最小的損失函數(shù)添加項,使得神經(jīng)網(wǎng)絡(luò)做出誤分類,將問題轉(zhuǎn)化成了凸優(yōu)化。問題的數(shù)學表述如下:

表示習得的分類映射函數(shù),表示改變的步長,公式表達了尋找使得映射到指定的類上的最小的。在此之后,許多研究人員在上述方法的基礎(chǔ)上提出了許多改進的基于梯度的方法,具體可見[4-6]。

后來,研究人員逐漸從白盒攻擊的研究轉(zhuǎn)向研究黑盒攻擊,Transfer-based方法就是過渡時期的產(chǎn)物。Nicolas Papernot等人在2017年的時候利用訓練數(shù)據(jù)可以訓練出從中生成對抗性擾動的完全可觀察的替代模型[7]。因此,基于Transfer的攻擊不依賴模型信息,但需要有關(guān)訓練數(shù)據(jù)的信息。此外,[8]文獻證明了如果在一組替代模型上生成對抗性樣本,則在某些情況下,模型被攻擊的成功率可以達到100%(好家伙,100%真厲害)。近幾年,不同類型的攻擊方法越來越多,但總體來說歸為以下三類:Score-based方法、Decision-based方法、Attack on Attention方法[9](這個方法非常新,有坑可跳),前兩大類方法的相關(guān)研究和參考文獻可閱讀原文一探究竟,在這里不再贅述。

文本對抗攻擊

基本概念

下圖展示了文本領(lǐng)域內(nèi)實現(xiàn)對抗攻擊的一個例子。語句(1)為原始樣本,語句(2)為經(jīng)過幾個字符變換后得到的對抗樣本。深度學習模型能正確地將原始樣本判為正面評論,而將對抗樣本誤判為負面評論。而顯然,這種微小擾動并不會影響人類的判斷。

算法的分類

首先,根據(jù)上述對抗攻擊的分類。同樣地,文本中的對抗攻擊也可以分為黑盒攻擊和白盒攻擊。除此之外,由于文本涉及到字符、詞匯、句子。因此我們可以根據(jù)添加擾動時所操作的文本粒度可以分為字符級、單詞級和語句級攻擊。具體來說,字符級攻擊是通過插入、刪除或替換字符,以及交換字符順序?qū)崿F(xiàn);單詞級攻擊主要通過替換單詞實現(xiàn),基于近義詞、形近詞、錯誤拼寫等建立候選詞庫;語句級攻擊主要通過文本復述或插入句子實現(xiàn)。具體分類詳見下圖.

9af4079c-7c22-11eb-8b86-12bb97331649.png

攻擊方式的發(fā)展和分類

根據(jù)攻擊策略和攻擊方式我們可以分為Image-to-Text(借鑒圖像領(lǐng)域的經(jīng)典算法)、基于優(yōu)化的攻擊、基于重要性的攻擊以及基于神經(jīng)網(wǎng)絡(luò)的攻擊。Image-to-Text攻擊方式的思想是將文本數(shù)據(jù)映射到連續(xù)空間,然后借鑒圖像領(lǐng)域的一些經(jīng)典算法如FGSM、JSMA等,生成對抗樣本;基于優(yōu)化的攻擊則是將對抗攻擊表述為帶約束的優(yōu)化問題,利用現(xiàn)有的優(yōu)化技術(shù)求解,如梯度優(yōu)化、遺傳算法優(yōu)化;基于重要性的攻擊通常首先利用梯度或文本特性設(shè)計評分函數(shù)鎖定關(guān)鍵詞,然后通過文本編輯添加擾動;基于神經(jīng)網(wǎng)絡(luò)的攻擊訓練神經(jīng)網(wǎng)絡(luò)模型自動學習對抗樣本的特征,從而實現(xiàn)對抗樣本的自動化生成。具體的算法細節(jié)大家可移步一篇寫的非常全面的綜述“Adversarial Attacks on Deep Learning Models in Natural Language Processing: A Survey“。

文本對抗攻擊相關(guān)資源

文獻總結(jié)

如下圖所示,清華大學自然語言處理與社會人文計算實驗室(THUNLP)總結(jié)了各類文本對抗領(lǐng)域的相關(guān)文獻,其中包含但不限于工具包、綜述、文本對抗攻擊、文本對抗防御、模型魯棒性驗證、基準和評估等內(nèi)容。針對本文涉及的文本對抗攻擊領(lǐng)域,該列表收錄了句級、詞級、字級、混合四個子部分,并且還為每篇論文打上了受害模型可見性的標簽
gradient/score/decision/blind
除了提供論文 pdf 鏈接之外,如果某篇論文有公開代碼或數(shù)據(jù),也會附上相應的鏈接[19]。

其中必須的綜述論文如下:

-- Analysis Methods in Neural Language Processing: A Survey. Yonatan Belinkov, James Glass. TACL 2019.
-- Towards a Robust Deep Neural Network in Text Domain A Survey. Wenqi Wang, Lina Wang, Benxiao Tang, Run Wang, Aoshuang Ye. 2019.
-- Adversarial Attacks on Deep Learning Models in Natural Language Processing: A Survey. Wei Emma Zhang, Quan Z. Sheng, Ahoud Alhazmi, Chenliang Li. 2019.

文本對抗攻擊工具包

目前文本攻擊工具包為該領(lǐng)域的研究人員提供了非常好的開發(fā)和研究基礎(chǔ)。這里介紹兩個比較常用的:

清華大學自然語言處理與社會人文計算實驗室開源的OpenAttack[20]

弗吉尼亞大學祁妍軍教授領(lǐng)導的 Qdata 實驗室開發(fā)的TextAttack[21]

至于如何使用上述兩種工具包,請大家火速前往項目主頁一探究竟,并不要忘了給一個Star哦!??!

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 文本
    +關(guān)注

    關(guān)注

    0

    文章

    119

    瀏覽量

    17733
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5589

    瀏覽量

    123871
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23182

原文標題:文本對抗攻擊入坑寶典

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    攻擊逃逸測試:深度驗證網(wǎng)絡(luò)安全設(shè)備的真實防護能力

    。 基于測試結(jié)果的持續(xù)優(yōu)化,使雙方共同構(gòu)建起能夠應對新型威脅的主動防御體系,實現(xiàn)安全防護能力的螺旋式上升。 攻擊逃逸:深度隱匿的網(wǎng)絡(luò)安全威脅 攻擊逃逸(Evasion Attack)是網(wǎng)絡(luò)安全領(lǐng)域
    發(fā)表于 11-17 16:17

    學習物聯(lián)網(wǎng)可以做什么工作?

    市場需求,制定產(chǎn)品規(guī)劃。   系統(tǒng)集成工程師:負責將不同的物聯(lián)網(wǎng)設(shè)備和系統(tǒng)進行整合,實現(xiàn)設(shè)備之間的聯(lián)通和數(shù)據(jù)共享。   安全工程師:負責保障物聯(lián)網(wǎng)系統(tǒng)和設(shè)備的安全性,包括設(shè)備的數(shù)據(jù)加密、網(wǎng)絡(luò)安全、防攻擊等。   總之,物聯(lián)網(wǎng)涉及到的領(lǐng)域非常廣泛,可以從不同的角度入手,提供
    發(fā)表于 10-11 16:40

    何在MCXN947微控制器上配置安全啟動和生命周期

    本文檔旨在介紹如何在MCXN947微控制器上配置安全啟動和生命周期,以確保產(chǎn)品在量產(chǎn)階段的安全性,防止代碼被竊取和篡改,并且能夠安全地升級更新固件。通過本應用筆記,開發(fā)者可以更好地理解和實施安全啟動和固件更新的最佳實踐。
    的頭像 發(fā)表于 06-26 09:49 ?2062次閱讀
    如<b class='flag-5'>何在</b>MCXN947微控制器上配置安全啟動和生命周期

    TCP攻擊是什么?有什么防護方式?

    隨著網(wǎng)絡(luò)的高速發(fā)展,越來越多的企業(yè)都將業(yè)務部署在線下機房或者云上。隨之而來的就是各種各樣的網(wǎng)絡(luò)攻擊,如DDoS攻擊、CC攻擊、TCP攻擊等,這些攻擊
    的頭像 發(fā)表于 06-12 17:33 ?714次閱讀

    華為聯(lián)合發(fā)布2024年全球DDoS攻擊態(tài)勢分析報告

    在智能化轉(zhuǎn)型的浪潮中,企業(yè)對網(wǎng)絡(luò)的依賴程度與日俱增。與此同時,DDoS攻擊以其迅猛的增長態(tài)勢、復雜的攻擊手法,成為2024年突出的網(wǎng)絡(luò)安全威脅。
    的頭像 發(fā)表于 04-10 09:59 ?744次閱讀

    光纖涂覆質(zhì)量金標準實施總結(jié)匯報

    光纖涂覆質(zhì)量金標準實施總結(jié)匯報 一、項目背景 為突破行業(yè)光纖涂覆質(zhì)量參差不齊的技術(shù)瓶頸,濰坊華纖光電科技基于15年研發(fā)經(jīng)驗,率先建立 六大涂覆質(zhì)量金標準 ,通過技術(shù)創(chuàng)新與工藝優(yōu)化,實現(xiàn)涂覆精度
    發(fā)表于 03-28 11:45

    何在SJA1110中配置IEEE802.1CB幀復制和冗余消除 (FRER)?

    嗨,我如何在 SJA1110 中配置 IEEE802.1CB 幀復制和冗余消除 (FRER),我需要實施進入端口 1 的數(shù)據(jù)的幀復制需要反映在端口 2 中,以及如何禁用進入端口 1 的數(shù)據(jù)可以在端口
    發(fā)表于 03-26 08:02

    華納云如何為電商大促場景扛住Tb級攻擊不宕機?

    在電商大促場景中,面對Tb級攻擊的挑戰(zhàn),為確保SCDN(邊緣安全加速)全站防護能夠扛住攻擊而不宕機,可以從以下幾個方面著手: 一、采用高性能與高防護能力的SCDN服務 選擇具備Tb級帶寬
    的頭像 發(fā)表于 03-25 15:14 ?555次閱讀

    A2CP12026?COUGARPAK?放大器

    電子對抗領(lǐng)域,A2CP12026既能增強干擾信號的發(fā)射強度,提升干擾效能,也能放大接收到的敵方信號,為分析和實施對抗策略提供有力支持。 衛(wèi)星通信:在衛(wèi)星通信中,A2CP12026 用于
    發(fā)表于 02-19 14:01

    #新年新氣象,大家新年快樂!#AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理(NLP)、計算機視覺、生成對抗網(wǎng)絡(luò)(GAN)等
    發(fā)表于 01-13 10:46

    AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理(NLP)、計算機視覺、生成對抗網(wǎng)絡(luò)(GAN)等
    發(fā)表于 01-13 10:32

    《具身智能機器人系統(tǒng)》第10-13章閱讀心得之具身智能機器人計算挑戰(zhàn)

    ,自動生成對抗樣本。我們可以對防御機制進行了系統(tǒng)化梳理:在數(shù)據(jù)層面,采用清洗和過濾去除惡意樣本;在模型層面,通過知識蒸餾壓縮潛在攻擊面;在訓練層面,引入對抗樣本增強模型魯棒性。這些多層次的防御措施形成
    發(fā)表于 01-04 01:15

    XIO2000A實施指南

    電子發(fā)燒友網(wǎng)站提供《XIO2000A實施指南.pdf》資料免費下載
    發(fā)表于 12-23 15:15 ?0次下載
    XIO2000A<b class='flag-5'>實施</b>指南

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應用大模型

    在客服領(lǐng)域是大模型落地場景中最多的,也是最容易實現(xiàn)的。本身客服領(lǐng)域的特點就是問答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書,學習大模型在客服領(lǐng)域的改變。選擇大模型客服時,需要綜合考慮
    發(fā)表于 12-17 16:53

    網(wǎng)絡(luò)攻擊中常見的掩蓋真實IP的攻擊方式

    在各類網(wǎng)絡(luò)攻擊中,掩蓋真實IP進行攻擊是常見的手段,因為攻擊者會通過這樣的手段來逃脫追蹤和法律監(jiān)管。我們需要對這類攻擊做出判斷,進而做出有效有力的防范措施。 虛假IP地址的替換 首先,
    的頭像 發(fā)表于 12-12 10:24 ?759次閱讀