chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于鏡像構(gòu)建關(guān)于θ的函數(shù),過擬合和L2正則化

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-07-09 08:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:如下圖所示,這是一個(gè)非?;A(chǔ)的分類問題:空間中存在兩個(gè)高維聚類(兩簇藍(lán)點(diǎn)),它們被一個(gè)超平面分離(橙線)。其中兩個(gè)白色圓點(diǎn)表示兩個(gè)聚類的質(zhì)心,它們到超平面的歐氏距離決定了模型的性能,而橙色虛線正是它們垂直的方向。

在這類線性分類問題中,通過調(diào)整L2正則化的水平,我們能不斷調(diào)整這個(gè)垂直方向的角度。但是,你能解釋這是為什么嗎?

許多研究已經(jīng)證實(shí),深層神經(jīng)網(wǎng)絡(luò)容易受對(duì)抗樣本影響。通過在圖像中加入一些細(xì)微擾動(dòng),分類模型會(huì)突然臉盲,開始指貓為狗、指男為女。如下圖所示,這是一個(gè)美國演員人臉分類器,輸入一張正常的Steve Carell圖像后,模型認(rèn)為照片是他本人的概率有0.95。但當(dāng)我們往他臉上稍微加了點(diǎn)料,他在模型眼里就成了女演員Zooey Deschanel。

這樣的結(jié)果令人憂心。首先,它挑戰(zhàn)了一個(gè)基礎(chǔ)共識(shí),即新數(shù)據(jù)的良好泛化和模型對(duì)小擾動(dòng)的穩(wěn)健性(魯棒性)是相互促進(jìn)的,上圖讓這個(gè)說法站不住腳。其次,它會(huì)對(duì)現(xiàn)實(shí)應(yīng)用構(gòu)成潛在威脅,去年11月,MIT的研究人員曾把擾動(dòng)添加到3D物品上,成功讓模型把海龜分類成槍支。鑒于這兩個(gè)原因,理解這種現(xiàn)象并提高神經(jīng)網(wǎng)絡(luò)的穩(wěn)健性已經(jīng)成為學(xué)界的一個(gè)重要研究目標(biāo)。

近年來,一些研究人員已經(jīng)探索了幾種方法,比如描述現(xiàn)象、提供理論分析和設(shè)計(jì)更強(qiáng)大的架構(gòu),對(duì)抗訓(xùn)練現(xiàn)在也已經(jīng)成了新的正則化技術(shù)。不幸的是,它們都沒能從根本上解決這個(gè)問題。面對(duì)這一困難,一種可行的思路是從最基礎(chǔ)的線性分類出發(fā),去逐步分解問題的復(fù)雜度。

玩具問題

在線性分類問題中,我們一般認(rèn)為對(duì)抗性擾動(dòng)就是高維空間中的點(diǎn)積。對(duì)此,一種非常普遍的說法是:我們可以在高維問題中對(duì)輸入進(jìn)行大量無限小的改變,從而使輸出發(fā)生巨變。但這種說法其實(shí)是有問題的。事實(shí)上,當(dāng)分類邊界靠近數(shù)據(jù)流形時(shí),對(duì)抗樣本依然存在——換句話說,它獨(dú)立于圖像空間維度。

建模

讓我們從一個(gè)最小的玩具問題開始:一個(gè)二維圖像空間,其中每個(gè)圖像都是關(guān)于a和b的函數(shù)。

在這個(gè)簡(jiǎn)單的圖像空間內(nèi),我們定義兩類圖像:

它們可以用無數(shù)個(gè)線性分類器進(jìn)行分類,比如下圖的Lθ:

由此我們可以提出第一個(gè)問題:如果所有線性分類器都能很好地分類I類圖像和J類圖像,那它們是否也能同樣穩(wěn)健地分類圖像擾動(dòng)?

投影和鏡像

假設(shè)x是I中的一張圖像,它距離J類圖像的最近距離是它到分類邊界的投影,也就是x到Lθ的垂直距離:

當(dāng)x和xp距離非常近時(shí),我們把xp看做x的一個(gè)對(duì)抗樣本。聯(lián)系第一個(gè)問題,顯然,xp被分類為I的置信度非常低,并不穩(wěn)健。那么有沒有置信度高的對(duì)抗樣本呢?在下圖中,我們根據(jù)之前的距離找到了x在J中的鏡像圖像xm:

不難理解,x和xm到分類邊界的距離是一樣的,它們的分類置信度也應(yīng)該相同。

基于鏡像構(gòu)建關(guān)于θ的函數(shù)

讓我們回到之前的玩具問題。有了圖像x和它的鏡像圖像xm,我們可以據(jù)此構(gòu)建一個(gè)包含θ的函數(shù)。

如上圖所示,x到xm的距離取決于分類邊界的夾角θ。我們來觀察一下它的兩個(gè)極值:

當(dāng)θ=0時(shí),Lθ沒有受到對(duì)抗樣本影響。x被分類為I的置信度很高,xm被分類為J的置信度也很高,我們可以輕松區(qū)分兩者。

當(dāng)θ→π/2時(shí),Lθ很明顯受到對(duì)抗樣本影響。x被分類為I的置信度很高,xm被分類為J的置信度也很高,但它們?cè)谝曈X上幾乎不可區(qū)分。

這就帶來了第二個(gè)問題:如果Lθ傾斜的越厲害,對(duì)抗樣本存在的幾率就越高,那事實(shí)上究竟是什么在影響Lθ?

過擬合和L2正則化

對(duì)于這個(gè)問題,本文的假設(shè)是標(biāo)準(zhǔn)線性模型,比如SVM、邏輯回歸,是因?yàn)檫^擬合訓(xùn)練集中的噪聲數(shù)據(jù)才導(dǎo)致過度傾斜的。Huan Xu等人在論文Robustness and Regularization of Support Vector Machines中的理論結(jié)果支持了這一假設(shè),認(rèn)為分類器的穩(wěn)健性和正則化有一定關(guān)聯(lián)。

要證明這一點(diǎn)不難,我們來做個(gè)實(shí)驗(yàn):L2正則化是否可以削弱對(duì)抗樣本的影響?

設(shè)訓(xùn)練集中存在一個(gè)噪聲數(shù)據(jù)點(diǎn)p:

如果我們用的算法是SVM或邏輯回歸,最后可能會(huì)觀察到這兩種情況。

分類邊界嚴(yán)重傾斜(無L2正則化)。為了盡量擬合數(shù)據(jù)點(diǎn),分類邊界會(huì)努力傾斜,讓模型最終能準(zhǔn)確分類p。這時(shí)分類器是過擬合的,也更易于受到對(duì)抗樣本影響。

分類邊界不傾斜(L2正則化)。L2正則化防止過擬合的思路是允許一小部分?jǐn)?shù)據(jù)被分類錯(cuò)誤,如噪聲數(shù)據(jù)p。忽略它后,分類器在面對(duì)對(duì)抗樣本時(shí)更穩(wěn)健了。

看到這里,也許有人會(huì)有異議:上述數(shù)據(jù)是二維的,它和高維數(shù)據(jù)又有什么關(guān)系?

線性分類中的對(duì)抗樣本

之前我們得出了兩個(gè)結(jié)論:(1)分類邊界越靠近數(shù)據(jù)流形,越容易出現(xiàn)對(duì)抗樣本;(2)L2正則化可以控制邊界的傾斜角度。雖然都是基于二維圖像空間提出的,但對(duì)于一般情況,它們實(shí)際上都是成立的。

縮放損失函數(shù)

讓我們從最簡(jiǎn)單的開始。L2正則化就是在損失函數(shù)后再加一個(gè)正則化項(xiàng),不同于L1把權(quán)重往0靠,L2正則化的權(quán)重向量是不斷下降的,因此它也被稱為權(quán)重衰減。

建模

設(shè)I和J為高維圖像空間Rd中的兩類圖像,C為線性分類器輸出的超平面邊界,它和權(quán)重向量w和偏置項(xiàng)b有關(guān)。x是Rd中的一幅圖,則x到C的原始得分為:

這個(gè)原始得分其實(shí)是x關(guān)于C的符號(hào)距離(signed distance,帶正負(fù)號(hào)):

設(shè)存在一個(gè)包含n對(duì)(x,y)的訓(xùn)練集T,其中x是圖像樣本,當(dāng)x∈I時(shí),y=-1;當(dāng)x∈J時(shí),y=1。下面是T的三種分布:

分類器C的期望風(fēng)險(xiǎn)R(w,b),就是對(duì)訓(xùn)練集T的平均懲罰:

通常情況下,我們訓(xùn)練線性分類器時(shí)會(huì)用合適的損失函數(shù)f找到權(quán)重向量w和偏置項(xiàng)b,使R(w,b)最小。在一般二元分類問題中,下面是三個(gè)值得關(guān)注的損失函數(shù):

如上圖所示,對(duì)于第一個(gè)損失函數(shù),分類器的期望風(fēng)險(xiǎn)就是它的分類錯(cuò)誤率。從某種意義上來說,這個(gè)損失函數(shù)是最理想的,因?yàn)槲覀冎恍枳钚』`差就能達(dá)成目標(biāo)。但它的缺點(diǎn)是導(dǎo)數(shù)始終為0,我們不能在這個(gè)基礎(chǔ)上用梯度下降。

事實(shí)上,上述問題現(xiàn)在已經(jīng)被解決了,一些線性回歸模型使用改進(jìn)版損失函數(shù),比如SVM的hinge loss和邏輯回歸的softplus loss。它們不再繼續(xù)在分類錯(cuò)誤數(shù)據(jù)上使用固定懲罰項(xiàng),而是用了一個(gè)嚴(yán)格遞減的懲罰項(xiàng)。作為代價(jià),這些損失函數(shù)也會(huì)給正確分類的數(shù)據(jù)帶去副作用,但最終能保證找出一個(gè)較為準(zhǔn)確的分類邊界。

縮放參數(shù)‖w‖

之前介紹符號(hào)距離s(x)時(shí),我們沒有詳細(xì)說明它的縮放參數(shù)w。如果d(x)是x到C的歐氏距離,我們有:

因此,‖w‖也可以被看作損失函數(shù)的縮放參數(shù):

也就是:f‖w‖:z→f(‖w‖×z) 。

可以發(fā)現(xiàn),這個(gè)縮放對(duì)之前提到的第一個(gè)損失函數(shù)沒有影響,但對(duì)hinge loss和softplus loss卻影響劇烈。

值得注意的是,對(duì)于縮放參數(shù)的極值,后兩個(gè)損失函數(shù)變化一致。

更確切地說,兩種損失函數(shù)都滿足:

方便起見,我們將錯(cuò)誤分類的數(shù)據(jù)定義為:

所以期望風(fēng)險(xiǎn)可以被改寫成:

這個(gè)表達(dá)式包含了一個(gè)我們稱之為“誤差距離”的概念:

它是正的,可以解釋為每個(gè)訓(xùn)練樣本被C錯(cuò)誤分類的平均距離(對(duì)正確分類數(shù)據(jù)的貢獻(xiàn)為零)。它與訓(xùn)練誤差有關(guān),但不完全等同。

最后,我們可以得到:

換句話說,當(dāng)‖w‖足夠大時(shí),最小化hinge loss和softplus loss的期望風(fēng)險(xiǎn)就等于最小化誤差距離,也就是最小化訓(xùn)練集上的錯(cuò)誤率。

小結(jié)

綜上所述,通過在損失函數(shù)后加上正則化項(xiàng),我們能控制‖w‖的值,從而輸出正則化的損失。

一個(gè)較小的正則化參數(shù)λ會(huì)讓‖w‖失控增大,一個(gè)較大的λ會(huì)讓‖w‖縮小。

總之,線性分類(SVM和邏輯回歸)中使用的兩個(gè)標(biāo)準(zhǔn)模型在兩個(gè)目標(biāo)之間取得平衡:它們?cè)谡齽t化參數(shù)低時(shí)最小化誤差距離,并且在正則化系數(shù)高時(shí)最大化對(duì)抗距離。

對(duì)抗距離和傾斜角度

看到這里,我們又接觸了一個(gè)新詞——“對(duì)抗距離”——對(duì)抗性擾動(dòng)的穩(wěn)健性的度量。和之前二維圖像空間的例子一樣,它可以表示為包含單個(gè)參數(shù)的函數(shù),這個(gè)參數(shù)即分類邊界和最近的質(zhì)心分類器之間的角度。

對(duì)于訓(xùn)練集T,如果我們按圖像類別I和J把它分成TI和TJ,我們可以得到:

如果TI和TJ是均等的(n=2nI=2nJ):

設(shè)TI和TJ的質(zhì)心分別是i和j:

現(xiàn)在有一個(gè)離分類邊界最近的質(zhì)心分類器,它的法向量是z^=(j?i)/‖j?i‖:

最后,我們將包含w^和z^的平面稱為C的傾斜平面,我們稱之為w^和z^之間的夾角θ為C的傾斜角度:

這個(gè)等式的幾何含義如下圖所示:

綜合以上推算,在給定訓(xùn)練集T上,如果兩個(gè)質(zhì)心‖j?i‖之間的距離是個(gè)固定值,那對(duì)抗距離dadv僅取決于傾斜角θ。通俗地講:

當(dāng)θ=0時(shí),對(duì)抗距離最大,對(duì)抗樣本影響最小;

當(dāng)θ→π/2時(shí),對(duì)抗距離最小,對(duì)抗樣本對(duì)分類器的影響最大。

最后的話

盡管對(duì)抗樣本已經(jīng)被研究了很多年,盡管它在理論和實(shí)踐中都對(duì)機(jī)器學(xué)習(xí)領(lǐng)域具有重要意義,但學(xué)界對(duì)它的研究還非常有限,它對(duì)很多人來說還是個(gè)迷。這篇文章給出了線性模型下對(duì)抗樣本的生成情況,希望能給對(duì)這方面感興趣的新人提供一定見解。

可惜的是,現(xiàn)實(shí)并沒有文章描述的這么簡(jiǎn)單,隨著數(shù)據(jù)集變大、神經(jīng)網(wǎng)絡(luò)不斷加深,對(duì)抗樣本也正變得越來越復(fù)雜。根據(jù)我們的經(jīng)驗(yàn),模型包含的非線性因素越多,權(quán)重衰減似乎就越有用。這個(gè)發(fā)現(xiàn)可能只是淺層次的,但更深層次的內(nèi)容將交給不斷涌現(xiàn)的新人來解決。可以肯定的一點(diǎn)是,如果要對(duì)這個(gè)困難給出一個(gè)令人信服的解決方案,我們需要在深度學(xué)習(xí)中見證一種新的革命性觀念的誕生。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103636
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41269
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13451

原文標(biāo)題:L2正則化視角下的對(duì)抗樣本

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)中避免擬合5種方法介紹

    丟棄法是一種避免神經(jīng)網(wǎng)絡(luò)擬合正則技術(shù)。像L1和L2這樣的
    發(fā)表于 02-04 11:30 ?2.5w次閱讀
    神經(jīng)網(wǎng)絡(luò)中避免<b class='flag-5'>過</b><b class='flag-5'>擬合</b>5種方法介紹

    關(guān)于labview擬合函數(shù)再利用問題

    關(guān)于labview擬合函數(shù)的問題,具體描述如下:比如說有關(guān)于X,Y兩組對(duì)應(yīng)的數(shù)據(jù),現(xiàn)在把X作為x坐標(biāo)軸,Y作為y坐標(biāo)軸擬合
    發(fā)表于 04-19 15:06

    權(quán)值衰減和L2正則是一個(gè)東西嗎?

    權(quán)值衰減和L2正則,到底是不是同一個(gè)東西,這篇文章給你答案。
    發(fā)表于 01-25 06:14

    Matlab數(shù)據(jù)擬合基礎(chǔ)函數(shù)的使用

    Matlab數(shù)據(jù)擬合基礎(chǔ)函數(shù)的使用,教你如何擬合兩個(gè)未知量
    發(fā)表于 11-10 16:45 ?0次下載

    L2交換和VLAN原理和配置

    L2交換和VLAN原理和配置
    發(fā)表于 12-15 22:18 ?3次下載

    擬合的概念和用幾種用于解決擬合問題的正則方法

    由于添加了這個(gè)正則項(xiàng),各權(quán)值被減小了,換句話說,就是神經(jīng)網(wǎng)絡(luò)的復(fù)雜度降低了,結(jié)合“網(wǎng)絡(luò)有多復(fù)雜,擬合就有多容易”的思想,從理論上來說,這樣做等于直接防止
    的頭像 發(fā)表于 04-27 15:23 ?1.6w次閱讀
    <b class='flag-5'>過</b><b class='flag-5'>擬合</b>的概念和用幾種用于解決<b class='flag-5'>過</b><b class='flag-5'>擬合</b>問題的<b class='flag-5'>正則</b><b class='flag-5'>化</b>方法

    【連載】深度學(xué)習(xí)筆記4:深度神經(jīng)網(wǎng)絡(luò)的正則

    今天要寫的是關(guān)于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中的一項(xiàng)關(guān)鍵技術(shù):正則。相信在機(jī)器學(xué)習(xí)領(lǐng)域摸爬滾打多年的你一定知道正則是防止模型
    的頭像 發(fā)表于 08-14 11:58 ?3603次閱讀

    【連載】深度學(xué)習(xí)筆記5:正則與dropout

    ? ? ? 在筆記 4 中,詳細(xì)闡述了機(jī)器學(xué)習(xí)中利用正則防止擬合的基本方法,對(duì) L1 和 L2
    的頭像 發(fā)表于 08-20 12:47 ?3500次閱讀

    深度學(xué)習(xí)筆記5:正則與dropout

    ? ? ? 在筆記 4 中,詳細(xì)闡述了機(jī)器學(xué)習(xí)中利用正則防止擬合的基本方法,對(duì) L1 和 L2
    的頭像 發(fā)表于 08-24 18:31 ?4099次閱讀

    擬合擬合是什么?解決方法總結(jié)

    擬合是指模型在訓(xùn)練集上表現(xiàn)很好,到了驗(yàn)證和測(cè)試階段就大不如意了,即模型的泛能力很差。
    的頭像 發(fā)表于 01-29 17:48 ?3.2w次閱讀
    欠<b class='flag-5'>擬合</b>和<b class='flag-5'>過</b><b class='flag-5'>擬合</b>是什么?解決方法總結(jié)

    詳解機(jī)器學(xué)習(xí)和深度學(xué)習(xí)常見的正則

    說到正則大家應(yīng)該都不陌生,這個(gè)在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都是非常常見的,常用的正則L1正則
    的頭像 發(fā)表于 01-29 17:52 ?2581次閱讀
    詳解機(jī)器學(xué)習(xí)和深度學(xué)習(xí)常見的<b class='flag-5'>正則</b><b class='flag-5'>化</b>

    權(quán)值衰減和L2正則傻傻分不清楚?本文來教會(huì)你如何分清

    神經(jīng)網(wǎng)絡(luò)是偉大的函數(shù)逼近器和特征提取器,但有時(shí)它們的權(quán)值變得過于特定,導(dǎo)致擬合。這就是正則
    的頭像 發(fā)表于 01-21 01:54 ?1213次閱讀
    權(quán)值衰減和<b class='flag-5'>L2</b><b class='flag-5'>正則</b><b class='flag-5'>化</b>傻傻分不清楚?本文來教會(huì)你如何分清

    權(quán)值衰減和L2正則傻傻分不清楚?

    神經(jīng)網(wǎng)絡(luò)是偉大的函數(shù)逼近器和特征提取器,但有時(shí)它們的權(quán)值變得過于特定,導(dǎo)致擬合。這就是正則
    發(fā)表于 01-23 07:16 ?9次下載
    權(quán)值衰減和<b class='flag-5'>L2</b><b class='flag-5'>正則</b><b class='flag-5'>化</b>傻傻分不清楚?

    正則方法DropKey: 兩行代碼高效緩解視覺Transformer擬合

    美圖影像研究院(MT Lab)與中國科學(xué)院大學(xué)在 CVPR 2023 上發(fā)表了一篇文章,提出一種新穎且即插即用的正則器 DropKey,該正則器可以有效緩解 Vision Tran
    的頭像 發(fā)表于 04-17 11:35 ?1563次閱讀

    深度學(xué)習(xí)模型中的擬合正則

    測(cè)試數(shù)據(jù)或新數(shù)據(jù)上表現(xiàn)不佳的現(xiàn)象。為了解決這個(gè)問題,正則(Regularization)技術(shù)應(yīng)運(yùn)而生,成為深度學(xué)習(xí)中不可或缺的一部分。本文將從擬合的原因、表現(xiàn)、
    的頭像 發(fā)表于 07-09 15:56 ?1895次閱讀