chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

表示學(xué)習(xí)中7大損失函數(shù)的發(fā)展歷程及設(shè)計(jì)思路

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:圓圓的算法筆記 ? 作者:Fareise ? 2022-07-08 14:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

表示學(xué)習(xí)的目的是將原始數(shù)據(jù)轉(zhuǎn)換成更好的表達(dá),以提升下游任務(wù)的效果。在表示學(xué)習(xí)中,損失函數(shù)的設(shè)計(jì)一直是被研究的熱點(diǎn)。損失指導(dǎo)著整個(gè)表示學(xué)習(xí)的過(guò)程,直接決定了表示學(xué)習(xí)的效果。這篇文章總結(jié)了表示學(xué)習(xí)中的7大損失函數(shù)的發(fā)展歷程,以及它們演進(jìn)過(guò)程中的設(shè)計(jì)思路,主要包括contrastive loss、triplet loss、n-pair loss、infoNce loss、focal loss、GHM loss、circle loss。

1. Contrastive Loss

Dimensionality Reduction by Learning an Invariant Mapping(CVPR 2006)提出contrastive loss,模型中輸入兩個(gè)樣本,經(jīng)過(guò)相同的編碼器得到兩個(gè)樣本的編碼。如果兩個(gè)樣本屬于同一類(lèi)別,則優(yōu)化目標(biāo)為讓兩個(gè)樣本在某個(gè)空間內(nèi)的距離??;如果兩個(gè)樣本不屬于同一類(lèi)別,并且兩個(gè)樣本之間的距離小于一個(gè)超參數(shù)m,則優(yōu)化目標(biāo)為讓兩個(gè)樣本距離接近m。損失函數(shù)可以表示為:

b2c16bd0-e8a5-11ec-ba43-dac502259ad0.png

Contrastive Loss是后面很多表示學(xué)習(xí)損失函數(shù)的基礎(chǔ),通過(guò)這種對(duì)比的方式,讓模型生成的表示滿(mǎn)足相似樣本距離近,不同樣本距離遠(yuǎn)的條件,實(shí)現(xiàn)更高質(zhì)量的表示生成。

2. Triplet Loss

FaceNet: A unified embedding for face recognition and clustering(CVPR 2015)提出triplet loss,計(jì)算triplet loss需要比較3個(gè)樣本,這3個(gè)樣本分別為anchor、position和negtive。其目標(biāo)為讓anchor和positive樣本(類(lèi)別相同)的距離盡可能近,而和negtive樣本(類(lèi)別不同)的距離盡可能遠(yuǎn)。因此triplet loss設(shè)計(jì)為,讓anchor和positive樣本之間的距離比anchor和negtive樣本要小,并且要小至少一個(gè)margin的距離才不計(jì)入loss。

b31439dc-e8a5-11ec-ba43-dac502259ad0.png

b3366f34-e8a5-11ec-ba43-dac502259ad0.png

3. N-pair Loss

Improved Deep Metric Learning with Multi-class N-pair Loss Objective(NIPS 2016)提出N-pairLoss。在之前提出的contrastive loss和triplet loss中,每次更新只會(huì)使用一個(gè)負(fù)樣本,而無(wú)法見(jiàn)到多種其他類(lèi)型負(fù)樣本信息,因此模型優(yōu)化過(guò)程只會(huì)保證當(dāng)前樣本的embedding和被采樣的負(fù)樣本距離遠(yuǎn),無(wú)法保證和所有類(lèi)型的負(fù)樣本都遠(yuǎn),會(huì)影響模型收斂速度和效果。即使多輪更新,但是這種情況仍然會(huì)導(dǎo)致每輪更新的不穩(wěn)定性,導(dǎo)致學(xué)習(xí)過(guò)程持續(xù)震蕩。

為了解決這個(gè)問(wèn)題,讓模型在每輪更新中見(jiàn)到更多的負(fù)樣本,本文提出了N-pair loss,主要改進(jìn)是每次更新的時(shí)候會(huì)使用多個(gè)負(fù)樣本的信息。N-pair loss可以看成是一種triplet loss的擴(kuò)展,兩個(gè)的關(guān)系如下圖,當(dāng)我們有1個(gè)正樣本和N-1個(gè)負(fù)樣本時(shí),N-pair loss的計(jì)算方式:

b3501f74-e8a5-11ec-ba43-dac502259ad0.png

b3677444-e8a5-11ec-ba43-dac502259ad0.png

擴(kuò)大負(fù)樣本數(shù)量的問(wèn)題在于,原來(lái)每個(gè)batch內(nèi)只需要計(jì)算N*3個(gè)樣本,現(xiàn)在需要計(jì)算N*(N+1)個(gè)樣本,運(yùn)算量大幅度提高,難以實(shí)現(xiàn)。為了解決這個(gè)問(wèn)題,文中提出將一個(gè)batch內(nèi)不同樣本的負(fù)樣本數(shù)據(jù)共享,這樣只需要計(jì)算3*N個(gè)樣本的embedding即可,實(shí)現(xiàn)了效率提升。

b38b6188-e8a5-11ec-ba43-dac502259ad0.png

4. InfoNceLoss

Representation learning with contrastive predictive coding(2018)提出infoNce loss,是對(duì)比學(xué)習(xí)中最常用的loss之一,它和softmax的形式很相似,主要目標(biāo)是給定一個(gè)query,以及k個(gè)樣本,k個(gè)樣本中有一個(gè)是和query匹配的正樣本,其他都是負(fù)樣本。當(dāng)query和正樣本相似,并且和其他樣本都不相似時(shí),loss更小。InfoNCE loss可以表示為如下形式,其中r代表temperature,采用內(nèi)積的形式度量?jī)蓚€(gè)樣本生成向量的距離,InfoNCE loss也是近兩年比較火的對(duì)比學(xué)習(xí)中最常用的損失函數(shù)之一:

b3b6b7ca-e8a5-11ec-ba43-dac502259ad0.png

相比softmax,InfoNCE loss使用了temperature參數(shù),以此將樣本的差距拉大,提升模型的收斂速度。

5. Focal Loss

Focal Loss for Dense Object Detection(2018)提出Focal Loss,最開(kāi)始主要是為了解決目標(biāo)檢測(cè)中的問(wèn)題,但是在很多其他領(lǐng)域也可以適用。Focal Loss解決的核心問(wèn)題是,當(dāng)數(shù)據(jù)中有很多容易學(xué)習(xí)的樣本和較少的難學(xué)習(xí)樣本時(shí),如何調(diào)和難易樣本的權(quán)重。如果數(shù)據(jù)中容易的樣本很多,難的樣本很少,容易的樣本就會(huì)對(duì)主導(dǎo)整體loss,對(duì)難樣本區(qū)分能力弱。

為了解決這個(gè)問(wèn)題,F(xiàn)ocal Loss根據(jù)模型對(duì)每個(gè)樣本的打分結(jié)果給該樣本的loss設(shè)置一個(gè)權(quán)重,減小容易學(xué)的樣本(即模型打分置信的樣本)的loss權(quán)重。在交叉熵的基礎(chǔ)上,公式可以表示如下:

b3d558d8-e8a5-11ec-ba43-dac502259ad0.png

b41f579e-e8a5-11ec-ba43-dac502259ad0.png

b44595c6-e8a5-11ec-ba43-dac502259ad0.png

其中pt表示,當(dāng)label為1時(shí)模型的預(yù)測(cè)值,當(dāng)label為0時(shí)1-模型的預(yù)測(cè)值。通過(guò)對(duì)這個(gè)loss公式的分析可以看出,對(duì)于label為1的樣本,且模型預(yù)測(cè)值接近1,這個(gè)時(shí)候該樣本分類(lèi)正確且容易預(yù)測(cè),則第一項(xiàng)權(quán)重接近0,顯著減小了這種易分類(lèi)樣本的loss權(quán)重。當(dāng)label為0,模型預(yù)測(cè)值接近1時(shí),屬于預(yù)測(cè)錯(cuò)誤,loss的權(quán)重也是接近1的,對(duì)該樣本的loss基本沒(méi)有影響。

6. GHM Loss

在Focal Loss中強(qiáng)制讓模型關(guān)注難分類(lèi)的樣本,但是數(shù)據(jù)中可能也存在一些異常點(diǎn),過(guò)度關(guān)注這些難分類(lèi)樣本,反而會(huì)讓模型效果變差。Gradient Harmonized Single-stage Detector(AAAI 2019)提出了GHM Loss,

首先分析了一個(gè)收斂的目標(biāo)檢測(cè)模型中,所有樣本梯度模長(zhǎng)的分布情況。梯度模長(zhǎng)衡量了一個(gè)樣本對(duì)模型梯度的影響大?。ú豢紤]方向),反映了一個(gè)樣本的難以程度,g越大模型因?yàn)榇藰颖拘枰碌奶荻仍酱?,預(yù)測(cè)難度越大?;诮徊骒睾湍P洼敵?,梯度模長(zhǎng)g定義如下:

b469321a-e8a5-11ec-ba43-dac502259ad0.png

b49ddbdc-e8a5-11ec-ba43-dac502259ad0.png

一個(gè)收斂的目標(biāo)檢測(cè)模型的梯度模長(zhǎng)分布如下,簡(jiǎn)單樣本(即g很小的樣本)占絕大多數(shù),這部分樣本是我們希望減小其loss權(quán)重的;同時(shí)還有很多難樣本,它們的g非常大,這部分可以被視作異常點(diǎn),因?yàn)樗鼈兊奶荻炔环洗蠖鄶?shù)樣本,對(duì)于這部分極難樣本也應(yīng)該減小權(quán)重。

b4c0313c-e8a5-11ec-ba43-dac502259ad0.png

為了同時(shí)減小易學(xué)習(xí)樣本和異常點(diǎn)樣本的權(quán)重,文中引入了梯度密度的概念(GD),衡量單位梯度模長(zhǎng)的樣本密度。這個(gè)梯度密度用來(lái)作為交叉熵loss中的樣本權(quán)重,公式如下:

b4f887d0-e8a5-11ec-ba43-dac502259ad0.png

上面右側(cè)的圖對(duì)比了各種loss對(duì)不同梯度模長(zhǎng)樣本的影響情況,可以看到GHM對(duì)于簡(jiǎn)單樣本和困難樣本都進(jìn)行了一定的loss抑制,而Focal Loss只能對(duì)簡(jiǎn)單樣本進(jìn)行l(wèi)oss抑制,普通loss對(duì)這兩類(lèi)樣本都沒(méi)有抑制作用。

7. Circle Loss

Circle Loss: A Unified Perspective of Pair Similarity Optimization(CVPR 2020)提出circle loss,從一個(gè)統(tǒng)一的視角融合了class-level loss和pair-wise loss。這兩種優(yōu)化目標(biāo),其實(shí)都是在最小化sn-sp,其中sn表示between-class similarity,即不同類(lèi)別的樣本表示距離應(yīng)該盡可能大;sp表示within-class similarity,即相同類(lèi)別的樣本表示距離盡可能小。因此,兩種類(lèi)型的loss都可以寫(xiě)成如下統(tǒng)一形式:

b5231888-e8a5-11ec-ba43-dac502259ad0.png

基于sn-sp這種loss存在的問(wèn)題是,優(yōu)化過(guò)程中對(duì)sn和sp的懲罰力度是一樣的。例如下面左圖中,A點(diǎn)的sn已經(jīng)很小了,滿(mǎn)足要求了,而sp還不夠大,sn-sp這種優(yōu)化方法讓sn和sp的更新幅度相同。而更好的方法是多更新一些sp,少更新一些sn。此外,這種loss在優(yōu)化過(guò)程中也會(huì)導(dǎo)致模棱兩可的情況,導(dǎo)致收斂狀態(tài)不明確。例如T和T'這兩個(gè)點(diǎn),都滿(mǎn)足給定margin的情況下的優(yōu)化目標(biāo),但卻存在不同的優(yōu)化點(diǎn)。

b54a1e4c-e8a5-11ec-ba43-dac502259ad0.png

為了解決這個(gè)問(wèn)題,circle loss在sn和sp分別增加了權(quán)重,用來(lái)動(dòng)態(tài)確定sn和sp更新的力度,實(shí)現(xiàn)sn和sp以不同步調(diào)學(xué)習(xí),circle loss的公式如下。當(dāng)sn或sp相似度結(jié)果距離各自的最優(yōu)點(diǎn)較遠(yuǎn)時(shí),會(huì)以一個(gè)更大的權(quán)重進(jìn)行更新。同時(shí),在這種情況下loss不再是對(duì)稱(chēng)的,需要對(duì)sn和sp分別引入各自的margin。

b57cc478-e8a5-11ec-ba43-dac502259ad0.png

8. 總結(jié)

損失函數(shù)是影響表示學(xué)習(xí)效果的關(guān)鍵因素之一,本文介紹了表示學(xué)習(xí)中7大損失函數(shù)的發(fā)展歷程,核心思路都是通過(guò)對(duì)比的方式約束模型生成的表示滿(mǎn)足相似樣本距離近,不同樣本距離遠(yuǎn)的原則。 審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3874

    瀏覽量

    140508

原文標(biāo)題:表示學(xué)習(xí)中的7大損失函數(shù)梳理

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    寶馬集團(tuán)車(chē)載總線技術(shù)的發(fā)展歷程

    在汽車(chē)電子架構(gòu)的演進(jìn)歷程,寶馬集團(tuán)始終扮演著技術(shù)先鋒的角色。隨著城市化進(jìn)程的加快和技術(shù)日益發(fā)展,寶馬從早期簡(jiǎn)單的LIN總線到如今高性能的CANFD總線,寶馬通過(guò)不斷創(chuàng)新,推動(dòng)了車(chē)載通信技術(shù)的迭代
    的頭像 發(fā)表于 07-25 14:12 ?1880次閱讀

    鴻蒙發(fā)展歷程

    【HarmonyOS 5】鴻蒙發(fā)展歷程 ##鴻蒙開(kāi)發(fā)能力 ##HarmonyOS SDK應(yīng)用服務(wù)##鴻蒙金融類(lèi)應(yīng)用 (金融理財(cái)# 一、鴻蒙 HarmonyOS 版本年代記 鴻蒙 1.0: 2019
    的頭像 發(fā)表于 07-07 11:41 ?1200次閱讀

    為什么中斷回調(diào)函數(shù)不能使用接收中斷開(kāi)啟函數(shù)

    我看(書(shū)是基于stm32f407編寫(xiě))書(shū)上說(shuō)在串口接收中斷回調(diào)函數(shù)里面不能使用 接收中斷開(kāi)啟函數(shù),書(shū)上是利用自己創(chuàng)建了空閑中斷回調(diào)函數(shù),在這里面在進(jìn)行數(shù)據(jù)接收以及再次開(kāi)啟接收中斷,但是我看網(wǎng)上好例
    發(fā)表于 05-28 07:19

    為什么中斷回調(diào)函數(shù)不能使用接收中斷開(kāi)啟函數(shù)

    我看(書(shū)是基于stm32f407編寫(xiě))書(shū)上說(shuō)在串口接收中斷回調(diào)函數(shù)里面不能使用 接收中斷開(kāi)啟函數(shù),書(shū)上是利用自己創(chuàng)建了空閑中斷回調(diào)函數(shù),在這里面在進(jìn)行數(shù)據(jù)接收以及再次開(kāi)啟接收中斷,但是我看網(wǎng)上好例
    發(fā)表于 04-22 08:19

    詳解RTOS的Hook函數(shù)

    Hook函數(shù)是RTOS的一個(gè)關(guān)鍵特性,通過(guò)該函數(shù),用戶(hù)可以增強(qiáng)對(duì)任務(wù)管理的控制,定義系統(tǒng)行為。
    的頭像 發(fā)表于 03-24 16:14 ?680次閱讀

    集成電路和光子集成技術(shù)的發(fā)展歷程

    本文介紹了集成電路和光子集成技術(shù)的發(fā)展歷程,并詳細(xì)介紹了鈮酸鋰光子集成技術(shù)和硅和鈮酸鋰復(fù)合薄膜技術(shù)。
    的頭像 發(fā)表于 03-12 15:21 ?1213次閱讀
    集成電路和光子集成技術(shù)的<b class='flag-5'>發(fā)展</b><b class='flag-5'>歷程</b>

    PID發(fā)展趨勢(shì)分析

    摘要:文檔簡(jiǎn)要回顧了 PID 控制器的發(fā)展歷程,綜述了 PID 控制的基礎(chǔ)理論。對(duì) PID 控制今后的發(fā)展進(jìn)行了展望。重點(diǎn)介紹了比例、積分、微分基本控制規(guī)律,及其優(yōu)、缺點(diǎn)。關(guān)鍵詞:P
    發(fā)表于 02-26 15:27

    藍(lán)牙技術(shù)的發(fā)展歷程和工作原理

    你是否曾經(jīng)想過(guò),手機(jī)、耳機(jī)、鍵盤(pán)等設(shè)備之間是如何實(shí)現(xiàn)無(wú)線連接的?這一切都離不開(kāi)一項(xiàng)重要的技術(shù)——藍(lán)牙。本文將帶你一起探索藍(lán)牙技術(shù)的發(fā)展歷程,了解這項(xiàng)技術(shù)如何從初代發(fā)展到5.0版本,以及它在我們?nèi)粘I?/div>
    的頭像 發(fā)表于 01-10 15:29 ?2962次閱讀

    LP-SCADA的發(fā)展歷程和應(yīng)用行業(yè)?

    關(guān)鍵字:LP-SCADA,藍(lán)鵬測(cè)控系統(tǒng), 藍(lán)鵬SCADA, LP-SCADA, 藍(lán)鵬測(cè)控系統(tǒng), 藍(lán)鵬測(cè)量軟件,獨(dú)立SCADA系統(tǒng) LP-SCADA的發(fā)展歷程 LP-SCADA系統(tǒng)是藍(lán)鵬測(cè)控(保定市藍(lán)
    發(fā)表于 12-05 13:57

    工業(yè)自動(dòng)化的發(fā)展歷程與未來(lái)趨勢(shì)

    工業(yè)自動(dòng)化(Industrial Automation)的發(fā)展旨在提升生產(chǎn)效率、降低成本并減少人力依賴(lài),這一過(guò)程涵蓋了多種技術(shù)的應(yīng)用與進(jìn)步。工業(yè)自動(dòng)化的核心在于將工廠的機(jī)械設(shè)備、控制系統(tǒng)及信息技術(shù)
    的頭像 發(fā)表于 11-21 15:36 ?2047次閱讀

    【每天學(xué)點(diǎn)AI】前向傳播、損失函數(shù)、反向傳播

    在深度學(xué)習(xí)的領(lǐng)域中,前向傳播、反向傳播和損失函數(shù)是構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的三個(gè)核心概念。今天,小編將通過(guò)一個(gè)簡(jiǎn)單的實(shí)例,解釋這三個(gè)概念,并展示它們的作用。前向傳播:神經(jīng)網(wǎng)絡(luò)的“思考”過(guò)程前向傳播
    的頭像 發(fā)表于 11-15 10:32 ?1477次閱讀
    【每天學(xué)點(diǎn)AI】前向傳播、<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>、反向傳播

    RNN的損失函數(shù)與優(yōu)化算法解析

    RNN的損失函數(shù) RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))在處理序列數(shù)據(jù)的過(guò)程,損失函數(shù)(Loss Function)扮演著重要的角色,它可以測(cè)量模型在訓(xùn)練
    的頭像 發(fā)表于 11-15 10:16 ?1685次閱讀

    YOLOv8損失函數(shù)解析

    YOLO長(zhǎng)期以來(lái)一直是目標(biāo)檢測(cè)任務(wù)的首選模型之一。它既快速又準(zhǔn)確。此外,其API簡(jiǎn)潔易用。運(yùn)行訓(xùn)練或推斷作業(yè)所需的代碼行數(shù)有限。在2023年下半年,YOLOv8在框架引入了姿態(tài)估計(jì)后,該框架現(xiàn)在支持最多四個(gè)任務(wù),包括分類(lèi)、目標(biāo)檢測(cè)、實(shí)例分割和姿態(tài)估計(jì)。
    的頭像 發(fā)表于 11-05 17:15 ?4659次閱讀
    YOLOv8<b class='flag-5'>中</b>的<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>解析

    RTOS鉤子函數(shù)的用途及用法

    在很多操作系統(tǒng),都存在這樣一類(lèi)API函數(shù)接口:HOOK函數(shù)(也叫鉤子函數(shù))。
    的頭像 發(fā)表于 10-23 16:25 ?1015次閱讀
    RTOS<b class='flag-5'>中</b>鉤子<b class='flag-5'>函數(shù)</b>的用途及用法

    語(yǔ)義分割25種損失函數(shù)綜述和展望

    語(yǔ)義圖像分割,即將圖像的每個(gè)像素分類(lèi)到特定的類(lèi)別,是許多視覺(jué)理解系統(tǒng)的重要組成部分。作為評(píng)估統(tǒng)計(jì)模型性能的主要標(biāo)準(zhǔn),損失函數(shù)對(duì)于塑造基
    的頭像 發(fā)表于 10-22 08:04 ?1982次閱讀
    語(yǔ)義分割25種<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>綜述和展望