chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

半監(jiān)督學(xué)習(xí)最基礎(chǔ)的3個概念

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:Neeraj varshney ? 2020-11-02 16:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

今天給大家介紹半監(jiān)督學(xué)習(xí)中的3個最基礎(chǔ)的概念:一致性正則化,熵最小化和偽標(biāo)簽,并介紹了兩個經(jīng)典的半監(jiān)督學(xué)習(xí)方法。

沒看一的點這里哈:半監(jiān)督學(xué)習(xí)入門基礎(chǔ)(一)

半監(jiān)督學(xué)習(xí) (SSL) 是一種非常有趣的方法,用來解決機器學(xué)習(xí)中缺少標(biāo)簽數(shù)據(jù)的問題。SSL利用未標(biāo)記的數(shù)據(jù)和標(biāo)記的數(shù)據(jù)集來學(xué)習(xí)任務(wù)。SSL的目標(biāo)是得到比單獨使用標(biāo)記數(shù)據(jù)訓(xùn)練的監(jiān)督學(xué)習(xí)模型更好的結(jié)果。這是關(guān)于半監(jiān)督學(xué)習(xí)的系列文章的第2部分,詳細(xì)介紹了一些基本的SSL技術(shù)。

一致性正則化,熵最小化,偽標(biāo)簽

SSL的流行方法是在訓(xùn)練期間往典型的監(jiān)督學(xué)習(xí)中添加一個新的損失項。通常使用三個概念來實現(xiàn)半監(jiān)督學(xué)習(xí),即一致性正則化、熵最小化和偽標(biāo)簽。在進一步討論之前,讓我們先理解這些概念。

一致性正則化強制數(shù)據(jù)點的實際擾動不應(yīng)顯著改變預(yù)測器的輸出。簡單地說,模型應(yīng)該為輸入及其實際擾動變量給出一致的輸出。我們?nèi)祟悓τ谛〉母蓴_是相當(dāng)魯棒的。例如,給圖像添加小的噪聲(例如改變一些像素值)對我們來說是察覺不到的。機器學(xué)習(xí)模型也應(yīng)該對這種擾動具有魯棒性。這通常通過最小化對原始輸入的預(yù)測與對該輸入的擾動版本的預(yù)測之間的差異來實現(xiàn)。

模型對輸入x及其擾動x^的一致性度量

d(.,.) 可以是均方誤差或KL散度或任何其他距離度量。

一致性正則化是利用未標(biāo)記數(shù)據(jù)找到數(shù)據(jù)集所在的平滑流形的一種方法。這種方法的例子包括π模型、Temporal Ensembling,Mean Teacher,Virtual Adversarial Training等。

熵最小化鼓勵對未標(biāo)記數(shù)據(jù)進行更有信心的預(yù)測,即預(yù)測應(yīng)該具有低熵,而與ground truth無關(guān)(因為ground truth對于未標(biāo)記數(shù)據(jù)是未知的)。讓我們從數(shù)學(xué)上理解下這個。

熵的計算

這里,K是類別的數(shù)量,是模型對x預(yù)測是否屬于類別k的置信度。

此外,輸入示例中所有類的置信度之和應(yīng)該為1。這意味著,當(dāng)某個類的預(yù)測值接近1,而其他所有類的預(yù)測值接近0時,熵將最小化。因此,這個目標(biāo)鼓勵模型給出高可信度的預(yù)測。

理想情況下,熵的最小化將阻止決策邊界通過附近的數(shù)據(jù)點,否則它將被迫產(chǎn)生一個低可信的預(yù)測。請參閱下圖以更好地理解此概念。

由不同的半監(jiān)督學(xué)習(xí)方法生成的決策邊界

偽標(biāo)簽是實現(xiàn)半監(jiān)督學(xué)習(xí)最簡單的方法。一個模型一開始在有標(biāo)記的數(shù)據(jù)集上進行訓(xùn)練,然后用來對沒有標(biāo)記的數(shù)據(jù)進行預(yù)測。它從未標(biāo)記的數(shù)據(jù)集中選擇那些具有高置信度(高于預(yù)定義的閾值)的樣本,并將其預(yù)測視為偽標(biāo)簽。然后將這個偽標(biāo)簽數(shù)據(jù)集添加到標(biāo)記數(shù)據(jù)集,然后在擴展的標(biāo)記數(shù)據(jù)集上再次訓(xùn)練模型。這些步驟可以執(zhí)行多次。這和自訓(xùn)練很相關(guān)。

在現(xiàn)實中視覺和語言上擾動的例子

視覺:

翻轉(zhuǎn),旋轉(zhuǎn),裁剪,鏡像等是圖像常用的擾動。

語言

反向翻譯是語言中最常見的擾動方式。在這里,輸入被翻譯成不同的語言,然后再翻譯成相同的語言。這樣就獲得了具有相同語義屬性的新輸入。

NLP中的反向翻譯

半監(jiān)督學(xué)習(xí)方法

π model:

這里的目標(biāo)是一致性正則化。

π模型鼓勵模型對兩個相同的輸入(即同一個輸入的兩個擾動變量)輸出之間的一致性。

π模型有幾個缺點,首先,訓(xùn)練計算量大,因為每個epoch中單個輸入需要送到網(wǎng)絡(luò)中兩次。第二,訓(xùn)練目標(biāo)zi?是有噪聲的。

Temporal Ensembling:

這個方法的目標(biāo)也是一致性正則化,但是實現(xiàn)方法有點不一樣。

眾所周知,與單一模型相比,模型集成通常能提供更好的預(yù)測。通過在訓(xùn)練期間使用單個模型在不同訓(xùn)練時期的輸出來形成集成預(yù)測,這一思想得到了擴展。

簡單來說,不是比較模型的相同輸入的兩個擾動的預(yù)測(如π模型),模型的預(yù)測與之前的epoch中模型對該輸入的預(yù)測的加權(quán)平均進行比較。

這種方法克服了π模型的兩個缺點。它在每個epoch中,單個輸入只進入一次,而且訓(xùn)練目標(biāo)zi? 的噪聲更小,因為會進行滑動平均。

這種方法的缺點是需要存儲數(shù)據(jù)集中所有的zi? 。

英文原文:https://medium.com/analytics-vidhya/a-primer-on-semi-supervised-learning-part-2-803f45edac2

責(zé)任編輯:xj

原文標(biāo)題:半監(jiān)督學(xué)習(xí)入門基礎(chǔ)(二):最基礎(chǔ)的3個概念

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • SSL
    SSL
    +關(guān)注

    關(guān)注

    0

    文章

    130

    瀏覽量

    26206
  • 半監(jiān)督
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    6398
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134612
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標(biāo)題:半監(jiān)督學(xué)習(xí)入門基礎(chǔ)(二):最基礎(chǔ)的3個概念

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    的基本理論。了解監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)的基本原理。例如,在監(jiān)督學(xué)習(xí)中,理解如何通過標(biāo)注數(shù)據(jù)來訓(xùn)練模型進行分類或回歸任務(wù),像通過大量的貓和狗的圖片標(biāo)注數(shù)據(jù)來訓(xùn)練一
    發(fā)表于 07-08 17:44

    使用MATLAB進行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?683次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    新品 | 橋1200V CoolSiC? MOSFET EconoDUAL? 3模塊

    新品橋1200VCoolSiCMOSFETEconoDUAL3模塊采用EconoDUAL3封裝的1200V/1.4mΩ橋模塊。芯片為SiCMOSFETM1H增強型1代、集成NTC溫
    的頭像 發(fā)表于 04-17 17:05 ?380次閱讀
    新品 | <b class='flag-5'>半</b>橋1200V CoolSiC? MOSFET EconoDUAL? <b class='flag-5'>3</b>模塊

    NX-HB-GAN3R2-BSC橋評估板

    電子發(fā)燒友網(wǎng)站提供《NX-HB-GAN3R2-BSC橋評估板.pdf》資料免費下載
    發(fā)表于 02-18 17:29 ?2次下載
    NX-HB-GAN<b class='flag-5'>3</b>R2-BSC<b class='flag-5'>半</b>橋評估板

    橋LLC諧振電路的工作原理與模態(tài)分析

    自己寫一篇比較詳細(xì)的介紹做參考。作為一初學(xué)AC-DC電源的工程師,在整理和學(xué)習(xí)的過程中難免有一些疏忽和錯誤,如發(fā)現(xiàn)問題,歡迎大家在評論區(qū)指出和討論。 1、橋LLC拓?fù)?如圖是橋L
    的頭像 發(fā)表于 02-12 11:03 ?3408次閱讀
    <b class='flag-5'>半</b>橋LLC諧振電路的工作原理與模態(tài)分析

    人工智能和機器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

    與人工智能相關(guān)各種技術(shù)的概念介紹,以及先進的Edge AI(邊緣人工智能)的最新發(fā)展與相關(guān)應(yīng)用。 人工智能和機器學(xué)習(xí)是現(xiàn)代科技的核心技術(shù) 人工智能(AI)和機器學(xué)習(xí)(ML)是現(xiàn)代科技的核心技術(shù)之一,且已經(jīng)在許多領(lǐng)域中得到廣泛應(yīng)用
    的頭像 發(fā)表于 01-25 17:37 ?932次閱讀
    人工智能和機器<b class='flag-5'>學(xué)習(xí)</b>以及Edge AI的<b class='flag-5'>概念</b>與應(yīng)用

    自然語言處理與機器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一核心領(lǐng)域,它使計算機能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測或決策。自然語言處理與機器學(xué)習(xí)之間有著密切的關(guān)系,因為機器學(xué)習(xí)提供了一種強大的工具,用于從大
    的頭像 發(fā)表于 12-05 15:21 ?1985次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進行圖像分類的步驟

    (例如,高分辨率、不同光照條件等)。 2. 數(shù)據(jù)收集 獲取數(shù)據(jù)集 :收集或購買一包含你想要分類的圖像的數(shù)據(jù)集。 數(shù)據(jù)標(biāo)注 :確保所有圖像都被正確標(biāo)注,這對于監(jiān)督學(xué)習(xí)是必要的。 3. 數(shù)據(jù)預(yù)處理 圖像尺寸標(biāo)準(zhǔn)化 :將所有圖像調(diào)整
    的頭像 發(fā)表于 11-15 15:01 ?848次閱讀

    時空引導(dǎo)下的時間序列自監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?768次閱讀
    時空引導(dǎo)下的時間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    如何使用 PyTorch 進行強化學(xué)習(xí)

    的計算圖和自動微分功能,非常適合實現(xiàn)復(fù)雜的強化學(xué)習(xí)算法。 1. 環(huán)境(Environment) 在強化學(xué)習(xí)中,環(huán)境是一抽象的概念,它定義了智能體(agent)可以執(zhí)行的動作(acti
    的頭像 發(fā)表于 11-05 17:34 ?1042次閱讀

    使用TPA3118時,輸出到3V時,負(fù)軸就開始削波了,為什么?

    客戶在使用TPA3118時,15V~16V供電,輸出幅度目標(biāo)是10V,但實際當(dāng)輸出到3V時,負(fù)軸就開始削波了,檢測IC輸入端信號,是沒有失真的。線路圖核對,參數(shù)也是依照EVM的參數(shù),只是,省略
    發(fā)表于 10-23 07:50

    加器和全加器的功能特點

    加器和全加器是數(shù)字電路中的基本組件,用于執(zhí)行二進制數(shù)的加法運算。它們在計算機、微處理器和其他數(shù)字系統(tǒng)中扮演著重要角色。 加器的功能特點 加器是一種簡單的數(shù)字電路,它能夠?qū)崿F(xiàn)兩
    的頭像 發(fā)表于 10-18 11:10 ?3674次閱讀

    單相控橋?qū)崿F(xiàn)有源逆變的可行性分析

    的導(dǎo)通和關(guān)斷來實現(xiàn)對交流電的整流。其基本工作原理如下: 電路結(jié)構(gòu) :單相控橋整流電路由兩晶閘管(如T1、T2)和兩二極管(如D3、D4)組成,它們以橋式結(jié)構(gòu)連接在交流電源和負(fù)載之
    的頭像 發(fā)表于 08-02 18:14 ?2485次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無標(biāo)簽文本數(shù)據(jù)上學(xué)習(xí)
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強化
    發(fā)表于 07-25 14:33