導(dǎo)讀
今天給大家介紹半監(jiān)督學(xué)習(xí)中的3個最基礎(chǔ)的概念:一致性正則化,熵最小化和偽標(biāo)簽,并介紹了兩個經(jīng)典的半監(jiān)督學(xué)習(xí)方法。
沒看一的點這里哈:半監(jiān)督學(xué)習(xí)入門基礎(chǔ)(一)
半監(jiān)督學(xué)習(xí) (SSL) 是一種非常有趣的方法,用來解決機器學(xué)習(xí)中缺少標(biāo)簽數(shù)據(jù)的問題。SSL利用未標(biāo)記的數(shù)據(jù)和標(biāo)記的數(shù)據(jù)集來學(xué)習(xí)任務(wù)。SSL的目標(biāo)是得到比單獨使用標(biāo)記數(shù)據(jù)訓(xùn)練的監(jiān)督學(xué)習(xí)模型更好的結(jié)果。這是關(guān)于半監(jiān)督學(xué)習(xí)的系列文章的第2部分,詳細(xì)介紹了一些基本的SSL技術(shù)。
一致性正則化,熵最小化,偽標(biāo)簽
SSL的流行方法是在訓(xùn)練期間往典型的監(jiān)督學(xué)習(xí)中添加一個新的損失項。通常使用三個概念來實現(xiàn)半監(jiān)督學(xué)習(xí),即一致性正則化、熵最小化和偽標(biāo)簽。在進一步討論之前,讓我們先理解這些概念。
一致性正則化強制數(shù)據(jù)點的實際擾動不應(yīng)顯著改變預(yù)測器的輸出。簡單地說,模型應(yīng)該為輸入及其實際擾動變量給出一致的輸出。我們?nèi)祟悓τ谛〉母蓴_是相當(dāng)魯棒的。例如,給圖像添加小的噪聲(例如改變一些像素值)對我們來說是察覺不到的。機器學(xué)習(xí)模型也應(yīng)該對這種擾動具有魯棒性。這通常通過最小化對原始輸入的預(yù)測與對該輸入的擾動版本的預(yù)測之間的差異來實現(xiàn)。
模型對輸入x及其擾動x^的一致性度量
d(.,.) 可以是均方誤差或KL散度或任何其他距離度量。
一致性正則化是利用未標(biāo)記數(shù)據(jù)找到數(shù)據(jù)集所在的平滑流形的一種方法。這種方法的例子包括π模型、Temporal Ensembling,Mean Teacher,Virtual Adversarial Training等。
熵最小化鼓勵對未標(biāo)記數(shù)據(jù)進行更有信心的預(yù)測,即預(yù)測應(yīng)該具有低熵,而與ground truth無關(guān)(因為ground truth對于未標(biāo)記數(shù)據(jù)是未知的)。讓我們從數(shù)學(xué)上理解下這個。
熵的計算
這里,K是類別的數(shù)量,是模型對x預(yù)測是否屬于類別k的置信度。
此外,輸入示例中所有類的置信度之和應(yīng)該為1。這意味著,當(dāng)某個類的預(yù)測值接近1,而其他所有類的預(yù)測值接近0時,熵將最小化。因此,這個目標(biāo)鼓勵模型給出高可信度的預(yù)測。
理想情況下,熵的最小化將阻止決策邊界通過附近的數(shù)據(jù)點,否則它將被迫產(chǎn)生一個低可信的預(yù)測。請參閱下圖以更好地理解此概念。
由不同的半監(jiān)督學(xué)習(xí)方法生成的決策邊界
偽標(biāo)簽是實現(xiàn)半監(jiān)督學(xué)習(xí)最簡單的方法。一個模型一開始在有標(biāo)記的數(shù)據(jù)集上進行訓(xùn)練,然后用來對沒有標(biāo)記的數(shù)據(jù)進行預(yù)測。它從未標(biāo)記的數(shù)據(jù)集中選擇那些具有高置信度(高于預(yù)定義的閾值)的樣本,并將其預(yù)測視為偽標(biāo)簽。然后將這個偽標(biāo)簽數(shù)據(jù)集添加到標(biāo)記數(shù)據(jù)集,然后在擴展的標(biāo)記數(shù)據(jù)集上再次訓(xùn)練模型。這些步驟可以執(zhí)行多次。這和自訓(xùn)練很相關(guān)。
在現(xiàn)實中視覺和語言上擾動的例子
視覺:
翻轉(zhuǎn),旋轉(zhuǎn),裁剪,鏡像等是圖像常用的擾動。
語言
反向翻譯是語言中最常見的擾動方式。在這里,輸入被翻譯成不同的語言,然后再翻譯成相同的語言。這樣就獲得了具有相同語義屬性的新輸入。
NLP中的反向翻譯
半監(jiān)督學(xué)習(xí)方法
π model:
這里的目標(biāo)是一致性正則化。
π模型鼓勵模型對兩個相同的輸入(即同一個輸入的兩個擾動變量)輸出之間的一致性。
π模型有幾個缺點,首先,訓(xùn)練計算量大,因為每個epoch中單個輸入需要送到網(wǎng)絡(luò)中兩次。第二,訓(xùn)練目標(biāo)zi?是有噪聲的。
Temporal Ensembling:
這個方法的目標(biāo)也是一致性正則化,但是實現(xiàn)方法有點不一樣。
眾所周知,與單一模型相比,模型集成通常能提供更好的預(yù)測。通過在訓(xùn)練期間使用單個模型在不同訓(xùn)練時期的輸出來形成集成預(yù)測,這一思想得到了擴展。
簡單來說,不是比較模型的相同輸入的兩個擾動的預(yù)測(如π模型),模型的預(yù)測與之前的epoch中模型對該輸入的預(yù)測的加權(quán)平均進行比較。
這種方法克服了π模型的兩個缺點。它在每個epoch中,單個輸入只進入一次,而且訓(xùn)練目標(biāo)zi? 的噪聲更小,因為會進行滑動平均。
這種方法的缺點是需要存儲數(shù)據(jù)集中所有的zi? 。
英文原文:https://medium.com/analytics-vidhya/a-primer-on-semi-supervised-learning-part-2-803f45edac2
責(zé)任編輯:xj
原文標(biāo)題:半監(jiān)督學(xué)習(xí)入門基礎(chǔ)(二):最基礎(chǔ)的3個概念
文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
SSL
+關(guān)注
關(guān)注
0文章
130瀏覽量
26206 -
半監(jiān)督
+關(guān)注
關(guān)注
0文章
5瀏覽量
6398 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8503瀏覽量
134612 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5561瀏覽量
122794
原文標(biāo)題:半監(jiān)督學(xué)習(xí)入門基礎(chǔ)(二):最基礎(chǔ)的3個概念
文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?
使用MATLAB進行無監(jiān)督學(xué)習(xí)

新品 | 半橋1200V CoolSiC? MOSFET EconoDUAL? 3模塊

NX-HB-GAN3R2-BSC半橋評估板

半橋LLC諧振電路的工作原理與模態(tài)分析

人工智能和機器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

自然語言處理與機器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟
使用卷積神經(jīng)網(wǎng)絡(luò)進行圖像分類的步驟
時空引導(dǎo)下的時間序列自監(jiān)督學(xué)習(xí)框架

評論