谷歌首席科學(xué)家提出要想讓半監(jiān)督學(xué)習(xí)實際上有用,要同時考慮低維數(shù)據(jù)和高維數(shù)據(jù),并討論了谷歌最近的兩個研究。作者認為在實際環(huán)境中重新審視半監(jiān)督學(xué)習(xí)的價值是一個激動人心的時刻。
作為一個機器學(xué)習(xí)工程師,可能平時最常打交道的就是海量數(shù)據(jù)了。這些數(shù)據(jù)只有少部分是有標注的,可以用來進行監(jiān)督學(xué)習(xí)。但另外一大部分的數(shù)據(jù)是沒有標注過的。
那么接下來,我們就會順理成章的想到用這些已標注過的數(shù)據(jù)進行訓(xùn)練,再利用訓(xùn)練好的學(xué)習(xí)器找出未標注數(shù)據(jù)中,對性能改善最大的數(shù)據(jù),讓機器自己的對未標注數(shù)據(jù)進行分析來提高泛化性能,
這種介于監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)之間的方式,稱為半監(jiān)督學(xué)習(xí)。人類的學(xué)習(xí)方法是半監(jiān)督學(xué)習(xí),我們能從大量的未標注數(shù)據(jù)和極少量的標注數(shù)據(jù)學(xué)習(xí),迅速理解這個世界。
然而半監(jiān)督學(xué)習(xí)實踐中根本沒用?
人類的半監(jiān)督學(xué)習(xí)非常有效,那么我們自然的希望機器的半監(jiān)督學(xué)習(xí)也能達到類似的程度。但是從歷史上來看,半監(jiān)督學(xué)習(xí)的效果和我們想象的效果有很大差距。先來看一張圖:
上圖可以看出來,最開始的時候,半監(jiān)督學(xué)習(xí)訓(xùn)練確實有種提升監(jiān)督學(xué)習(xí)效果的趨勢,然而實際操作中,我們經(jīng)常陷入從“可怕又不可用”的狀態(tài),到“不那么可怕但仍然完全不可用”。
如果你突然發(fā)現(xiàn)你的半監(jiān)督學(xué)習(xí)起效了,這意味著你的分類器單純的不行,單純的沒有實際用處。
而且面對大量的數(shù)據(jù),半監(jiān)督學(xué)習(xí)方式通常不能實現(xiàn)和監(jiān)督學(xué)習(xí)中所實現(xiàn)的相同漸近性質(zhì),未標注的數(shù)據(jù)可能會引入偏差。
舉個例子,在深度學(xué)習(xí)的早期階段,一種非常流行的半監(jiān)督學(xué)習(xí)方法是首先學(xué)習(xí)一個關(guān)于未標注數(shù)據(jù)的自動編碼器,然后對標注數(shù)據(jù)進行微調(diào)。
現(xiàn)在幾乎沒人這么做了。因為通過自動編碼學(xué)習(xí)的表示,傾向于在經(jīng)驗上限制微調(diào)的漸近性能。
而且,即使是已經(jīng)突飛猛進的現(xiàn)代生成方法,也沒有對此狀況有多大的改善??赡芤驗樘嵘赡P托Ч脑?,并不能很有效的提升分類器的效果。
當你在今天看到機器學(xué)習(xí)工程師對模型進行微調(diào)時,基本都是從從監(jiān)督數(shù)據(jù)上學(xué)習(xí)的表示開始。而且文本是用于語言建模目的的自監(jiān)督數(shù)據(jù)。
最終我們得出一個結(jié)論:實際情況下,從其他預(yù)訓(xùn)練模型進行轉(zhuǎn)移學(xué)習(xí)是一個更穩(wěn)健的起點,在這方面半監(jiān)督方法難以超越。
所以,一位機器學(xué)習(xí)工程師在半監(jiān)督學(xué)習(xí)的沼澤中艱難前行的典型路徑如下:
一切都很糟糕,讓我們嘗試半監(jiān)督學(xué)習(xí)吧?。ó吘惯@是工程工作,比標注數(shù)據(jù)這種純體力活可有意思多了)
看,數(shù)字上去了!但是仍然很糟糕??雌饋砦覀冞€是得去搞標注數(shù)據(jù)...
數(shù)據(jù)越多,效果越好。但是你有沒有嘗試過丟棄半監(jiān)督機器會發(fā)生什么?
嘿你知道嗎,它實際上更簡單更好。我們可以通過完全跳過2和3來節(jié)省時間和大量技術(shù)債
如果你走運的話,你的問題也可能具有這樣的性能特征:
巧了,在這種情況下,存在一種狹窄的數(shù)據(jù)體系。半監(jiān)督學(xué)習(xí)在其中不僅不糟糕,而且還實實在在的提高了數(shù)據(jù)效率。
但是根據(jù)過來人的經(jīng)驗來看,這個點很難找到??紤]到額外復(fù)雜性的成本,標注數(shù)據(jù)量之間的鴻溝,通常不會帶來多大的效果,并且收益遞減,所以根本不值當浪費精力在這個上面,除非你想在這個領(lǐng)域競爭學(xué)術(shù)基準。
半監(jiān)督學(xué)習(xí)其實正在悄然的進化
說了這么多半監(jiān)督學(xué)習(xí)的弱項。其實本文真正想講的是在半監(jiān)督學(xué)習(xí)領(lǐng)域,一直在悄悄發(fā)生的進化。
一個引人入勝的趨勢是,半監(jiān)督學(xué)習(xí)的可能會變成看起來更像這樣的東西:
這將改變所有目前半監(jiān)督學(xué)習(xí)領(lǐng)域的難題。
這些曲線符合我們理想中的半監(jiān)督方法的情況:數(shù)據(jù)越多越好。半監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)之間的差距,也應(yīng)該是嚴格成正比的,即使是監(jiān)督學(xué)習(xí)表現(xiàn)的很好的領(lǐng)域,半監(jiān)督學(xué)習(xí)也應(yīng)該能表現(xiàn)的很好。
而且這種效果的提升伴隨著的是成本的穩(wěn)定,以及很少量的額外復(fù)雜性。圖中的“magic區(qū)域”從更低的地方開始,同樣重要的是,它不受高數(shù)據(jù)制度的束縛。
其他一些新的發(fā)展包括:有更好的方式進行自我標注數(shù)據(jù),并以這樣的方式表達損失,即它們與噪聲和自我標注的潛在偏差兼容。
最近有兩篇論文講述了半監(jiān)督學(xué)習(xí)最近的進展。
MixMatch: A Holistic Approach to Semi-Supervised Learning
論文地址:
https://arxiv.org/abs/1905.02249
Mixmatch是本文中提出的新方法,它巧妙地結(jié)合了以前單獨使用的3種SSL范例。
一致性正則化:通過增加標記和未標記的數(shù)據(jù)輸入來引入
熵最小化:銳化函數(shù)減少了未標記數(shù)據(jù)的猜測標簽中的熵
傳統(tǒng)正則化: MixUp引入了數(shù)據(jù)點之間的線性關(guān)系
在每個batch中,每個標記的數(shù)據(jù)點被增強一次,并且每個未標記的數(shù)據(jù)點被增加K(超參數(shù))時間。要求該模型預(yù)測所有K個增廣條目(L類的概率),并將它們的平均值作為所有K個條目的預(yù)測。
銳化該平均值以最小化熵并將其作為最終預(yù)測。將增強的標記和未標記的數(shù)據(jù)連接并混洗以獲得W.batch中的標記數(shù)據(jù)與第一個|X|“混合”。 W的條目得到X',其中|X|是batch中標記數(shù)據(jù)的大小。batch中的未標記數(shù)據(jù)與W的其余條目“混合”以獲得U'。
MixMatch算法結(jié)合了不同的SSL范例,通過一個重要因素實現(xiàn)了比所有基線數(shù)據(jù)集上所有當前方法明顯更好的性能。它確保了差異隱私的更好的準確性和隱私的權(quán)衡,因為需要比其他方法更少的數(shù)據(jù)來實現(xiàn)類似的性能。
Unsupervised Data Augmentation
論文地址
https://arxiv.org/abs/1904.12848
本文的重點是從(主要是啟發(fā)式的,實用的)數(shù)據(jù)增強世界中為監(jiān)督學(xué)習(xí)提供進展,并將其應(yīng)用于無監(jiān)督設(shè)置,作為在半監(jiān)督環(huán)境中引入更好性能的一種方式(具有許多未標記點,以及很少標記的)。
論文中的無監(jiān)督數(shù)據(jù)增強(UDA)策略注意到兩件事:首先在監(jiān)督學(xué)習(xí)領(lǐng)域,在生成增強數(shù)據(jù)方面存在特定于數(shù)據(jù)集的創(chuàng)新,這對于給定數(shù)據(jù)集特別有用。語言建模,這方面的一個例子是把一個句子翻譯成另一種語言,并通過兩個訓(xùn)練有素的翻譯網(wǎng)絡(luò)再次返回,并使用得到的句子作為輸入。對于ImageNet,有一種稱為AutoAugment的方法,它使用驗證集上的強化學(xué)習(xí)來學(xué)習(xí)圖像操作的策略(比如旋轉(zhuǎn),剪切,改變顏色),以提高驗證的準確性。
(2)在半監(jiān)督學(xué)習(xí)中,越來越傾向于使用一致性損失作為利用未標記數(shù)據(jù)的一種方式。一致性損失的基本思想是,即使不知道給定數(shù)據(jù)點的類,如果以某種很小的方式修改它,也可以確信模型的預(yù)測應(yīng)該在數(shù)據(jù)點與其擾動之間保持一致,即使你并不知道實際的ground truth是什么。通常,這樣的系統(tǒng)是在原始未標記圖像的基礎(chǔ)上使用簡單的高斯噪聲設(shè)計的。本文的關(guān)鍵提議是用更加簡化的擾動程序替代在監(jiān)督學(xué)習(xí)中迭代的增強方法,因為兩者的目標幾乎相同。
除了這個核心理念之外,UDA論文還提出了一個額外的聰明的訓(xùn)練策略:如果你有許多未標注的樣本和少量標注的樣本,你可能需要一個大型模型來捕獲未標注樣本中的信息,但這可能會導(dǎo)致過擬合。
為了避免這種情況,他們使用一種稱為“訓(xùn)練信號退火”的方法,在訓(xùn)練中的每個點,他們從損失計算中刪除模型特別有信心的任何樣本,比如真實類別的預(yù)測高于某個閾值等。
隨著培訓(xùn)的進行,網(wǎng)絡(luò)逐漸被允許看到更多的訓(xùn)練信號。在這種框架中,模型不能輕易過度擬合,因為一旦它開始在受監(jiān)督的例子上得到正確的答案,他們就會退出損失計算。
在實證結(jié)果方面,作者發(fā)現(xiàn),在UDA中,他們能夠通過極少數(shù)標記的例子來改進許多半監(jiān)督基準。有一次,他們使用BERT模型作為基線,在其半監(jiān)督訓(xùn)練之前以無人監(jiān)督的方式進行微調(diào),并表明他們的增強方法甚至可以在無人監(jiān)督的預(yù)訓(xùn)練值之上增加價值。
例如,在IMDb文本分類數(shù)據(jù)集中,僅有20個標注樣本,UDA優(yōu)于在25000個標注樣本上訓(xùn)練的最先進模型。
在標準的半監(jiān)督學(xué)習(xí)基準測試中,CIFAR-10具有4,000個樣本,SVHN具有1,000個樣本,UDA優(yōu)于所有先前的方法,并且降低了超過30%的最先進方法的錯誤率:從7.66%降至5.27%,以及從3.53%降至2.46%。
UDA也適用于具有大量標記數(shù)據(jù)的數(shù)據(jù)集。例如,在ImageNet上,使用130萬額外的未標記數(shù)據(jù),與AutoAugment相比,UDA將前1/前5精度從78.28/94.36%提高到79.04/94.45%。
半監(jiān)督學(xué)習(xí)激動人心的未來
半監(jiān)督學(xué)習(xí)的另一個基礎(chǔ)轉(zhuǎn)變,是大家認識到它可能在機器學(xué)習(xí)隱私中扮演非常重要的角色,例如Private Aggregation of Teacher Ensemble(PATE)。PATE框架通過仔細協(xié)調(diào)幾種不同機器學(xué)習(xí)模型的行為來實現(xiàn)隱私學(xué)習(xí)。
用于提取知識的隱私敏感方法正在成為聯(lián)合學(xué)習(xí)(Federated Learning)的關(guān)鍵推動者之一,聯(lián)合學(xué)習(xí)提供了有效的分布式學(xué)習(xí)的方式,其不依賴于具有訪問用戶數(shù)據(jù)的模型,具有強大的數(shù)學(xué)隱私保證。
在實際環(huán)境中重新審視半監(jiān)督學(xué)習(xí)的價值有點激動人心,這些進步將會導(dǎo)致機器學(xué)習(xí)工具架構(gòu)有極大可能性發(fā)生根本轉(zhuǎn)變。
-
谷歌
+關(guān)注
關(guān)注
27文章
6241瀏覽量
109970 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8532瀏覽量
135987 -
自動編碼
+關(guān)注
關(guān)注
0文章
4瀏覽量
5885
原文標題:谷歌首席科學(xué)家:半監(jiān)督學(xué)習(xí)的悄然革命
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
自動駕駛中常提的“強化學(xué)習(xí)”是個啥?

從驅(qū)動開發(fā)到系統(tǒng)調(diào)優(yōu),電控崗位能力門檻正在悄然抬高

任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?
AlphaEvolve有望革新AI玩具芯片設(shè)計,算法進化驅(qū)動能效與成本雙突破
谷歌地圖GPS定位
使用MATLAB進行無監(jiān)督學(xué)習(xí)

具身智能工業(yè)機器人:引爆制造業(yè)‘自進化’革命

半橋LLC諧振電路的工作原理與模態(tài)分析

谷歌公司被立案調(diào)查 谷歌股價暴跌 谷歌母公司Alphabet跌8%
谷歌在華面臨反壟斷立案調(diào)查
谷歌在印尼因壟斷行為被罰1200萬美元
AI眼鏡形態(tài)席卷可穿戴市場!谷歌眼鏡幾次“流產(chǎn)”,將靠AI翻盤
時空引導(dǎo)下的時間序列自監(jiān)督學(xué)習(xí)框架

評論