chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

聚焦 | 新技術(shù)“紅”不過十年?半監(jiān)督學(xué)習(xí)卻成例外?

mK5P_AItists ? 來源:YXQ ? 2019-06-18 17:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這一波深度學(xué)習(xí)的發(fā)展,以2006年Hinton發(fā)表Deep Belief Networks的論文為起點,到今年已經(jīng)超過了10年。從過往學(xué)術(shù)界和產(chǎn)業(yè)界對新技術(shù)的追捧周期,超過10年的是極少數(shù)。從深度學(xué)習(xí)所屬的機器學(xué)習(xí)領(lǐng)域來看,到底什么樣的方向能夠支撐這個領(lǐng)域繼續(xù)蓬勃發(fā)展下去,讓學(xué)術(shù)界和產(chǎn)業(yè)界都能持續(xù)投入和產(chǎn)出,就目前來看,半監(jiān)督學(xué)習(xí)是一個很有潛力的方向。

機器學(xué)習(xí)范式的發(fā)展

傳統(tǒng)機器學(xué)習(xí)的解決路徑可以表示為:

ML Solution = ML expertise + Computation + Data

其中ML expertise是機器學(xué)習(xí)專家,負(fù)責(zé)特征工程、機器學(xué)習(xí)模型設(shè)計和最終的訓(xùn)練,是整個機器學(xué)習(xí)解決方案效果的關(guān)鍵因素。Computation是計算能力,代表具體選擇什么的硬件去承載專家設(shè)計的優(yōu)化方案。這個部分一般來說窮有窮的打法,富有富的策略:以CTR預(yù)估為例,小廠設(shè)備不多,資源不足,那么可能GBDT就是一個不錯的選擇;大廠的話,資源相對富裕,那么各種DNN就上來了。Data無論做什么業(yè)務(wù),或多或少也都有一些,C端產(chǎn)品的話,上線后總會有用戶反饋可以做為label;B端產(chǎn)品的話,以我曾經(jīng)搞過的圖片識別為例,定向爬蟲和人工標(biāo)注也能弄到有標(biāo)簽樣本。Data總會有,無外乎多少的區(qū)別。

這里就存在一個問題,Computation和Data即便有了,也不一定有很匹配的人來把整個事情串聯(lián)運用起來,發(fā)揮最終的價值。21世紀(jì),最貴的是人才;為什么貴?因為稀缺。于是大家就在想,能不能把機器學(xué)習(xí)問題的解決路徑改為:

New ML Solution = 100x Computation + 100x Data

簡而言之,就是用更多地Computation和Data代替人的作用。100x Computation替代人工模型設(shè)計,這兩年也得到了長足的發(fā)展,這就是AutoML。狹義的來看AutoML,NAS和Meta Learning在學(xué)術(shù)界工業(yè)界都有不錯的進(jìn)展。尤其是NAS,2017年Zoph和Le發(fā)表的Neural Architecture Search with Reinforcement Learning作為引爆點,快速形成了一個火爆的研究領(lǐng)域,主要思路是通過RNN controller來sample神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練這個網(wǎng)絡(luò)結(jié)構(gòu),以這個網(wǎng)絡(luò)結(jié)構(gòu)的指標(biāo)作為RL的reward優(yōu)化這個controller,讓這個controller能夠sample出更有效的網(wǎng)絡(luò)結(jié)構(gòu)。

Controller訓(xùn)練過程

這個領(lǐng)域后續(xù)還有一些列出色的工作,但由于不是今天討論的重點,暫且按下不表,有時間再寫一篇關(guān)于NAS的從認(rèn)知到實踐。

100x Data聽上去就是一個很有誘惑力的事情,因為更多的數(shù)據(jù),往往意味著更好的效果。以最近異?;鸨腂ERT和GPT2,都被認(rèn)為是大力出奇跡的暴力美學(xué)典范。大量的數(shù)據(jù)帶來效果提高了人們對當(dāng)前AI的認(rèn)知邊界,GPT2生成的文本就是一個很好的例子。但是數(shù)據(jù)規(guī)模的擴大,往往意味著某方面成本的提升。廣告CTR預(yù)估,100x的樣本要么是DAU增長了100倍,要么是出了100x的廣告(估計會被用戶打死的),都不太真實;圖片的人工標(biāo)注增長100x即便金錢成本能接受,時間成本也太長,猜想ImageNet如果1億標(biāo)注樣本,估計CV的發(fā)展還會有更多的爆發(fā)點。

在談半監(jiān)督學(xué)習(xí)的進(jìn)展前,我們先看看另一個機器學(xué)習(xí)方向在解決數(shù)據(jù)不足和數(shù)據(jù)稀疏上的努力。

Multi-Task Learning

Multi-Task Learning是指不同的任務(wù)之間通過共享全部或者部分模型參數(shù),相互輔助,相互遷移,共同提高的機器學(xué)習(xí)方法。實際使用過程中,Multi-Task Learning由于多個任務(wù)共享參數(shù),還能帶來Serving Cost的下降,在學(xué)術(shù)界和工業(yè)界都有不少相關(guān)工作,并且在一些數(shù)據(jù)上取得了不錯的進(jìn)展。

Multi-Task Learning由于不同任務(wù)之間可以相互輔助學(xué)習(xí),往往數(shù)據(jù)稀疏的任務(wù)能夠從數(shù)據(jù)豐富的任務(wù)收益,得到提高,同時數(shù)據(jù)豐富任務(wù)還不怎么受影響或者微弱提升。這在一定程度上緩解了數(shù)據(jù)量的需求。

最近幾年比較好的Multi-Task Learning工作,首先讓我比較有印象的是Cross-stitch。Cross-stitch通過在Multi-Task的表達(dá)學(xué)習(xí)中,通過權(quán)重轉(zhuǎn)換矩陣 alpha_{AB} 或者 alpha_{BA} 直接獲得另一個任務(wù)的中間表示信息,這種方案在效果上比傳統(tǒng)的Shared Bottom靈活,也減少了模型參數(shù)被某一個任務(wù)完全主導(dǎo)的風(fēng)險。

Cross-stitch子結(jié)構(gòu)

后來的ESSM跟Cross-stitch有異曲同工之妙,只是將任務(wù)的學(xué)習(xí)方向改為單向:pCVR單向從pCTR中學(xué)習(xí),以滿足業(yè)務(wù)上的邏輯因果關(guān)系。

ESSM學(xué)習(xí)框架

Multi-Task Learning最近比較有意思的工作,SNR應(yīng)該算一個,思路主要收到Mixture-of-Expert的啟發(fā)(Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer:這篇文章背后的思想其實是Google解決大規(guī)模機器學(xué)習(xí)的新思路,完全值得開篇另述?。?,不同的任務(wù)走不同的網(wǎng)絡(luò)路由,即不同的任務(wù)會由不同的Experts組合預(yù)估,而Experts總量固定,在不同任務(wù)間是部分共享的。對比Cross-stitch,每個任務(wù)都必須使用另外任務(wù)的信息,這種網(wǎng)絡(luò)架構(gòu)設(shè)計,使得不同任務(wù)的Expert既有獨立又有共享。具體的獨立和共享方式,每個任務(wù)通過模型訓(xùn)練學(xué)習(xí)得到,比較好的平衡了任務(wù)的獨立性和共通性。SNR還使用了稀疏路由的思想,使得每個任務(wù)在保證效果的前提下經(jīng)過最少的Experts,降低計算量。

Multi-Task Learning在學(xué)術(shù)界和工業(yè)界都獲得了不俗的成績,但是也有一個要命的短板,需要另外一個數(shù)據(jù)豐富且能夠?qū)W習(xí)比較好的任務(wù)幫忙。這個要求限制了Multi-Task Learning發(fā)揮的空間,因為很多情況下,不僅沒有其他任務(wù),僅有的任務(wù)label也很匱乏,于是半監(jiān)督學(xué)習(xí)就有了用武之地。

半監(jiān)督學(xué)習(xí)

半監(jiān)督學(xué)習(xí)通常情況下,只有少量的有l(wèi)abel數(shù)據(jù),但是可以獲得大量的無label數(shù)據(jù),在這種情況下希望能夠獲得跟監(jiān)督學(xué)習(xí)獲得相似甚至相同的效果。半監(jiān)督學(xué)習(xí)的歷史其實已經(jīng)也比較久遠(yuǎn)了,2009年Chapalle編著的Semi-Supervised Learning,就對其定義和原理做了詳細(xì)介紹。在計算力隨著深度學(xué)習(xí)的熱潮快速發(fā)展的同時,大量的label貧困任務(wù)出現(xiàn),于是半監(jiān)督學(xué)習(xí)也越來越重要。

半監(jiān)督學(xué)習(xí)近兩年最有亮點的工作當(dāng)屬發(fā)表在EMNLP'2018的Phrase-Based & Neural Unsupervised Machine Translation,大幅提升了半監(jiān)督機器機器翻譯的SOTA。

翻譯訓(xùn)練過程示意

在整個訓(xùn)練過程中,B)先對其兩種語言的work級別翻譯,然后C)針對兩種語言分別學(xué)一個Language Model,獲得語言分布,最后D)再根據(jù)語言分布反復(fù)使用Back-Translation在已知的少量句對上翻譯獲得最終模型。這種方案大幅提高了在對齊句對不多的語種之間的翻譯質(zhì)量,同時由于其novelty,獲得了EMNLP'2018的Best Paper Award,初讀此文時有一種眼前一亮的感覺。(盡管標(biāo)題叫Unsupervised Machine Translation,但是實際上利用到了部分label數(shù)據(jù),我更愿意將其歸類為Semi-Supervised Machine Translation。)

最近Google的研究人員又提出來一種新的半監(jiān)督訓(xùn)練方法MixMatch,這種方法號稱是Holistic的,綜合運用了:A)distribution average; B)temperature sharpening; C)MixUp with labeled and unlabeled data. 其訓(xùn)練過程如下:

這個方法在CIFAR-10上只有250個label時能將錯誤率從38%降到11%,令人印象深刻。『江山代有才人出』,另一波Google的研究人員提出了UDA,在我看來這種方法更為徹底,也更加End-to-End。UDA主要利用數(shù)據(jù)分布的連續(xù)性和一致性,在輸入有擾動的情況下,輸出應(yīng)該保持穩(wěn)定,于是對于unlabeled data增加了一個損失函數(shù):

即有擾動和無擾動的unlabeled data的預(yù)估分布的KL距離應(yīng)該非常小,同時數(shù)據(jù)擾動用盡可能貼近任務(wù)本身的方法去做,比如圖像用AutoArgument,文本用上面提到的Back-Translation和Word Replacement。

UDA訓(xùn)練示意

UDA的效果在文本和圖像上都得到了很好地驗證,大幅降低標(biāo)注數(shù)據(jù)不足情況下得錯誤率;更值得關(guān)注的一點是,即便在ImageNet這種標(biāo)注數(shù)據(jù)已經(jīng)非常多的情況下,再使用UDA依然能帶來效果的提升,說明UDA在數(shù)據(jù)分布擬合上具有很好地通用性。

結(jié)語

總體來看,半監(jiān)督機器學(xué)習(xí)無論是采用聚類、圖傳播、數(shù)據(jù)增強還是泛化學(xué)習(xí),主要依據(jù)的理論基礎(chǔ)都是labeled和unlabeled data在分布上的連續(xù)性和一致性,因此機器學(xué)習(xí)方法可以利用這點進(jìn)行有效的結(jié)構(gòu)化學(xué)習(xí),增強模型的表征能力,進(jìn)而很好地提高預(yù)測效果。雖然半監(jiān)督機器學(xué)習(xí)已經(jīng)取得了一些很好的結(jié)果,從近兩年ICML、ICLR和NeurIPS等會議看,相關(guān)工作也越來越多,但是還遠(yuǎn)沒有到CV中的ResNet和NLP中的BERT的水平,要實現(xiàn)100x Data真正發(fā)揮作用,還需要學(xué)術(shù)界和工業(yè)界共同努力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:新技術(shù)“紅”不過十年,半監(jiān)督學(xué)習(xí)為什么是個例外?

文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    強化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機器通過“試錯”學(xué)會決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強化學(xué)習(xí)不會把每一步的“正確答案”都告訴你,而是把環(huán)境、動作和結(jié)果連起來,讓機器自己探索哪個行為長期看起來更有利
    的頭像 發(fā)表于 01-31 09:34 ?474次閱讀
    強化<b class='flag-5'>學(xué)習(xí)</b>會讓自動駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    灌封膠如何通過抗老化技術(shù)實現(xiàn)十年如新的長效保護(hù)?| 鉻銳特實業(yè)

    鉻銳特實業(yè)|東莞灌封膠|針對用戶對灌封膠老化和長期使用的擔(dān)憂,本文科普優(yōu)質(zhì)灌封膠如何通過先進(jìn)抗老化技術(shù),實現(xiàn)十年以上如新的長效保護(hù),幫助電子產(chǎn)品在苛刻環(huán)境中穩(wěn)定運行,大幅延長生命周期并降低維護(hù)成本。
    的頭像 發(fā)表于 12-30 00:23 ?146次閱讀
    灌封膠如何通過抗老化<b class='flag-5'>技術(shù)</b>實現(xiàn)<b class='flag-5'>十年</b>如新的長效保護(hù)?| 鉻銳特實業(yè)

    云天勵飛出席GAIR 2025 AI算力新十年專場

    12月13日,GAIR 2025「AI 算力新十年」專場在深圳舉行。作為國內(nèi)前沿技術(shù)與產(chǎn)業(yè)變革的重要風(fēng)向標(biāo),GAIR大會歷經(jīng)七屆積淀,見證并推動了中國 AI 產(chǎn)業(yè)從算法突破、硬件迭代,到商業(yè)落地
    的頭像 發(fā)表于 12-22 09:38 ?374次閱讀

    東風(fēng)嵐圖與寧德時代正式簽署十年長期深化合作協(xié)議

    12月17日,東風(fēng)嵐圖與寧德時代正式簽署十年長期深化合作協(xié)議,雙方將在新技術(shù)合作、產(chǎn)品供應(yīng)、品牌共建、全球市場協(xié)同等領(lǐng)域展開全方位深度協(xié)同,確保東風(fēng)嵐圖未來動力電池的穩(wěn)定供應(yīng)與技術(shù)領(lǐng)先性,持續(xù)提升其在電池
    的頭像 發(fā)表于 12-19 09:52 ?437次閱讀

    【團(tuán)購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    強化 無監(jiān)督學(xué)習(xí)應(yīng)用:無需NG樣本的缺陷檢測方案,解決工業(yè)數(shù)據(jù)標(biāo)注難題 多模態(tài)融合技術(shù):PaddleOCR+YOLOv8聯(lián)動方案,實現(xiàn)\"文字識別+缺陷定位\"一體化 團(tuán)購課程大綱
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    強化 無監(jiān)督學(xué)習(xí)應(yīng)用:無需NG樣本的缺陷檢測方案,解決工業(yè)數(shù)據(jù)標(biāo)注難題 多模態(tài)融合技術(shù):PaddleOCR+YOLOv8聯(lián)動方案,實現(xiàn)\"文字識別+缺陷定位\"一體化 團(tuán)購課程大綱
    發(fā)表于 12-03 13:50

    技術(shù)為基,定義未來:廣東固特科技如何引領(lǐng)超聲切割行業(yè)十年

    行業(yè)標(biāo)準(zhǔn)而努力時,廣東固特的目光,已經(jīng)落在了未來十年技術(shù)路線上。這種引領(lǐng)并非空談,而是建立在三大核心支柱之上。一、第一支柱:超越行業(yè)標(biāo)準(zhǔn)的技術(shù)體系廣東固特率先提出并貫徹
    的頭像 發(fā)表于 12-01 17:09 ?1180次閱讀
    <b class='flag-5'>技術(shù)</b>為基,定義未來:廣東固特科技如何引領(lǐng)超聲切割行業(yè)<b class='flag-5'>十年</b>?

    華為五大創(chuàng)新開啟非洲移動產(chǎn)業(yè)黃金十年

    在2025非洲通信展(AfricaCom 2025)期間,華為無線網(wǎng)絡(luò)產(chǎn)品線營銷副總裁陳實發(fā)表“創(chuàng)新開啟非洲移動產(chǎn)業(yè)黃金十年”主題演講,表示非洲是充滿活力的數(shù)字熱土,華為將聚焦“新流量、新體驗
    的頭像 發(fā)表于 11-14 16:23 ?1351次閱讀

    深耕藍(lán)牙物聯(lián)網(wǎng)十年:北京桂花網(wǎng) 2015-2025 發(fā)展大事件全景

    。 10 月:在世界物聯(lián)網(wǎng)博覽會上,藍(lán)牙路由解決方案獲 “新技術(shù)新產(chǎn)品銀獎”,進(jìn)一步確立在藍(lán)牙物聯(lián)網(wǎng)領(lǐng)域的技術(shù)領(lǐng)先地位。2018 技術(shù)迭代升級,拓展企業(yè)級市場 1 月:藍(lán)牙路由解決
    發(fā)表于 11-07 13:52

    十年·NDI在中國|影像志:見證視頻IP化的成長與未來

    十年前,NDI改變了世界;十年后,千視與NDI攜手,共同定義未來!《十年·NDI在中國紀(jì)錄片》從一個瘋狂的愿景開始NDI的誕生,源于一個看似瘋狂極具遠(yuǎn)見的構(gòu)想。它的創(chuàng)造者堅信:隨著視
    的頭像 發(fā)表于 10-22 10:43 ?833次閱讀
    <b class='flag-5'>十年</b>·NDI在中國|影像志:見證視頻IP化的成長與未來

    從非標(biāo)測試到系統(tǒng)集成:泰德航空的十年技術(shù)跨越之路

    從非標(biāo)測試到系統(tǒng)集成的跨越發(fā)展泰德航空的發(fā)展歷程堪稱航空配套企業(yè)轉(zhuǎn)型升級的典范。公司創(chuàng)立于2012,最初只是一家專注于航空非標(biāo)測試設(shè)備制造的小型企業(yè)。經(jīng)過余年的技術(shù)積累和市場開拓,如今已成長為
    的頭像 發(fā)表于 09-25 11:25 ?567次閱讀
    從非標(biāo)測試到系統(tǒng)集成:泰德航空的<b class='flag-5'>十年</b><b class='flag-5'>技術(shù)</b>跨越之路

    老家電里的 “長壽鋁電解電容”:是什么讓它們能堅守十年以上

    鋁電解電容至今仍能正常工作,而同期其他電子元件早已老化失效。究竟是什么讓這些"長壽鋁電解電容"能夠堅守崗位超過十年?這背后隱藏著材料科學(xué)、工藝技術(shù)和環(huán)境因素的復(fù)雜博弈。 鋁電解電容的核心結(jié)構(gòu)由陽極鋁箔、電解液和
    的頭像 發(fā)表于 08-19 17:26 ?773次閱讀
    老家電里的 “長壽鋁電解電容”:是什么讓它們能堅守<b class='flag-5'>十年</b>以上

    手機長焦進(jìn)化史:攀過十年,終抵云巔

    跨越十年技術(shù)攻堅,凝聚成華為Pura 80 系列的“集大成者”
    的頭像 發(fā)表于 08-15 03:29 ?1121次閱讀
    手機長焦進(jìn)化史:攀過<b class='flag-5'>十年</b>,終抵云巔

    十年積淀,DPVR AI眼鏡將正式亮相

    表示想要購買AI眼鏡。一個新的智能設(shè)備時代,正在打開。在這個節(jié)點,深耕XR領(lǐng)域十年的DPVR(大朋VR),將帶來它的首款A(yù)I智能眼鏡——DPVRAIGlasses
    的頭像 發(fā)表于 08-14 11:47 ?1021次閱讀
    <b class='flag-5'>十年</b>積淀,DPVR AI眼鏡將正式亮相

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1352次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>