chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

劉鐵巖談機器學習:隨波逐流的太多

電子工程師 ? 來源:工程師李察 ? 2019-01-05 10:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能正受到越來越多的關(guān)注,而這波人工智能浪潮背后的最大推手就是“機器學習”。機器學習從業(yè)者在當下需要掌握哪些前沿技術(shù)?展望未來,又會有哪些技術(shù)趨勢值得期待?

近期,AI科技大本營聯(lián)合華章科技特別邀請到了微軟亞洲研究院副院長劉鐵巖博士進行在線公開課分享,為我們帶來微軟研究院最新的研究成果,以及對機器學習領域未來發(fā)展趨勢的展望。

大家好,我是劉鐵巖,來自微軟亞洲研究院。今天非常榮幸,能跟大家一起分享一下微軟研究院在機器學習領域取得的一些最新研究成果。

大家都知道,最近這幾年機器學習非?;穑踩〉昧撕芏噙M展。這張圖總結(jié)了機器學習領域的最新工作,比如 ResNet、膠囊網(wǎng)絡、Seq2Seq Model、Attention Mechanism 、GAN、Deep Reinforcement Learning 等等。

這些成果推動了機器學習領域的飛速發(fā)展,但這并不意味著機器學習領域已經(jīng)非常成熟,事實上仍然存在非常大的技術(shù)挑戰(zhàn)。比如現(xiàn)在主流機器學習算法需要依賴大量的訓練數(shù)據(jù)和計算資源,才能訓練出性能比較好的機器學習模型。同時,雖然深度學習大行其道,但我們對深度學習的理解,尤其是理論方面的理解還非常有限。深度學習為什么會有效,深度學習優(yōu)化的損失函數(shù)曲面是什么樣子?經(jīng)典優(yōu)化算法的優(yōu)化路徑如何?最近一段時間,學者們在這個方向做了很多有益的嘗試,比如討論隨機梯度下降法在什么條件下可以找到全局最優(yōu)解,或者它所得到的局部最優(yōu)解跟全局最優(yōu)解之間存在何種關(guān)系。

再比如,最近很多學者開始用自動化的方式幫助機器學習尤其是深度學習來調(diào)節(jié)超參數(shù)、搜尋神經(jīng)網(wǎng)絡的結(jié)構(gòu),相關(guān)領域稱為元學習。其基本思想是用一個機器學習算法去自動地指導另一個機器學習算法的訓練過程。但是我們必須要承認,元學習其實并沒有走出機器學習的基本框架。更有趣的問題是,如何能夠讓一個機器學習算法去幫助另一個算法突破機器學習的現(xiàn)有邊界,讓機器學習的效果更好呢?這都是我們需要去回答的問題。沿著這些挑戰(zhàn),在過去的這幾年里,微軟亞洲研究院做了一些非常有探索性的學術(shù)研究。

對偶學習解決機器學習對大量有標簽數(shù)據(jù)的依賴

首先,我們看看對偶學習。對偶學習主要是為了解決現(xiàn)有深度學習方法對訓練數(shù)據(jù)過度依賴的問題。當我們沒有標注好的訓練數(shù)據(jù)時,是否還能做有意義的機器學習?在過去的幾年里,人們做了很多嘗試,比如無監(jiān)督學習、半監(jiān)督學習等等。但是無論如何,大家心里要清楚,只有有信號、有反饋、才能實現(xiàn)有效的學習,如果我們對這個世界一無所知,我們是不能進行有效的學習的。

沿著這個思路,我們在思考:除了人為提供的標簽以外,是不是存在其他有效的反饋信號,能夠形成學習的閉環(huán)?我們發(fā)現(xiàn)很多機器學習任務其實天然有結(jié)構(gòu)對偶性,可以形成天然的閉環(huán)。

比如機器翻譯。一方面我們會關(guān)心從英文翻譯到中文,另一方面我們一定也關(guān)心從中文翻譯到英文,否則就無法實現(xiàn)兩個語種人群之間的無縫交流。再比如語音處理。我們關(guān)心語音識別的同時一定也關(guān)心語音合成,否則人和機器之間就沒有辦法實現(xiàn)真正的雙向?qū)υ?。還有圖像理解、對話引擎、搜索引擎等等,其實它們都包含具有對偶結(jié)構(gòu)的一對任務。

如何更加準確地界定人工智能的結(jié)構(gòu)對偶性呢?我們說:如果第一個任務的輸入恰好是第二個任務的輸出,而第一個任務的輸出恰好是第二個任務的輸入,那么這兩個任務之間就形成了某種結(jié)構(gòu)的“對偶性”。把它們放在一起就會形成學習的閉環(huán) ,這就是“對偶學習”的基本思想。

有了這樣的思想以后,我們可以把兩個對偶任務放到一起學,提供有效的反饋信號。這樣即便沒有非常多的標注樣本,我們?nèi)匀豢梢蕴崛〕鲇行У男盘栠M行學習。

對偶學習背后其實有著嚴格的數(shù)學解釋。當兩個任務互為對偶時,我們可以建立如下的概率聯(lián)系:

這里 X 和 Y 分別對應某個任務的輸入空間和輸出空間,在計算 X 和 Y 的聯(lián)合概率分布時有兩種分解方法,既可以分解成 P(x)P(y|x; f) ,也可以分解成 P(y)P(x|y; g)。這里,P(y|x; f) 對應了一個機器學習模型,當我們知道輸入 x 時,通過這個模型可以預測輸出 y 的概率,我們把這個模型叫主任務的機器學習模型,P(x|y; g) 則是反過來,稱之為對偶任務的機器學習模型。

有了這個數(shù)學聯(lián)系以后,我們既可以做有效的無監(jiān)督學習,也可以做更好的有監(jiān)督學習和推斷。比如我們利用這個聯(lián)系可以定義一個正則項,使得有監(jiān)督學習有更好的泛化能力。再比如,根據(jù) P(x)P(y|x; f) 我們可以得到一個推斷的結(jié)果,反過來利用貝葉斯公式,我們還可以得到用反向模型 g 做的推斷,綜合兩種推斷,我們可以得到更準確的結(jié)果。我們把以上提到的對偶學習技術(shù)應用在了機器翻譯上,取得了非常好的效果,在中英新聞翻譯任務上超過了普通人類的水平。

解決機器學習對大計算量的依賴

輕量級機器學習

最近一段時間,在機器學習領域有一些不好的風氣。有些論文里會使用非常多的計算資源,比如動輒就會用到幾百塊 GPU卡 甚至更多的計算資源。這樣的結(jié)果很難復現(xiàn),而且在一定程度上導致了學術(shù)研究的壟斷和馬太效應。

那么人們可能會問這樣的問題:是不是機器學習一定要用到那么多的計算資源?我們能不能在計算資源少幾個數(shù)量級的情況下,仍然訓練出有意義的機器學習模型?這就是輕量級機器學習的研究目標。

在過去的幾年里,我們的研究組做了幾個非常有趣的輕量級機器學習模型。比如在 2015 發(fā)表的 lightLDA 模型,它是一個非常高效的主題模型。在此之前,世界上已有的大規(guī)模主題模型一般會用到什么樣的計算資源?比如 Google 的 LDA 使用上萬個 CPU cores,才能夠通過幾十個小時的訓練獲得 10 萬個主題。為了降低對計算資源的需求,我們設計了一個基于乘性分解的全新采樣算法,把每一個 token 的平均采樣復雜度降低到 O(1),也就是說采樣復雜度不隨著主題數(shù)的變化而變化。因此即便我們使用這個主題模型去做非常大規(guī)模的主題分析,它的運算復雜度也是很低的。例如,我們只使用了 300 多個 CPU cores,也就是大概 8 臺主流的機器,就可以實現(xiàn)超過 100 萬個主題的主題分析。

這個例子告訴大家,其實有時我們不需要使用蠻力去解決問題,如果我們可以仔細分析這些算法背后的機理,做算法方面的創(chuàng)新,就可以在節(jié)省幾個數(shù)量級計算資源的情況下做出更大、更有效的模型。

同樣的思想我們應用到了神經(jīng)網(wǎng)絡上面,2016 年發(fā)表的 LightRNN算法是迄今為止循環(huán)神經(jīng)網(wǎng)絡里面最高效的實現(xiàn)。當我們用 LigthtRNN 做大規(guī)模的語言模型時,得到的模型規(guī)模比傳統(tǒng)的 RNN 模型小好幾個數(shù)量級。比如傳統(tǒng)模型大小在100GB 時,LightRNN 模型只有50MB,并且訓練時間大幅縮短 。不僅如此,LightRNN模型的 perplexity比傳統(tǒng)RNN還要更好。

可能有些同學會產(chǎn)生疑問:怎么可能又小又好呢?其實,這來源于我們在循環(huán)神經(jīng)網(wǎng)絡語言模型的算法上所做的創(chuàng)新設計。我們把對 vocabulary 的表達從一維變到了兩維,并且允許不同的詞之間共享某一部分的 embedding。至于哪些部分共享、哪些不共享,我們使用了一個二分圖匹配的算法來確定。

第三個輕量型機器學習的算法叫 LightGBM,這個工具是 GBDT 算法迄今為止最高效的實現(xiàn)。LightGBM的背后是兩篇 NIPS 論文,其中同樣包含了很多技術(shù)創(chuàng)新,比如 Gradient-based one-side sampling,可以有效減少對樣本的依賴; Exclusive feature bundling,可以在特征非常多的情況下,把一些不會發(fā)生沖突的特征粘合成比較 dense 的少數(shù)特征,使得建立特征直方圖非常高效。同時我們還提出了 Voting-based parallelization 機制,可以實現(xiàn)非常好的加速比。所有這些技巧合在一起,就成就了LightGBM的高效率和高精度。

分布式機器學習

雖然我們做了很多輕量級的機器學習算法,但是當訓練數(shù)據(jù)和機器學習模型特別大的時候,可能還不能完全解決問題,這時我們需要研究怎樣利用更多的計算節(jié)點實現(xiàn)分布式的機器學習。

我們剛剛出版了一本新書——《分布式機器學習:算法、理論與實踐》,對分布式機器學習做了非常好的總結(jié),也把我們很多研究成果在這本書里做了詳盡的描述。下面,我挑其中幾個點,跟大家分享。

分布式機器學習的關(guān)鍵是怎樣把要處理的大數(shù)據(jù)或大模型進行切分,在多個機器上做并行訓練。一旦把這些數(shù)據(jù)和模型放到多個計算節(jié)點之后就會涉及到兩個基本問題:首先,怎樣實現(xiàn)不同機器之間的通信和同步,使得它們可以協(xié)作把機器學習模型訓練好。其次,當每個計算節(jié)點都能夠訓練出一個局部模型之后,怎樣把這些局部模型做聚合,最終形成一個統(tǒng)一的機器學習模型。

數(shù)據(jù)切分

數(shù)據(jù)切分聽起來很簡單,其實有很多門道。舉個例子,一個常見的方式就是把數(shù)據(jù)做隨機切分。比如我們有很多訓練數(shù)據(jù),隨機切分成 N 份,并且把其中一份放到某個局部的工作節(jié)點上去訓練。這種切分到底有沒有理論保證?

我們知道機器學習有一個基本的假設,就是學習過程中的數(shù)據(jù)是獨立同分布采樣得來的,才有理論保證。但是前面提到的數(shù)據(jù)切分其實并不是隨機的數(shù)據(jù)采樣。從某種意義上講,獨立同分布采樣是有放回抽樣,而數(shù)據(jù)切分對應于無放回抽樣。一個很有趣的理論問題是,我們在做數(shù)據(jù)切分時,是不是可以像有放回抽樣一樣,對學習過程有一定的理論保證呢?這個問題在我們的研究發(fā)表之前,學術(shù)界是沒有完整答案的。

我們證明了:如果我先對數(shù)據(jù)進行全局置亂,然后再做數(shù)據(jù)切分,那么它和有放回的隨機采樣在收斂率上是基本一致的。但是如果我們只能做局部的數(shù)據(jù)打亂,二者之間的收斂率是有差距的。所以如果我們只能做局部的數(shù)據(jù)打亂,就不能訓練太多 epoch,否則就會與原來的分布偏離過遠,使得最后的學習效果不好。

異步通信

說完數(shù)據(jù)切分,我們再講講各個工作節(jié)點之間的通信問題。大家知道,有很多流行的分布式框架,比如 MapReduce,可以實現(xiàn)不同工作節(jié)點之間的同步計算。但在機器學習過程中,如果不同機器之間要做同步通信,就會出現(xiàn)瓶頸:有的機器訓練速度比較快,有的機器訓練速度比較慢,而整個集群會被這個集群里最慢的機器拖垮。因為其他機器都要跟它完成同步之后,才能往前繼續(xù)訓練。

為了實現(xiàn)高效的分布式機器學習,人們越來越關(guān)注異步通信,從而避免整個集群被最慢的機器拖垮。在異步通信過程中,每臺機器完成本地訓練之后就把局部模型、局部梯度或模型更新推送到全局模型上去,并繼續(xù)本地的訓練過程,而不去等待其他的機器。

但是人們一直對異步通信心有余悸。因為做異步通信的時候,同樣有一些機器運算比較快,有一些機器運算比較慢,當運算比較快的機器將其局部梯度或者模型更新疊加到全局模型上以后,全局模型的版本就被更新了,變成了很好的模型。但是過了一段時間,運算比較慢的機器又把陳舊的梯度或者模型更新,疊加到全局模型上,這就會把原來做得比較好的模型給毀掉。人們把這個問題稱為“延遲更新”。不過在我們的研究之前,沒有人定量地刻畫這個延遲會帶來多大的影響。

在去年 ICML 上我們發(fā)表了一篇論文,用泰勒展開式定量刻畫了標準的隨機梯度下降法和異步并行隨機梯隊下降法的差距,這個差距主要是由于延遲更新帶來的。如果我們簡單粗暴地使用異步 SGD,不去處理延遲更新,其實就是使用泰勒展開里零階項作為真實的近似。既然它們之間的差距在于高階項的缺失,如果我們有能力把這些高階項通過某種算法補償回來,就可以使那些看起來陳舊的延遲梯度煥發(fā)青春。這就是我們提出的帶有延遲補償?shù)碾S機梯度下降法。

這件事說起來很簡單,但實操起來有很大的難度。因為在梯度函數(shù)的泰勒展開中的一階項其實對應于原損失函數(shù)的二階項,也就是所謂的海森矩陣(Hessian Matrix)。當模型很大時,計算海森矩陣要使用的內(nèi)存和計算量都會非常大,使得這個算法并不實用。在我們的論文里,提出了一個非常高效的對海森矩陣的近似。我們并不需要真正去計算非常高維的海森矩陣并存儲它,只需要比較小的計算和存儲代價就可以實現(xiàn)對海參矩陣相當精確的近似。 在此基礎上,我們就可以利用泰勒展開,實現(xiàn)對原來的延遲梯度的補償。我們證明了有延遲補償?shù)漠惒诫S機梯度下降法的收斂率比普通的異步隨機梯度下降法要好很多,而且各種實驗也表明它的效果確實達到了我們的預期。

模型聚合

除了異步通信以外,每個局部節(jié)點計算出一個局部模型之后,怎樣聚合在一起也是一個值得思考的問題。在業(yè)界里最常用的方式是把各個不同的局部模型做簡單的參數(shù)平均。但是,從理論上講,參數(shù)平均僅在凸問題上是合理的。如果大家對凸函數(shù)的性質(zhì)有一些了解,就知道如果模型是凸的,那么我們對凸模型參數(shù)進行平均后得到的模型的性能,不會比每個模型性能的平均值差。

但是當我們用這樣的方式去處理深層神經(jīng)網(wǎng)絡這類嚴重非凸的模型時,就不再有理論保證了。我們在 2017 年這幾篇論文里指出了這個理論的缺失,并指出我們不應該做模型參數(shù)的平均,而是應該做模型輸出的平均,這樣才能獲得性能的保障,因為雖然神經(jīng)網(wǎng)絡模型是非凸的,但是常用的損失函數(shù)本身是凸的。

但是模型輸出的平均相當于做了模型的集成,它會使模型的尺寸變大很多倍。當機器學習不斷迭代時,這種模型的集成就會導致模型尺寸爆炸的現(xiàn)象。為了保持凸性帶來的好處,同時又不會受到模型尺寸爆炸的困擾,我們需要在整個機器學習流程里不僅做模型集成,還要做有效的模型壓縮。

這就是我們提出的模型集成-壓縮環(huán)路。通過模型集成,我們保持了凸性帶來的好處,通過模型壓縮,我們避免了模型尺寸的爆炸,所以最終會取得一個非常好的折中效果。

深度學習理論探索

接下來我們講講如何探索深度學習的理論邊界。我們都知道深度學習很高效,任意一個連續(xù)函數(shù),只要一個足夠復雜的深度神經(jīng)網(wǎng)絡都可以逼近得很好。但是這并不表示機器就真能學到好的模型。因為當目標函數(shù)的界面太復雜時,我們可能掉入局部極小值的陷阱,無法得到我們想要的最好模型。當模型太復雜時,還容易出現(xiàn)過擬合,在優(yōu)化過程中可能做的不錯,可是當你把學到的模型應用到未知的測試數(shù)據(jù)上時,效果不一定很好。因此對于深度學習的優(yōu)化過程進行深入研究是很有必要的。

g-Space

這個方向上,今年我們做了一個蠻有趣的工作,叫 g-Space Deep Learning。

這個工作研究的對象是圖像處理任務里常用的一大類深度神經(jīng)網(wǎng)絡,這類網(wǎng)絡的激活函數(shù)是ReLU函數(shù)。ReLU是一個分段線性函數(shù),在負半軸取值為0,在正半軸則是一個線性函數(shù)。ReLU Network 有一個眾所周知的特點,就是正尺度不變性,但我們對于這個特點對神經(jīng)網(wǎng)絡優(yōu)化影響的理解非常有限。

那么什么是正尺度不變性呢?我們來舉個例子。這是一個神經(jīng)網(wǎng)絡的局部,假設中間隱節(jié)點的激活函數(shù)是ReLU函數(shù)。當我們把這個神經(jīng)元兩條輸入邊上面的權(quán)重都乘以一個正常數(shù) c,同時把輸出邊上的權(quán)重除以同樣的正常數(shù) c,就得到一個新的神經(jīng)網(wǎng)絡,因為它的參數(shù)發(fā)生了變化。但是如果我們把整個神經(jīng)網(wǎng)絡當成一個整體的黑盒子來看待,這個函數(shù)其實沒有發(fā)生任何變化,也就是無論什么樣的輸入,輸出結(jié)果都不變。這就是正尺度不變性。

這個不變性其實很麻煩,當激活函數(shù)是 ReLu函數(shù)時,很多參數(shù)完全不一樣的神經(jīng)網(wǎng)絡,其實對應了同一個函數(shù)。這說明當我們用神經(jīng)網(wǎng)絡的原始參數(shù)來表達神經(jīng)網(wǎng)絡時,參數(shù)空間是高度冗余的空間,因為不同的參數(shù)可能對應了同一個網(wǎng)絡。這種冗余的空間是不能準確表達神經(jīng)網(wǎng)絡的。同時在這樣的冗余空間里可能存在很多假的極值點,它們是由空間冗余帶來的,并不是原問題真實的極值點。我們平時在神經(jīng)網(wǎng)絡優(yōu)化過程中遇到的梯度消減、梯度爆炸的現(xiàn)象,很多都跟冗余的表達有關(guān)系。

既然參數(shù)空間冗余有這么多缺點,我們能不能解決這個問題?如果不在參數(shù)空間里做梯度下降法,而是在一個更緊致的表達空間里進行優(yōu)化,是不是就可以解決這些問題呢?這個愿望聽起來很美好,但實際上做起來非常困難。因為深度神經(jīng)網(wǎng)絡是一個非常復雜的函數(shù),想對它做精確的緊致表達,需要非常強的數(shù)學基礎和幾何表達能力。我們組里的研究員們做了非常多的努力,經(jīng)過了一年多的時間,才對這個緊致的空間做了一個完整的描述,我們稱其為 g-Space 。

g-Space 其實是由神經(jīng)網(wǎng)絡中一組線性無關(guān)的通路組成的,所謂通路就是從輸入到輸出所走過的一條不回頭的通路,也就是其中一些邊的連接集合。我們可以證明,如果把神經(jīng)網(wǎng)絡里的這些通路組成一個空間,這個空間里的基所組成的表達,其實就是對神經(jīng)網(wǎng)絡的緊致表達。

有了 g-Space 之后,我們就可以在其中計算梯度,同時也可以在 g-Space 里計算距離。有了這個距離之后,我們還可以在 g-Space 里定義一些正則項,防止神經(jīng)網(wǎng)絡過擬合。

我們的論文表明,在新的緊致空間里做梯度下降的計算復雜度并不高,跟在參數(shù)空間里面做典型的 BP 操作復雜度幾乎是一樣的。換言之,我們設計了一個巧妙的算法,它的復雜度并沒有增加,但卻回避了原來參數(shù)空間里的很多問題,獲得了對于 ReLU Network 的緊致表達,并且計算了正確的梯度,實現(xiàn)了更好的模型優(yōu)化。

有了這些東西之后,我們形成了一套新的深度學習優(yōu)化框架。這個方法非常 general,它并沒有改變目標函數(shù),也沒改變神經(jīng)網(wǎng)絡的結(jié)構(gòu),僅僅是換了一套優(yōu)化方法,相當于整個機器學習工具包里面只換了底層,就可以訓練出效果更好的模型來。

元學習的限制

第四個研究方向也非常有趣,我們管它叫 Learning to Teach,中文我沒想到特別好的翻譯,現(xiàn)在權(quán)且叫做“教學相長”。

我們提出 Learning to Teach 這個研究方向,是基于對現(xiàn)在機器學習框架的局限性的反思。這個式子雖然看起來很簡單,但它可以描述一大類的或者說絕大部分機器學習問題。這個式子是什么意思?首先 (x, y) 是訓練樣本,它是從訓練數(shù)據(jù)集 D 里采樣出來的。 f(ω) 是模型,比如它可能代表了某一個神經(jīng)網(wǎng)絡。我們把 f(ω)作用在輸入樣本 x 上,就會得到一個對輸入樣本的預測。然后,我們把預測結(jié)果跟真值標簽 y 進行比較,就可以定義一個損失函數(shù) L。

現(xiàn)在絕大部分機器學習都是在模型空間里最小化損失函數(shù)。所以這個式子里有三個量,分別是訓練數(shù)據(jù) D,損失函數(shù) L,還有模型空間 Ω。 這三個量都是超參數(shù),它們是人為設計好的,是不變的。絕大部分機器學習過程,是在這三樣給定的情況下去做優(yōu)化,找到最好的 ω,使得我們在訓練數(shù)據(jù)集上能夠最小化人為定義的損失函數(shù)。即便是這幾年提出的 meta learning 或者 learning2learn,其實也沒有跳出這個框架。因為機器學習框架本身從來就沒有規(guī)定最小化過程只能用梯度下降的方法,你可以用任何方法,都超不出這個這個式子所表達的框架。

但是為什么訓練數(shù)據(jù)集 D、損失函數(shù) L 和模型參數(shù)空間 Ω 必須人為預先給定?如果不實現(xiàn)給定,而是在機器學習過程中動態(tài)調(diào)整,會變成什么樣子?這就是所謂的 Learning to Teach。我們希望通過自動化的手段,自動調(diào)節(jié)訓練數(shù)據(jù)集 D、損失函數(shù) L 和模型參數(shù)空間 Ω,以期拓展現(xiàn)有機器學習的邊界,幫助我們訓練出更加強大的機器學習模型。

要實現(xiàn)這件事情其實并不簡單,我們需要用全新的思路和視角。我們在今年連續(xù)發(fā)表了三篇文章,對于用自動化的方式去確定訓練數(shù)據(jù)、函數(shù)空間和損失函數(shù),做了非常系統(tǒng)的研究。

我給大家形象地描述一下我們的研究。 比如我們怎么用自動化的方式去選擇合適的數(shù)據(jù)?其實很簡單。除了原來的機器學習的模型以外,我們還有一個教學模型 teacher model。這個模型會把原來的機器學習的過程、所處的階段、效果好壞等作為輸入,輸出對下一階段訓練數(shù)據(jù)的選擇。這個 teacher model 會根據(jù)原來的機器學習模型的進展過程,動態(tài)選擇最適合的訓練數(shù)據(jù),最大限度提高性能。同時teacher model也會把機器學習在交叉驗證集上的效果作為反饋,自我學習,自我提高。

同樣 model teaching 的環(huán)路中也存在一個 teacher model ,它會根據(jù)原來的機器學習過程所處的階段、訓練的效果,選擇合適的函數(shù)空間,讓原來的機器學習擴大自己的搜索范圍,這個過程也是自適應的、動態(tài)的。原來的機器學習模型我們叫 student model,和我們引入的教學模型 teacher model 之間進行互動,就可以將學習過程推向一個新的高度。

同樣,teacher model也可以動態(tài)調(diào)整原來student model 所要優(yōu)化的目標。 比如,我們的學習目標可以從簡到難,最開始的時候,一個簡單的學習目標會讓我們很快學到一些東西,但是這個學習目標可能和我們最終問題的評價準則相差很遠。我們不斷把簡單平滑的目標,向著問題評價的復雜的非連續(xù)函數(shù)逼近,就會引導 student model 不斷提高自己的能力,最后實現(xiàn)很好的學習效果。

總結(jié)一下,當我們有一個 teacher model,它可以動態(tài)地設計訓練數(shù)據(jù)集、改變模型空間、調(diào)整目標函數(shù)時,就會使得原來“student model”的訓練更寬泛、更有效,它的邊界就會被放大。 我們在三篇論文里面分別展示了很多不同數(shù)據(jù)集上的實驗結(jié)果。

我自己認為 Learning to Teach 非常有潛力,它擴大了傳統(tǒng)機器學習的邊界。我們的三篇論文僅僅是拋磚引玉,告訴大家這件事情可以做,但前面路還很長。

到此為止,我把最近這一兩年微軟亞洲研究院在機器學習領域所做的一些研究成果跟大家做了分享,它們只是我們研究成果的一個小小的子集,但是我覺得這幾個方向非常有趣,希望能夠啟發(fā)大家去做更有意義的研究。

展望未來

現(xiàn)在機器學習領域的會議越來越膨脹,有一點點不理智。每一年那么多論文,甚至都不知道該讀哪些。人們在寫論文、做研究的時候,有時也不知道重點該放在哪里。比如,如果整個學術(shù)界都在做 learning2learn,是不是我應該做一篇 learning2learn 的論文?大家都在用自動化的方式做 neural architecture search,我是不是也要做一篇呢?現(xiàn)在這種隨波逐流、人云亦云的心態(tài)非常多。

我們其實應該反思:現(xiàn)在大家關(guān)注的熱點是不是涵蓋了所有值得研究的問題?有哪些重要的方向其實是被忽略的?我舉個例子,比如輕量級的機器學習,比如 Learning to Teach,比如對于深度學習的一些理論探索,這些方面在如今火熱的研究領域里面涉及的并不多,但這些方向其實非常重要。只有對這些方向有非常深刻的認識,我們才能真正推動機器學習的發(fā)展。希望大家能夠把心思放到那些你堅信重要的研究方向上,即便當下它還不是學術(shù)界關(guān)注的主流。

接下來我們對機器學習未來的發(fā)展做一些展望,這些展望可能有些天馬行空,但是卻包含了一些有意義的哲學思考,希望對大家有所啟發(fā)。

量子計算

第一個方面涉及機器學習和量子計算之間的關(guān)系。量子計算也是一個非常火的研究熱點,但是當機器學習碰到量子計算,會產(chǎn)生什么樣的火花?其實這是一個非常值得我們思考的問題。

目前學術(shù)界關(guān)注的問題之一是如何利用量子計算的計算力去加速機器學習的優(yōu)化過程,這就是所謂的quantum speedup。但是,這是否是故事的全部呢?大家應該想一想,反過來作為一名機器學習的學者,我們是不是有可能幫助量子計算呢?或者當機器學習和量子計算各自往前走,碰到一起的時候會迸發(fā)出怎樣的新火花?

其實在量子計算里有一些非常重要的核心問題,比如我們要去評估或者或者預測 quantum state(量子態(tài)),然后才能把量子計算的結(jié)果取出來。這個過程在傳統(tǒng)理論里面已經(jīng)證明,在最壞情況下,我們就需要指數(shù)級的采樣,才能對 quantum state 做比較好的估計。但這件事情會帶來負面影響,量子計算雖然很快,但是如果探測量子態(tài)耗費了大量時間來做采樣,就會拖垮原來的加速效果,最后合在一起,并沒有實現(xiàn)任何加速。

我們知道很多最壞情況下非常復雜的問題,比如 NP Complete問題,用機器學習的方法去解,其實可以在平均意義上取得非常好的效果。我們今年在ACML上獲得最佳論文的工作就是用機器學習的方法來解travelling salesman問題,取得了比傳統(tǒng)組合優(yōu)化更高效的結(jié)果。沿著這個思路,我們是不是可以用機器學習幫助處理量子計算里的問題,比如quantum state prediction,是不是根本不需要指數(shù)級的采樣,就可以得到一個相當好的估計?在線學習、強化學習等都能在這方面有所幫助。

同時,量子和機器學習理論相互碰撞時,會發(fā)生一些非常有趣的現(xiàn)象。我們知道,量子有不確定性,這種不確定性有的時候不見得是件壞事,因為在機器學習領域,我們通常希望有不確定性,甚至有時我們還會故意在數(shù)據(jù)里加噪聲,在模型訓練的過程中加噪聲,以期獲得更好的泛化性能。

從這個意義上講,量子計算的不確定性是不是反而可以幫助機器學習獲得更好的泛化性能?如果我們把量子計算的不確定性和機器學習的泛化放在一起,形成一個統(tǒng)一的理論框架,是不是可以告訴我們它的 Trade-off 在哪里?是不是我們對量子態(tài)的探測就不需要那么狠?因為探測得越狠可能越容易 overfit。是不是有一個比較好的折中?其實這些都是非常有趣的問題,也值得量子計算的研究人員和機器學習的研究人員共同花很多年的時間去探索。

以簡治繁

第二個方向也很有趣,它涉及到我們應該以何種方式來看待訓練數(shù)據(jù)。深度學習是一個以繁治繁的過程,為了去處理非常復雜的訓練數(shù)據(jù),它使用了一個幾乎更復雜的模型。但這樣做真的值得嗎?跟我們過去幾十年甚至上百年做基礎科學的思路是不是一致的?

在物理、化學、生物這些領域,人們追求的是世界簡單而美的規(guī)律。不管是量子物理,還是化學鍵,甚至經(jīng)濟學、遺傳學,很多復雜的現(xiàn)象背后其實都是一個二階偏微分方程,比如薛定諤方程,比如麥克斯韋方程組,等等。這些方程都告訴我們,看起來很復雜的世界,其實背后的數(shù)學模型都是簡單而美的。這些以簡治繁的思路,跟深度學習是大相徑庭的。

機器學習的學者也要思考一下,以繁治繁的深度學習真的是對的嗎?我們把數(shù)據(jù)看成上帝,用那么復雜的模型去擬合它,這樣的思路真的對嗎?是不是有一點舍本逐末了?以前的這種以簡治繁的思路,從來都不認為數(shù)據(jù)是上帝,他們認為背后的規(guī)律是上帝,數(shù)據(jù)只是一個表象。

我們要學的是生成數(shù)據(jù)的規(guī)律,而不是數(shù)據(jù)本身,這個方向其實非常值得大家去思考。要想沿著這個方向做很好的研究,我們需要機器學習的學者擴大自己的知識面,更多地去了解動態(tài)系統(tǒng)或者是偏微分方程等,以及傳統(tǒng)科學里的各種數(shù)學工具,而不是簡單地使用一個非線性的模型去做數(shù)據(jù)擬合。

Improvisational Learning

第三個方向關(guān)乎的是我們?nèi)祟惖降资侨绾螌W習的。到今天為止,深度學習在很多領域的成功,其實都是做模式識別。模式識別聽起來很神奇,其實是很簡單的一件事情。幾乎所有的動物都會模式識別。人之所以有高的智能,并不是因為我們會做模式識別,而是因為我們有知識,有常識?;谶@個理念,Yann LeCun 一個新的研究方向叫 Predictive Learning(預測學習)。它的思想是什么?就是即便我們沒有看到事物的全貌,因為我們有常識,有知識,我們?nèi)匀豢梢宰鲆欢ǔ潭鹊念A測,并且基于這個預測去做決策。這件事情已經(jīng)比傳統(tǒng)的模式識別高明很多,它會涉及到人利用知識和常識去做預測的問題。

但是,反過來想一想,我們的世界真的是可以預測的嗎?可能一些平凡的規(guī)律是可以預測的,但是我們每個人都可以體會到,我們的生活、我們的生命、我們的世界大部分都是不可預測的。所以這句名言很好,The only thing predictable about life is its unpredictability(人生中唯一能預測的就是其不可預測性)。

我們既然活在一個不可預測的世界里,那么我們到底是怎樣從這個世界里學習,并且越來越強大?以下只是一家之言,我們猜測人類其實在做一件事情,叫 Improvisation,什么意思?就是我們每個人其實是為了生存在跟這個世界抗爭。我們每天從世界里面學習的東西,都是為了應付將來未知的異常。當一件不幸的事情發(fā)生的時候,我們?nèi)绾尾拍苌嫦聛??其實是因為我們對這個世界有足夠的了解,于是會利用已有的知識,即興制定出一個方案,讓我們規(guī)避風險,走過這個坎。

我們希望在我們的眼里,世界的熵在降低。我們對它了解越多,它在我們的眼里的熵越低。同時,我們希望當環(huán)境發(fā)生變化時,比如意外發(fā)生時,我們有能力即興地去處理。這張PPT 里面描述的即興學習框架就是我們在跟環(huán)境互動,以及在做各種思想實驗,通過無監(jiān)督的方式自我學習應對未知異常的能力。

從這個意義上講,這個過程其實跟 Predictive Learning 不一樣,跟強化學習也不一樣,因為它沒有既定的學習規(guī)律和學習目標,并且它是跟環(huán)境做交互,希望能夠處理未來的未知環(huán)境。這其實就跟我們每個人積累一身本事一樣,為的就是養(yǎng)兵千日用兵一時。當某件事情發(fā)生時,我怎么能夠把一身的本事使出來,活下去。這個過程能不能用數(shù)學的語言描述? Improvisational Learning 能不能變成一個新的機器學習研究方向?非常值得我們思考。

群體智慧

最后一個展望涉及到一個更哲學的思辨:人類的智能之所以這么高,到底是因為我們個體非常強大,還是因為我們?nèi)后w非常強大?今天絕大部分的人工智能研究,包括深度學習,其實都在模仿人類個體的大腦,希望學會人類個體的學習能力。可是捫心自問,人類個體的學習能力真的比大猩猩等人類近親高幾個數(shù)量級嗎?答案顯然不是,但是今天人類文明發(fā)展的程度,跟猴子、跟大猩猩他們所處社區(qū)的文明的發(fā)展程度相比卻有天壤之別。

所以我們堅信人類除了個體聰明以外,還有一些更加特殊的東西,那就是社會結(jié)構(gòu)和社會機制,使得我們的智能突飛猛進。比如文字的產(chǎn)生,書籍的產(chǎn)生,它變成了知識的載體,使得某一個人獲得的對世界的認知,可以迅速傳播給全世界其他人,這個社會機制非常重要,會加速我們的進化。

再者,社會分工不同會使得每個人只要優(yōu)化自己的目標,讓自己變強大就可以了。各個領域里有各自的大師,而這些大師的互補作用,使得我們社會蓬勃發(fā)展。

所以社會的多樣性,社會競爭、進化、革命、革新,這些可能都是人類有今天這種高智能的原因。而這些東西在今天的機器學習領域,鮮有人去做非常好的建模。我們堅信只有對這些事情做了非常深入的研究,我們才能真正了解了人的智能,真的了解了機器學習,把我們的研究推向新的高度。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器
    +關(guān)注

    關(guān)注

    0

    文章

    795

    瀏覽量

    41771
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3645

    瀏覽量

    51685
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8540

    瀏覽量

    136206

原文標題:劉鐵巖談機器學習:隨波逐流的太多,我們需要反思

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    KiCad 的小技巧實在太多了... KiCad培訓15分鐘后有感...

    分鐘培訓后,突然發(fā)現(xiàn) KiCad 還有太多的使用的小技巧要學習,而且這些技巧可能不在文檔里... 比如上面這個圖,看看你能找到幾個有意思的地方... Stacked Pin(重疊的引腳) 仔細看一下這個
    的頭像 發(fā)表于 11-13 11:17 ?1859次閱讀
    KiCad 的小技巧實在<b class='flag-5'>太多</b>了... KiCad培訓15分鐘后有感...

    學以致用 虛位以待|玄RV學院課程正式上線,玄與PLCT實驗室邀您創(chuàng)“芯”未來

    實驗室聯(lián)合招聘培養(yǎng) 即日起,玄 x PLCT 實驗室聯(lián)合課程將陸續(xù)上線玄官網(wǎng)開發(fā)者專區(qū)的【RV學院】,歡迎同學們加入開啟 RISC-V 探索之旅! 也可以掃碼添加小助手微信加入學習交流群,與更多
    發(fā)表于 10-29 17:14

    FPGA在機器學習中的具體應用

    隨著機器學習和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2608次閱讀

    請問STM32部署機器學習算法硬件至少要使用哪個系列的芯片?

    STM32部署機器學習算法硬件至少要使用哪個系列的芯片?
    發(fā)表于 03-13 07:34

    SLAMTEC Aurora:把深度學習“卷”進機器人日常

    在人工智能和機器人技術(shù)飛速發(fā)展的今天,深度學習與SLAM(同步定位與地圖構(gòu)建)技術(shù)的結(jié)合,正引領著智能機器人行業(yè)邁向新的高度。最近科技圈頂流DeepSeek簡直殺瘋了!靠著逆天的深度學習
    的頭像 發(fā)表于 02-19 15:49 ?709次閱讀

    機器學習模型市場前景如何

    當今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學習模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學習模型市場的未來發(fā)展。
    的頭像 發(fā)表于 02-13 09:39 ?610次閱讀

    嵌入式機器學習的應用特性與軟件開發(fā)環(huán)境

    作者:DigiKey Editor 在許多嵌入式系統(tǒng)中,必須采用嵌入式機器學習(Embedded Machine Learning)技術(shù),這是指將機器學習模型部署在資源受限的設備(如微
    的頭像 發(fā)表于 01-25 17:05 ?1189次閱讀
    嵌入式<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的應用特性與軟件開發(fā)環(huán)境

    傳統(tǒng)機器學習方法和應用指導

    在上一篇文章中,我們介紹了機器學習的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學習的基礎知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)機器
    的頭像 發(fā)表于 12-30 09:16 ?1957次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學習</b>方法和應用指導

    如何選擇云原生機器學習平臺

    當今,云原生機器學習平臺因其彈性擴展、高效部署、低成本運營等優(yōu)勢,逐漸成為企業(yè)構(gòu)建和部署機器學習應用的首選。然而,市場上的云原生機器
    的頭像 發(fā)表于 12-25 11:54 ?690次閱讀

    【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗

    《具身智能機器人系統(tǒng)》 一書由甘一鳴、俞波、萬梓燊、少山老師共同編寫,其封面如圖1所示。 本書共由5部分組成,其結(jié)構(gòu)和內(nèi)容如圖2所示。 該書可作為高校和科研機構(gòu)的教材,為學生和研究人員提供系統(tǒng)
    發(fā)表于 12-20 19:17

    舜銘存儲電存儲器SF24C512(MB85RS512)工廠自動化系統(tǒng)機器人HMI中的應用

    舜銘存儲電存儲器SF24C512(MB85RS512)工廠自動化系統(tǒng)機器人HMI中的應用
    的頭像 發(fā)表于 12-20 09:56 ?1057次閱讀
    舜銘存儲<b class='flag-5'>鐵</b>電存儲器SF24C512(MB85RS512)工廠自動化系統(tǒng)<b class='flag-5'>機器</b>人HMI中的應用

    zeta在機器學習中的應用 zeta的優(yōu)缺點分析

    在探討ZETA在機器學習中的應用以及ZETA的優(yōu)缺點時,需要明確的是,ZETA一詞在不同領域可能有不同的含義和應用。以下是根據(jù)不同領域的ZETA進行的分析: 一、ZETA在機器學習
    的頭像 發(fā)表于 12-20 09:11 ?1599次閱讀

    構(gòu)建云原生機器學習平臺流程

    構(gòu)建云原生機器學習平臺是一個復雜而系統(tǒng)的過程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓練、評估、部署和監(jiān)控等多個環(huán)節(jié)。
    的頭像 發(fā)表于 12-14 10:34 ?668次閱讀

    動力儲能電池大容量 24V200Ah 磷酸鋰電池:機器人的強大動力源

    大容量 24V200Ah 磷酸鋰電池作為機器人的強大動力源,具有高安全性、長壽命、高能量密度、快速充電等優(yōu)勢。在選擇機器人電池時,需要根據(jù)機器人的工作需求、安全性、可靠性、充電速度、
    的頭像 發(fā)表于 12-11 17:12 ?2183次閱讀
    動力儲能電池大容量 24V200Ah 磷酸<b class='flag-5'>鐵</b>鋰電池:<b class='flag-5'>機器</b>人的強大動力源

    自然語言處理與機器學習的關(guān)系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它致力于研究如何讓計算機能夠理解、解釋和生成人類語言。機器學習(Machine
    的頭像 發(fā)表于 12-05 15:21 ?2525次閱讀