數(shù)學最重要的魅力在于幫助我們提出解決問題的思路或途徑。
而機器學習在一定程度上正是數(shù)學和工程的完美結(jié)合,畢竟用數(shù)學里面的概率論、隨機分析等工具研究AI早已不是什么新鮮事情。例如機器學習的四個基本原則性的問題,即泛化性、穩(wěn)定性、可計算性和可解釋性就可以用數(shù)學工程手段來解決。
在5月 9日的北京智源人工智能研究院主辦的“智源論壇——人工智能的數(shù)理基礎(chǔ)”系列報告中,北京?學的張志華教授對機器學習和數(shù)學工程的內(nèi)在關(guān)系進行了闡述。在報告中,他提到:統(tǒng)計為求解問題提供了數(shù)據(jù)驅(qū)動的建模途徑;概率論、隨機分析、微分方程、微分流形等工具可以引入來研究 AI 的數(shù)學機理等等。
除此之外,張志華教授還回顧了機器學習發(fā)展的?個重要階段,以及重點強調(diào)機器學習和人工智能之間并不能畫等號,畢竟機器學習實際上是研究算法的學科,而人工智能志在模擬人的思維和行為。
機器學習發(fā)展現(xiàn)狀的認識
機器學習與人工智能有著本質(zhì)上的不同,前者志不在模擬人的思維和行為,主要是想通過經(jīng)驗和交互的方式改善性能,是基于規(guī)則的學習。機器學習實際上是研究算法的學科,算法是基于數(shù)據(jù)型算法,然后反饋到數(shù)據(jù)中去。 可以簡單地把機器學習的過程看作這樣一個思路,然后可以基于此看看機器學習發(fā)展的歷程:
傳統(tǒng)方法:基于規(guī)則學習

第一個歷程是基于規(guī)則的學習,它的目的就是為了規(guī)則,有規(guī)則它就可以做預(yù)測。但是重點不是怎么形成規(guī)則,而是數(shù)據(jù)到表示,即通過認知的手段,把人對數(shù)據(jù)的認識過程,用計算機記錄下來。從而成一種形式化的方式,自然而然就有一種規(guī)則和邏輯的方式去做預(yù)測。它主要代表有兩個,一個是專家系統(tǒng),包括知識庫和推理基,其中重點就是知識庫。另外一個是句法模式識別,模式的目的也是怎么樣把一個對象通過一種形式化的方式表示出來。
但這一階段也暴露出一些問題,其一便是基于規(guī)則學習的方法雖然對于淺層推理比較有效,但遇上深層推理需求,如果形成規(guī)則過多,在其中搜索就容易出現(xiàn)前面的分享提到過的維數(shù)災(zāi)難問題。
為了解決問題,一個用一個強大的非線性學習模型來弱化數(shù)據(jù)到表示過程的作用,基于這樣的理論,機器學習發(fā)展至第二個階段。
統(tǒng)計機器學習黃金發(fā)展的十年

第二階段是90年代中期到2005年左右十年的時間。在這一階段為了解決維數(shù)災(zāi)難,出現(xiàn)了一個數(shù)論:即基于規(guī)則的方式,環(huán)成一個非線性的一種模型,或者用計算的手段運作模型,然后反過來可以弱化數(shù)據(jù)到表示的過程。
這一階段的神經(jīng)網(wǎng)絡(luò)(80 年代就已經(jīng)出現(xiàn)神經(jīng)網(wǎng)絡(luò)模型)則相對趨于比較低落的時期,表現(xiàn)平平,發(fā)展遇冷。主要原因在于時期的機器學習方法比神經(jīng)網(wǎng)絡(luò)要更為簡單,性能也要更好,屬性性質(zhì)相對完美,自然而然地就取代了神經(jīng)網(wǎng)絡(luò)。
但隨著統(tǒng)計方法發(fā)展到一定階段,大家發(fā)現(xiàn)“數(shù)據(jù)到表示”這件事情還是繞不過去。而應(yīng)對這一問題地一個簡單的思路就是通過學習的途徑來求解表示問題,從而弱化研究者對于領(lǐng)域背景高度掌握的要求,也就是通過一個自動化的方式來解決這一問題。
基于深度表示的學習

大模型+大數(shù)據(jù)+大計算使得這種思路變得可行,機器學習也進入了第三階段。AlexNet 網(wǎng)絡(luò)的提出在后來為問題帶來了突破性進展,很多做計算機視覺的人在網(wǎng)絡(luò)方面不停跟進,這些發(fā)展主要是基于視覺的。
那么在機器翻譯、自然語言處理,自然而然也想到深度學習既然可以解決視覺問題,當然就可以把深度學習拿到機器學習來,所以現(xiàn)在在機器學習里面它的主要的模型也是基于深度。雖然模型可能不是卷積神經(jīng)網(wǎng)絡(luò),但是核心確是LSTM這種東西。但是不管怎么樣,相對于機器學習,自然語言處理深度學習,在自然語言處理它的效果或者它的作用遠遠沒有那么好。
在上述時期,用深度學習它的目的還不是為了表示,主要是為了什么?還是為了非線性的擬合,在自然語言處理,個人理解目前為止還沒有找到一種非常有效的,像卷積神經(jīng)網(wǎng)絡(luò)有效表示圖像的網(wǎng)絡(luò),所以導致自然語言處理沒有像圖像那么強大。
那這整個過程,知道都是在一個有監(jiān)督的方式里面去做的,本質(zhì)上就是把數(shù)據(jù)到表示用一個模型和計算的方式做。而表示到預(yù)測、決策也是通過模型計算的,整個可以看到從數(shù)據(jù)到預(yù)測是端到端的優(yōu)化學習過程。
深度學習目前現(xiàn)狀:無監(jiān)督問題突出
深度學習發(fā)展到現(xiàn)在,主要講是有監(jiān)督的學習,但是現(xiàn)在很多問題是無監(jiān)督的,就是無監(jiān)督的問題遠遠比有監(jiān)督的問題要多,而且要復(fù)雜。那么一個簡單的思想就是要把無監(jiān)督的問題要形成與有監(jiān)督類似的學習的過程,有一個優(yōu)化的過程,用機器學習的方法解決事情,在統(tǒng)計里面,現(xiàn)在假設(shè)X要生成它,那么如果X是連續(xù)的,可以假設(shè)X是高斯,但是如果X來自高斯假設(shè)很強,但是可以說X是來自什么?是一個高斯混合體,如果X是一個連續(xù)的向量,那它總是可以用一個高斯混合體去逼近它,是沒有任何問題的。
但是時候發(fā)現(xiàn)X是一個抽象的數(shù)學意識,并沒有具體的物理意義,那么自然神經(jīng)網(wǎng)絡(luò)這些技術(shù)能不能對一個圖像進行生成了,對語言進行生成,而不是對數(shù)學意義上的X去生成。現(xiàn)在發(fā)展比如有一個生成對抗網(wǎng)絡(luò),它就是解決這樣的問題,它的目的不是為了生成一個抽象數(shù)學意義上的X,是生成一個真正的圖像或者語言,那么它的框架實際上就是怎么樣形成一個優(yōu)化問題。
強化學習目前的復(fù)興是因為深度學習
另一個發(fā)展方向是強化學習,強化學習是什么呢?它利用規(guī)則與環(huán)境交互或者獎賞,然后形成一個學習優(yōu)化問題,形成一個優(yōu)化問題。
對于強化學習,不是最近才發(fā)明出來的。其主要的數(shù)學手段是馬爾可夫決策過程,它通過馬爾可夫決策過程去描述問題,描述問題之后要去解問題,發(fā)現(xiàn)問題最優(yōu)解,最后把它定成貝爾曼方程,那么解貝爾曼方程的話發(fā)現(xiàn)是可以用不動點定理來描述貝爾曼方程。那么有了不動點定理支撐,現(xiàn)在主要是有兩個思路,第一個思路是基于Value,也就是用Value迭代找到最優(yōu)值。另外一種就是Polic迭代,因為本質(zhì)上不是找Value,是找Polic,所以就直接在Polic方面去做迭代。
現(xiàn)在很多實際問題實際上對環(huán)境是不會已知的,也就是說對卷積概率是不會知道的。這時候發(fā)展就是一個所謂的Q-Learning,實際上Q-Learning定義了一個新的函數(shù)叫Q函數(shù)。那么在Q-Learning基礎(chǔ)上,就發(fā)展出來深度的Q網(wǎng)絡(luò),目前現(xiàn)在主要做的比如像Polic的梯度方法,這是強化學習或者深度強化學習目前發(fā)展的一個主要結(jié)點。
機器學習的技術(shù)路線
機器學習有三個問題。一個是有監(jiān)督、無監(jiān)督和強化學習。原來認為機器學習是統(tǒng)計的分支,現(xiàn)在認為機器學習就是現(xiàn)代統(tǒng)計學。機器學習和統(tǒng)計還有微妙的關(guān)系,機器學習是分類問題,而統(tǒng)計是回歸問題,分類和回歸也沒有太本質(zhì)的區(qū)別。
第二,機器學習往往會形成優(yōu)化問題。剛才說要形成優(yōu)化過程,它跟優(yōu)化是什么區(qū)別?一個優(yōu)化的學者,或者優(yōu)化領(lǐng)域里面它純粹就關(guān)注找到最優(yōu)值。但是對于機器學習的學者來說,最緊急的是要找到預(yù)測數(shù)據(jù)。
現(xiàn)在看來,現(xiàn)代的機器學習它主要成功就在于表示,就是深度學習是一個表示,它不是單純的是一個非線性模型,主要是一個非線性的表示。當然想到機器學習它的目的是預(yù)測,而預(yù)測是通過計算得出。
但是深度學習也遇到很多挑戰(zhàn),第一個是需要大數(shù)據(jù)的要求,大家網(wǎng)絡(luò)是非常多,所以往往導致過參數(shù)的問題。另外就是在做表述是基于多層的表述,所以問題是高度的非凸化。
另外,現(xiàn)在機器學習要關(guān)注的重點問題有四個方面。第一個是可預(yù)測性、第二個可計算性、第三個是穩(wěn)定性、第四個就是可解釋性。可能現(xiàn)在認為主要重點就是在穩(wěn)定性和泛化性方面,因為覺得神經(jīng)網(wǎng)絡(luò)沒有可解釋性。
最后,張志華教授就機器學習和數(shù)學工程之間的關(guān)系給出了這樣的闡述:
統(tǒng)計為求解問題提供了數(shù)據(jù)驅(qū)動的建模途徑;
概率論、隨機分析、微分方程、微分流形等工具可以引入來研究 AI 的數(shù)學機理;
無論從統(tǒng)計角度還是從數(shù)學角度來研究 AI,其實際性能最后都要通過計算呈現(xiàn)出來:
1.數(shù)值分析,即求解連續(xù)數(shù)學問題的算法;
2.離散算法,即求解離散結(jié)構(gòu)問題的算法;
3.大規(guī)模計算架構(gòu)
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4825瀏覽量
106751 -
機器學習
+關(guān)注
關(guān)注
66文章
8541瀏覽量
136209
原文標題:北大張志華:機器學習就是現(xiàn)代統(tǒng)計學
文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
學單片機的誤區(qū)
機器視覺檢測PIN針
FPGA在機器學習中的具體應(yīng)用
機器學習賦能的智能光子學器件系統(tǒng)研究與應(yīng)用
學硬件好還是學軟件好?
機器學習模型市場前景如何
華為云GaussDB助力統(tǒng)計現(xiàn)代化改革
人工智能和機器學習以及Edge AI的概念與應(yīng)用
嵌入式機器學習的應(yīng)用特性與軟件開發(fā)環(huán)境
傳統(tǒng)機器學習方法和應(yīng)用指導

機器學習就是現(xiàn)代統(tǒng)計學
評論