2011年圖靈獎得主,貝葉斯網(wǎng)絡(luò)之父JudeaPearl認為現(xiàn)在人工智能的發(fā)展進入的新的瓶頸期,各種新的成果不過本質(zhì)上不過是重復(fù)簡單的“曲線擬合”工作。Pearl 認為人們應(yīng)該更關(guān)注人工智能中的因果(Cause and Effect)推斷,這可能是實現(xiàn)真正智能機器的必由之路。
如今人工智能的強大力量在很多方面要歸功于貝葉斯網(wǎng)絡(luò)之父Judea Pearl。早在二十世紀(jì)八十年代,他領(lǐng)導(dǎo)的研究就能使機器能根據(jù)概率推理工作。在他的最新著作“《The Book of Why: The New Science of Cause and Effect》”中,他認為:由于人們對智能的真正含義不完全理解,人工智能的發(fā)展正受到前所未有的新的阻礙。
三十年前,人工智能研究的主要挑戰(zhàn)是將潛在原因與一系列人們所觀察到的現(xiàn)象聯(lián)系起來。 Pearl發(fā)現(xiàn)貝葉斯網(wǎng)絡(luò)可以做到這一點。貝葉斯網(wǎng)絡(luò)可以讓機器很容易的推理出,一個從非洲回來的有發(fā)燒和身體酸痛癥狀的患者可能是得了瘧疾。憑借這項工作,在2011年,Pearl贏得了計算機科學(xué)的最高榮譽圖靈獎。
但是,正如Pearl所預(yù)見,人工智能領(lǐng)域陷入了概率關(guān)聯(lián)的困境。如今,頭條新聞每天都在不停的報道機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的最新突破,比如計算機可以在一些游戲中戰(zhàn)勝人類,也可以駕駛汽車。面對這些看似喜人的成果,Pearl卻高興不起來,他認為今天人工智能領(lǐng)域的技術(shù)水平只不過是上一代機器已有功能的增強版,也就是在大量數(shù)據(jù)中發(fā)現(xiàn)隱藏的規(guī)律性。最近Pearl指出:“幾乎所有的深度學(xué)習(xí)突破性成果本質(zhì)上來說都只是些曲線擬合罷了”。
在他的新書中,現(xiàn)年81歲的Pearl詳細闡述了智能機器如何真正思考的愿景。他認為,關(guān)鍵在于用因果推理來取代簡單推理。機器不僅需要把發(fā)熱和瘧疾聯(lián)系起來,而且需要能夠推斷瘧疾為什么能引起發(fā)燒。一旦有了因果推理能力,機器就有可能查詢某種干預(yù)而引起的因果關(guān)系如何改變 — Pearl將其視為科學(xué)思想的基石。 Pearl還提出了一種形式化的語言,這種語言使得以“全新的貝葉斯框架驅(qū)動機器能夠以概率的方式思考”成為可能。
Pearl期望因果推理可以為機器提供人類智能。他解釋說,他們可以更有效地與人類溝通,甚至可以實現(xiàn)具有自由意志和邪惡能力的道德實體的地位。Quanta雜志采訪了他。這些對話的編輯和精簡版本如下。
為什么你的新書叫做“The Book of Why”?
它是對過去25年來我一直在做的關(guān)于因果關(guān)系,它在一個人生活中的含義,它的應(yīng)用以及我們?nèi)绾翁岢鰧逃幸蚬麊栴}的答案的工作的總結(jié)。奇怪的是,這些問題已經(jīng)被科學(xué)拋棄了。所以我在這里彌補了對科學(xué)的忽視。
這是一個戲劇性的事情,科學(xué)已經(jīng)放棄了因果關(guān)系。這不正是科學(xué)的全部內(nèi)容嗎?
當(dāng)然,但是在科學(xué)方程式中你看不到這種高尚的愿望。代數(shù)是對稱的:如果X告訴我們有關(guān)Y的信息,那么Y就會告訴我們有關(guān)X的信息。但是,沒有辦法用數(shù)學(xué)寫出一個簡單的事實 - 例如,即將到來的暴風(fēng)雨導(dǎo)致晴雨表下降,但反過來,晴雨表下降并不會導(dǎo)致暴風(fēng)雨。
數(shù)學(xué)還沒有開發(fā)出非對稱語言來捕捉我們的理解,即如果X引起Y并不意味著Y引起X。
但是科學(xué)更寬容:在我們?nèi)狈Σ粚ΨQ關(guān)系的的描述語言時,科學(xué)鼓勵我們創(chuàng)造一個。這就是用上數(shù)學(xué)的地方。對于我來說,看到簡單的因果演算解決了被認為是不明確或無法解決的問題,興奮不已。
幾十年前,你通過讓機器用概率方法推理在AI界成名。解釋當(dāng)時人工智能發(fā)生了什么事。
20世紀(jì)80年代初出現(xiàn)的問題具有預(yù)測性或診斷性。醫(yī)生會從患者身上看到一系列癥狀,并提出患者患有瘧疾或其他疾病的可能性。我們希望自動系統(tǒng)和專家系統(tǒng)能夠替代專業(yè)人員 - 無論是醫(yī)生還是礦物探險家,還是其他類型的付費專家。所以在那時我提出用概率實現(xiàn)這個想法。
不幸的是,標(biāo)準(zhǔn)概率計算需要指數(shù)空間和時間。我想出了一個稱為貝葉斯網(wǎng)絡(luò)的方案,它只需多項式時間,并且非常透明。
然而,在你的新書中,你將自己描述為今天在AI社區(qū)中背道而馳。為什么?
只要我們的機器能夠以不確定的方式推理,我就會去追求更具挑戰(zhàn)性的任務(wù):推理和因果關(guān)系。我的許多AI同事在不確定性做工作。有些研究圈子繼續(xù)在診斷方面做工作,而忽略因果因素。他們想要的只是預(yù)測好,診斷良好。
我可以給你一個例子。我們今天看到的所有機器學(xué)習(xí)工作都是在診斷模式下進行的 - 比如說將對象標(biāo)記為“貓”或“老虎”。他們不關(guān)心干預(yù);他們只是想識別一個對象并預(yù)測它將如何及時發(fā)展。
當(dāng)我開發(fā)出用于預(yù)測和診斷的強大工具時,已經(jīng)知道這只是人類智慧的小小一角。如果我們想要機器推理干預(yù)(“如果我們禁止香煙怎么辦?”)和內(nèi)?。ā叭绻易x完了高中怎么辦?”),我們必須引用因果模型。關(guān)聯(lián)關(guān)系是不夠的 - 這是一個數(shù)學(xué)事實,而不是意見。
人們都對人工智能未來巨大的潛力異常興奮,你有什么看法呢?
當(dāng)我深入研究深度學(xué)習(xí)所做的事情時,我發(fā)現(xiàn)他們都被困在了簡單連接的層次上。曲線擬合(Curve fitting)這個詞聽起來像是一種不和諧,也就是說,深度學(xué)習(xí)取得的所有巨大成就再某種程度上都不過是對數(shù)據(jù)的曲線擬合而已。從數(shù)學(xué)層次的角度來看,不管你如何巧妙地操作數(shù)據(jù),以及你在操作數(shù)據(jù)時讀取的內(nèi)容,它仍然是一個曲線擬合的訓(xùn)練過程,盡管它看起來比較復(fù)雜。
你談?wù)撉€擬合的方式,聽起來好像你對現(xiàn)在的機器學(xué)習(xí)并不太滿意啊
不,我對機器學(xué)習(xí)非常滿意,因為沒想到這么多的問題可以用純曲線擬合的方式就能解決。但我想問的是未來——下一步呢?你能讓一個機器人科學(xué)家來規(guī)劃一個實驗,就能為懸而未決的科學(xué)問題找到新的答案嗎?我們還希望與一個有意義的機器進行一些溝通,有意義表示能夠匹配我們的直覺。如果你剝奪了機器人對因果等的直覺,你就永遠無法有意義地進行交流。機器人不能說“我本應(yīng)該做得更好”。因此,我們失去了一個重要的溝通渠道。
擁有和我們一樣有因果判斷直覺機器的前景是什么?
我們必須使機器具備環(huán)境模型。如果機器不具備現(xiàn)實模型,那么你不能指望它在現(xiàn)實環(huán)境中有智能行為。首先,人類編程的現(xiàn)實概念模型可能在 10 年內(nèi)出現(xiàn)。
下一步是機器將假設(shè)此類模型屬于它們自己,并基于實驗驗證和修改模型。這就是科學(xué)中一直發(fā)生的事情:例如人類最初認同地心說,后來發(fā)現(xiàn)了日心說。
機器人也是一樣,它們將彼此溝通,將這個假設(shè)的世界轉(zhuǎn)換成隱喻模型(metaphorical model)。
您是何時與當(dāng)前研究 AI 的人們分享這些觀點的?他們有什么反應(yīng)?
AI 目前是分裂的。首先,一部分人陶醉于機器學(xué)習(xí)、深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的成功之中。他們不理解我的觀點,只想繼續(xù)進行曲線擬合。但是和在統(tǒng)計學(xué)習(xí)范疇以外研究 AI 的人們談?wù)撨@些時,他們立刻可以理解。我讀了一些近兩個月關(guān)于機器學(xué)習(xí)局限性的論文。
您是說出現(xiàn)了一種拋棄機器學(xué)習(xí)的趨勢嗎?
不是趨勢,而是一個嚴(yán)肅的內(nèi)省過程,涉及這些問題:我們?nèi)ハ蚝翁??下一步是什么?/p>
這是我最不想問您的問題
我很高興你沒有問我關(guān)于自由意志的問題。
那么您怎么認為自由意志呢?
我們將開發(fā)出具備自由意志的機器人,絕對會。我們必須理解如何編程機器人,以及我們能從中得到什么。由于某種原因,就進化方面而言這種自由意志在計算層面也將是需要的。
以何種方式?
你具備自由意志,進化已經(jīng)賦予我們這種感覺。很顯然,它提供了一些計算功能。
機器人具備自由意志時會有明顯的跡象嗎?
我認為第一個跡象將是機器人開始反事實地彼此溝通,如「你應(yīng)該做得更好」。如果一組踢足球的機器人開始用這種語言溝通,那么我們將知道它們具備了自由意志。「你應(yīng)該傳球給我,我剛才一直在等,但你沒有把球傳給我!」「你應(yīng)該……」(You should have)意味著你本應(yīng)該做什么,但是沒做。因此第一個征兆是溝通,第二個是踢出更好的足球。
既然您提到了自由意志,我想我應(yīng)該問您關(guān)于作惡能力的問題。我們通常認為作惡的能力是選擇的能力。什么是惡呢?
人們認為惡是貪婪或不滿取代了社會的所有規(guī)范。例如,某人具備一個類似會說「你餓了,因此你可以做一些事來滿足自己的貪欲或發(fā)泄自己的不滿?!沟能浖K。但是你具備其他軟件模塊,可以指導(dǎo)自己遵循社會規(guī)范。其中一個叫做同理心(compassion)。當(dāng)你抬高自己的貪欲,超過了社會通用規(guī)范,那么這就是邪惡。
那么我們?nèi)绾沃?AI 何時掌握作惡能力?
當(dāng)機器人一直忽略一些軟件模塊時,這對我們來說就是一個明顯的跡象。還有當(dāng)機器人遵循一部分軟件模塊的建議而不聽另外模塊的建議時,當(dāng)機器人忽略那些維持行為規(guī)范的模塊的建議時,當(dāng)機器人停止遵循這些模塊時。
-
人工智能
+關(guān)注
關(guān)注
1806文章
48980瀏覽量
248841 -
貝葉斯網(wǎng)絡(luò)
+關(guān)注
關(guān)注
0文章
24瀏覽量
8397 -
智能機器
+關(guān)注
關(guān)注
0文章
97瀏覽量
20537
原文標(biāo)題:貝葉斯網(wǎng)絡(luò)之父Judea Pearl:要建立真正的人工智能,少不了因果推理
文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
一文速覽:人工智能(AI)算法與GPU運行原理詳解

評論