作者:小巖
編輯:彩云
根據(jù)財聯(lián)社消息,11月28日,比爾·蓋茨針對AI未來的發(fā)展趨勢發(fā)表了自己的看法。他認為,當下生成式AI的發(fā)展已經(jīng)達到了極限,很難再有突破性的進展。下一個AI發(fā)展的賽道,很可能是可解釋AI。比爾.蓋茨預測,未來10年(2030年-2039年),AI領域的主角將成為可解釋AI。
大部分人預判:GPT-5將明顯優(yōu)于GPT-4,成為生成式AI領域天花板。
盡管OpenAI還沒有對外界公布GPT-5的確切上線時間,甚至還曾遭到馬斯克等人的反對,被其“聯(lián)名上書”,認為“GPT -5不應該問世”。但有一點毋庸置疑,如今的大模型GPT-4已經(jīng)達到了行業(yè)領先的水準,眾人難望其項背。而它距離上一代的GPT-3.5上線,只經(jīng)歷了很短的時間,所以,我們有理由相信,一旦GPT-5成功面世,它的優(yōu)勢將明顯大于GPT。這也是比爾.蓋茨認為生成式AI再難有突破的重要原因。
當然不可否認,生成式AI公司在最近取得了飛速發(fā)展。根據(jù)PitchBook為彭博社收集的數(shù)據(jù),僅第3季度,全球AI公司的融資價值同比增長27 %,達到179億美元。這表明了投資者對于AI技術(shù),特別是當下發(fā)展正夯的生成式AI,持有相信和樂觀態(tài)度。而且,這種“一片向好”的態(tài)勢不光出現(xiàn)在國際上,中國自己的生成式AI行業(yè)也在這一年得到了迅速發(fā)展,這其中涵蓋了語言模型,圖像生成,文學創(chuàng)作,音樂創(chuàng)作,游戲開發(fā)等多個領域。
隨著大模型在AI領域取得了重大突破,未來算力將變得更加廉價,也會在多個領域取得顯著成果,從而推動國內(nèi)的產(chǎn)業(yè)升級和創(chuàng)新發(fā)展。當然,在這個過程中,大型模型會逐漸減少,應用則會愈發(fā)增多。
不過,各大企業(yè)在享受AI飛速發(fā)展的紅利的同時,也不得不面對激烈的市場競爭。為了在市場上分得一杯羹,各企業(yè)傾向通過橫向并購的方式來擴大市場份額,從而提升地位。而AI大模型的研發(fā),數(shù)據(jù)收集,數(shù)據(jù)驗證也需要有大量的資金來做支撐。此時,就要考驗企業(yè)是否具有“鈔能力”了。
可解釋AI即將登場!它為何有可能引領下一個AI風潮?
那么,為什么可解釋AI會備受比爾.蓋茨的推崇?
在人類歷史上,技術(shù)進步,生產(chǎn)關系邏輯,倫理法規(guī)的發(fā)展是動態(tài)演進的。當一種新的技術(shù)在實驗室獲得突破后,它所能帶來的價值生產(chǎn)方式勢必會對商品形態(tài)和生產(chǎn)關系等帶來沖擊。當新技術(shù)帶來的價值被認可,商業(yè)邏輯會逐步形成,同時適配全新的倫理法規(guī)。
近10年來,借由算力與數(shù)據(jù)規(guī)模的性價比突破臨界點,以深度神經(jīng)網(wǎng)絡為代表的聯(lián)結(jié)主義模型架構(gòu)及統(tǒng)計學習范式(簡稱深度學習)在特征表征能力上取得了跨越級別的突破,大大推動了人工智能的發(fā)展,在很多場景中達到令人難以置信的效果(譬如人臉識別準確率達到97 %以上;谷歌智能語音助手的回答正確率高達90 %以上等,都是典型案例) 。
不過,當學習不斷深入,問題也隨之產(chǎn)生。當“深度學習商業(yè)化運用”觸及到某些對技術(shù)敏感,或者與人的生存和安全關系緊密的領域時,諸如自動駕駛,金融,醫(yī)療和司法等高風險應用場景,原有的商業(yè)邏輯在進行技術(shù)更替的過程中就會遇到阻力,從而導致商業(yè)化速度的減緩甚至失敗。
究其原因,是因為這些敏感領域會涉及到社會道德和倫理法規(guī)的問題。對于這些,我們?nèi)祟惪梢栽诘谝粫r間給予清晰的分辨,溯源和問責。可這些深度學習的商業(yè)體,從本質(zhì)上說,就是一個黑盒,無法從模型的結(jié)構(gòu)或權(quán)重中獲取模型行為的任何信息,從而導致AI在業(yè)務應用中遇到技術(shù)和結(jié)構(gòu)上的困難。
讓我們舉2個例子來進行一下說明。譬如在金融風控的場景里,通過深度學習,模型識別出來小部分用戶有欺詐嫌疑,但是業(yè)務部門不敢直接使用這個結(jié)果進行處理。因為整個業(yè)務部門都不知道結(jié)果是如何得來的,并且無法判斷得出的結(jié)果是否正確,整個過程也都缺乏明確的證據(jù)。再比如說在醫(yī)療使用場景里,深度學習模型根據(jù)患者的檢測數(shù)據(jù),判斷患者有肺結(jié)核。但是醫(yī)生不知道診斷結(jié)果是怎么來的,不敢直接采用,只能根據(jù)自己的經(jīng)驗,仔細查看相關檢測數(shù)據(jù),給出自己的判斷。
由此可見,“黑盒”的形態(tài)會嚴重影響模型在實際場景的應用和推廣。要解決模型的這些問題,就需要打開黑盒模型,透明化模型構(gòu)建過程和推理機理,而可解釋AI就是實現(xiàn)模型透明化的有效技術(shù)。
可解釋AI:一套面向機器學習(主要是深度神經(jīng)網(wǎng)絡)技術(shù)合集。
所謂可解釋AI,英文是explainable AI(XAI)。目前,無論學術(shù)界還是工業(yè)界,對于可解釋AI都沒有一個統(tǒng)一的定義。我們在這里為大家介紹3個廣為流行的解釋。
第一個解釋,是希望尋求對模型工作機理的直接理解,打破人工智能的黑盒子。第二個解釋,是為AI算法所做出的決策提供人類可讀的以及可理解的解釋。都三個解釋,是確保人類可以輕松理解和信任人工智能代理做出的決策的一組方法。
由此可見,對于黑盒模型的理解,是可解釋AI的關鍵。
MindSpore團隊根據(jù)自身的實踐經(jīng)驗和理解,將可解釋AI定義為:一套面向機器學習(主要是深度神經(jīng)網(wǎng)絡)的技術(shù)合集,包括可視化,數(shù)據(jù)挖掘,邏輯推理,知識圖譜等。
有了可解釋AI的介入,用戶就可以知道AI系統(tǒng)為什么要這樣做,也知道AI系統(tǒng)為什么不這樣做;可以知道AI系統(tǒng)什么時候可以成功,什么時候失??;可以知道什么時候可以信任AI系統(tǒng);更可以知道AI系統(tǒng)為什么做錯了。
目前,OpenAI的產(chǎn)品還沒有辦法實現(xiàn)完全盈利。本身ChatGPT并不做商業(yè)用途,而且在運營過程中,需要應對各項成本支出(培訓,微調(diào),人員工資等),再加上GPT-5的訓練時間極有可能拉長,OpenAI未來要面臨的挑戰(zhàn)異常嚴峻。
此時,如果能跳脫出生成式AI的圈子,另辟蹊徑,進入下一個發(fā)展階段,未嘗不是一個適合的出路。
審核編輯 黃宇
-
AI
+關注
關注
88文章
35109瀏覽量
279612 -
人工智能
+關注
關注
1806文章
49011瀏覽量
249366 -
GPT
+關注
關注
0文章
368瀏覽量
16084 -
深度學習
+關注
關注
73文章
5561瀏覽量
122793 -
OpenAI
+關注
關注
9文章
1207瀏覽量
8908
發(fā)布評論請先 登錄
評論