我們探索構(gòu)建通用強化學(xué)習(xí)環(huán)境中的生成式神經(jīng)網(wǎng)絡(luò)模型。我們的世界模型(world model)可以以一種無監(jiān)督的方式進行快速訓(xùn)練,以學(xué)習(xí)環(huán)境的壓縮時空表征。通過使用從世界模型中提取的特征作為智能體的輸入,我們可以對一個非常簡潔且簡單的策略進行訓(xùn)練,以解決所需的任務(wù)。我們甚至可以在一個完全由智能體本身的世界模型所生成的夢幻夢境中對智能體進行訓(xùn)練,并將此策略遷移回實際環(huán)境中。
人類根據(jù)他們使用有限的感官對世界的感知,開發(fā)出一個有關(guān)世界的心智模型。而我們所做的決策和行動都是基于這種內(nèi)部模型的。系統(tǒng)動力學(xué)之父——Jay Wright Forrester將心智模型定義為:
我們腦海中所承載的有關(guān)周圍世界的圖像,只是一個模型。世界上沒有一個人能夠在其腦海中對全部的世界、政府或國家進行透徹的想象。他只是選擇了概念,以及它們之間的關(guān)系,并用它們來表示真實的系統(tǒng)。(Forrester于1971年提出)
為了處理流經(jīng)我們?nèi)粘I钪械拇罅啃畔ⅲ覀兊拇竽X學(xué)習(xí)對這些信息進行時空方面的抽象表征。我們能夠觀察一個場景,并記住有關(guān)它的一個抽象描述(Cheang和Tsao于2017年、Quiroga等人于2005年提出)。還有證據(jù)表明,我們在任何特定時刻所感知的事物,都是由我們的大腦基于內(nèi)部模型對未來做出的預(yù)測所掌控的(Nortmann等人于2015年、Gerrit等人于2013年提出)。
理解我們大腦中的預(yù)測模型的一種方法是,它可能不是僅僅預(yù)測未來的一般情況,而是根據(jù)當前的運動動作預(yù)測未來的感官數(shù)據(jù)(Keller等人于2012年、Leinweber等人于2017年提出)。當我們面臨危險時,我們能夠本能地依據(jù)這個預(yù)測模型采取相應(yīng)的行動,并執(zhí)行快速的反射行為(Mobbs等人于2015年提出),而無需有意識地規(guī)劃出行動計劃。
我們所看到的事物是基于我們大腦對未來進行的預(yù)測(Kitaoka于2002年、Watanabe等人于2018年提出)
以棒球為例。一個擊球手只有幾毫秒的時間來決定該如何揮棒擊球,讓這要比視覺信號到達我們的大腦所需的時間短得多。他們之所以能夠打出每小時115英里的快速球,是因為我們有能力本能地預(yù)測出球?qū)⒑螘r何地走向何方。對于職業(yè)球員來說,這一切都是在潛意識中發(fā)生的。他們的肌肉在適當?shù)臅r間和地點按照他們的內(nèi)部模型的預(yù)測反射性地揮棒擊球(Gerrit 等人于2013年提出)。他們可以迅速根據(jù)自身對未來的預(yù)測采取行動,而無需有意識地將可能的未來場景鋪展開以進行規(guī)劃(Hirshon于2013年提出)。
在許多強化學(xué)習(xí)(RL)(Kaelbling等人于1996年、Sutton和Barto于1998年、Wiering和van Otterlo于2012年提出)問題中,人工智能體也受益于具有良好的對過去和現(xiàn)在狀態(tài)的表征,以及良好的對未來的預(yù)測模型(Werbos等人于1987年、Silver于2017年提出),最好是在通用計算機上實現(xiàn)的強大的預(yù)測模型,如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)(Schmidhuber于1990、 1991年提出)。
大型RNN是具有高度表達性的模型,可以學(xué)習(xí)數(shù)據(jù)的豐富的時空表征。然而,在以往的研究中,許多無模型強化學(xué)習(xí)方法通常只使用參數(shù)很少的小型神經(jīng)網(wǎng)絡(luò)。強化學(xué)習(xí)算法常常具有信用分配問題(credit assignment problem)的局限性,這使得傳統(tǒng)的強化學(xué)習(xí)算法難以學(xué)習(xí)大型模型的數(shù)百萬個權(quán)重,因此,在實踐中往往使用較小的網(wǎng)絡(luò),因為它們在訓(xùn)練期間能夠更快地迭代形成一個良好的策略。
在這項研究中,我們構(gòu)建了OpenAI Gym環(huán)境的概率生成模型。使用從實際游戲環(huán)境中收集的記錄觀測值對基于RNN的世界模型進行訓(xùn)練。對世界模型進行訓(xùn)練之后,我們可以使用它們來模擬完整的環(huán)境并訓(xùn)練對智能體進行訓(xùn)練
理想情況下,我們希望能夠有效地對基于RNN的大型智能體進行訓(xùn)練。反向傳播算法(Linnainmaa于1970年、Kelley于1960年、Werbos于1982年提出)可以用來對大型神經(jīng)網(wǎng)絡(luò)進行有效的訓(xùn)練。在這項研究中,我們通過將智能體分為一個大的世界模型和一個小的控制器模型,從而對大型神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練以解決強化學(xué)習(xí)任務(wù)。首先,我們對大型神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,以無監(jiān)督的方式學(xué)習(xí)智能體的世界模型,然后訓(xùn)練較小的控制器模型,學(xué)習(xí)使用這個世界模型執(zhí)行任務(wù)。一個小型控制器讓訓(xùn)練算法專注于小型搜索空間上的信用分配問題,同時不會以大的世界模型的容量和表現(xiàn)力為代價。通過智能體世界模型的視角對智能體進行訓(xùn)練,我們表明,它可以學(xué)習(xí)一個高度緊湊的策略以執(zhí)行其任務(wù)。
雖然有大量關(guān)于基于模型的強化學(xué)習(xí)的研究,但本文并不是對該領(lǐng)域當前狀態(tài)的評述(Arulkumaran等人于2017年、Schmidhuber于2015年提出)。相反,本文的目標是從1990—2015年關(guān)于基于RNN的世界模型和控制器組合的一系列論文中提煉若干個關(guān)鍵概念(Schmidhuber于1990年、1991年、1990年、2015年提出)。
我們證明了在模擬潛在空間夢境中訓(xùn)練智能體執(zhí)行任務(wù)的可能性。這一方法擁有許多切實優(yōu)點。例如,在運行計算密集型游戲引擎時,需要使用大量的計算資源來將游戲狀態(tài)渲染到圖像幀中,或計算與游戲不直接相關(guān)的物理量。相信我們都不情愿在現(xiàn)實環(huán)境中浪費訓(xùn)練智能體的周期,而是更樂意在模擬環(huán)境中盡可能多地訓(xùn)練智能體。此外,在現(xiàn)實世界中訓(xùn)練智能體的代價甚至更大,因此,漸進式地進行訓(xùn)練以模擬現(xiàn)實的世界模型可以更容易地嘗試使用不同方法來訓(xùn)練我們的智能體。
此外,我們可以利用深度學(xué)習(xí)框架,在分布式環(huán)境中使用GPU,從而加速世界模型的模擬。將世界模型作為一個完全可微的循環(huán)計算圖的好處在于,我們可以直接在夢境中使用反向傳播算法對其策略進行微調(diào),從而實現(xiàn)目標函數(shù)最大化(Schmidhuber于上世紀90年代提出)。
對視覺模型V使用VAE并將其作為獨立模型進行訓(xùn)練也存在局限性,因為它可能會對與任務(wù)無關(guān)的部分觀測進行編碼。畢竟,根據(jù)定義來看,無監(jiān)督學(xué)習(xí)不知道哪些是對當前任務(wù)有用的。例如,在Doom環(huán)境中,它在側(cè)墻上復(fù)制了不重要的詳細磚瓦圖案,但在賽車環(huán)境中,它沒有在道路上復(fù)制與任務(wù)相關(guān)的磚瓦圖案。通過與預(yù)測獎勵的M模型一起訓(xùn)練,VAE可以學(xué)習(xí)專注于圖像中與任務(wù)相關(guān)的領(lǐng)域,但這里需要權(quán)衡的一點是,如果不進行重復(fù)訓(xùn)練,那么我們或許就不能有效地利用VAE再次執(zhí)行新任務(wù)。
學(xué)習(xí)任務(wù)的相關(guān)特性也與神經(jīng)科學(xué)有所關(guān)聯(lián)。當受到獎勵時,基本感覺神經(jīng)元便會從抑制中釋放出來,這意味著它們通常僅學(xué)習(xí)與任務(wù)相關(guān)的特征,而非任何特征,至少自在成年期是這樣的(Pi等人于2013年提出)。
今后的工作可能會探討如何使用無監(jiān)督分割層(Byravan等人于2017年提出)來提取更好的特征表征,這與所學(xué)習(xí)的VAE表征相比具有更好的實用性和可解釋性。
另一個令人關(guān)切的問題是,我們世界模型的容量有限。盡管現(xiàn)代存儲設(shè)備可以存儲使用迭代訓(xùn)練過程生成的大量歷史數(shù)據(jù),但我們基于長短期記憶網(wǎng)絡(luò)(LSTM)(Hochreiter和Schmidhuber于1997年提出;Gers等人于2000年提出)的世界模型可能無法在其權(quán)重連接中存儲所有記錄的信息。雖然人類的大腦可以保存幾十年甚至幾個世紀的記憶(Bartol等人于2015年提出),但我們通過反向傳播訓(xùn)練的神經(jīng)網(wǎng)絡(luò)容量有限,并受災(zāi)難性遺忘等問題的影響(Ratcliver 于1990年,F(xiàn)rench于1994年,Kirkpatrick等人于2016年提出)。如果我們希望智能體學(xué)會探索更復(fù)雜的世界,那么今后可以探索用更高容量的模型取代小型MDNRNN網(wǎng)絡(luò)(Shazeer等人于2017年,Ha等人于2016年,Suarez等人于2017年,van den Oord等人于2016年,Vaswani等人于2017年提出),或加入外部記憶模塊(Gemici等人于2017年提出)。
基于RNN的控制器與環(huán)境交互的古代繪圖(Schmidhuber于1990年提出)
就像早期基于RNN的C-M系統(tǒng)一樣(Schmidhuber等人于上世紀90年代提出),我們模擬了可能的未來時間步長,而沒有從人類的層次化規(guī)劃或抽象推理中獲益,這往往忽略了不相關(guān)的時空細節(jié)。然而,更常見的“學(xué)會思考”(Schidhuber于2015年提出)方法并不局限于這種相當幼稚的方法。相反,它允許循環(huán)C學(xué)習(xí)循環(huán)M的子例程,并重用它們以任意的計算方式解決問題,例如,通過層次化規(guī)劃或利用類似M的程序權(quán)重矩陣的其他部分。近期,One Big Net(Schmidhuber,2018年)擴展了C-M方法,它將C和M合并成一個網(wǎng)絡(luò),并使用類似Power Play的行為回放(Schmidhuber于2013,Srivastava等人于2012年提出)(其中教師網(wǎng)絡(luò)(teacher net)的行為被壓縮成學(xué)生網(wǎng)絡(luò)(student net)(Schmidhuber于1992年提出)),以避免在學(xué)習(xí)新網(wǎng)絡(luò)時忘記舊的預(yù)測和控制技能。這些具有更通用方法的實驗在未來有待進一步研究。
-
算法
+關(guān)注
關(guān)注
23文章
4739瀏覽量
96724 -
計算機
+關(guān)注
關(guān)注
19文章
7724瀏覽量
92286 -
強化學(xué)習(xí)
+關(guān)注
關(guān)注
4文章
269瀏覽量
11820
發(fā)布評論請先 登錄
【大語言模型:原理與工程實踐】大語言模型的預(yù)訓(xùn)練
【「大模型啟示錄」閱讀體驗】+開啟智能時代的新鑰匙
《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型
Pytorch模型訓(xùn)練實用PDF教程【中文】
基于Keras利用訓(xùn)練好的hdf5模型進行目標檢測實現(xiàn)輸出模型中的表情或性別gradcam
模型是數(shù)字世界與物理世界連接的橋梁
基于HarmonyOS開發(fā)的運動員智能訓(xùn)練系統(tǒng)
智能維修訓(xùn)練系統(tǒng)模型的設(shè)計與實現(xiàn)
什么是預(yù)訓(xùn)練 AI 模型?
NLP中的遷移學(xué)習(xí):利用預(yù)訓(xùn)練模型進行文本分類
使用OpenVINO優(yōu)化并部署訓(xùn)練好的YOLOv7模型

什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

英偉達推出基石世界模型Cosmos,解決智駕與機器人具身智能訓(xùn)練數(shù)據(jù)問題

評論