chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌最近提出一種新的強(qiáng)化學(xué)習(xí)算法:模擬策略學(xué)習(xí) (SimPLe)

DPVg_AI_era ? 來源:lp ? 2019-03-29 10:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌最近提出一種新的強(qiáng)化學(xué)習(xí)算法模擬策略學(xué)習(xí) (SimPLe) ,使用游戲模型來學(xué)習(xí)選擇動作的策略,在兩款A(yù)tari游戲中獲得了最高分?jǐn)?shù),并且效率比以前的最先進(jìn)方法高出2倍以上。

深度強(qiáng)化學(xué)習(xí)(RL)技術(shù)可用于從視覺輸入中學(xué)習(xí)復(fù)雜任務(wù)的策略,并已成功地應(yīng)用于經(jīng)典的Atari 2600游戲。最近在這一領(lǐng)域的工作表明,即使在具有挑戰(zhàn)性的探索體系中,例如《蒙特祖瑪?shù)膹?fù)仇》游戲,AI也可以獲得超越人類的表現(xiàn)。

然而,許多最先進(jìn)的方法都有的一個限制是,它們需要與游戲環(huán)境進(jìn)行大量的交互,通常比人類學(xué)習(xí)如何玩好游戲所需要的交互要多得多。

為什么人類能更有效地學(xué)習(xí)這些任務(wù)?一個可能的假設(shè)是,他們能夠預(yù)測自己行為的影響,從而隱式地學(xué)習(xí)了一個關(guān)于哪些動作序列將導(dǎo)致理想結(jié)果的模型。

這種一般性的想法——構(gòu)建一個所謂的游戲模型,并使用它來學(xué)習(xí)選擇行動的良好策略——是基于模型的強(qiáng)化學(xué)習(xí)(model-based reinforcement learning, MBRL)的主要前提。

Google的研究人員最近提出一種新的MBRL算法——模擬策略學(xué)習(xí)(Simulated Policy Learning, SimPLe),使用游戲模型來學(xué)習(xí)選擇動作的質(zhì)量策略。

SimPLe比當(dāng)前最先進(jìn)的技術(shù)更高效,并且僅使用了~100K與游戲的交互即可顯示出有競爭力的結(jié)果(相當(dāng)于一個人約2小時的實時玩游戲)。

研究人員在論文“Model-Based Reinforcement Learning for Atari”中描述了該算法,并已將代碼作為tensor2tensor開源庫的一部分開源。該版本包含一個預(yù)訓(xùn)練的世界模型,可以使用簡單的命令行運(yùn)行,并且可以使用類似于Atari的界面播放。

學(xué)習(xí)一個SimPLe世界模型

SimPLe背后的想法是在學(xué)習(xí)游戲行為的世界模型和在模擬游戲環(huán)境中使用該模型優(yōu)化策略(使用model-free強(qiáng)化學(xué)習(xí))之間進(jìn)行交替。該算法的基本原理已經(jīng)在Sutton的“Dyna, an integrated architecture for learning, planning, and reacting”中很好地建立起來,并且已經(jīng)應(yīng)用到許多最近的基于模型的強(qiáng)化學(xué)習(xí)方法中。

SimPLe的主循環(huán)。1) agent開始與真實環(huán)境交互。2)收集的觀測結(jié)果用于更新當(dāng)前的世界模型。3) agent通過學(xué)習(xí)世界模型更新策略。

為了訓(xùn)練一個玩Atari游戲的模型,我們首先需要在像素空間中生成合理的未來版本。換句話說,我們通過將一系列已經(jīng)觀察到的幀和給到游戲的命令(如“左”、“右”等)作為輸入,來試圖預(yù)測下一幀會是什么樣子。在觀察空間中訓(xùn)練一個世界模型的一個重要原因在于,它實際上是一種自我監(jiān)督的形式,在我們的例子中,觀察(像素)形成了一個密集且豐富的監(jiān)督信號。

如果成功地訓(xùn)練了這樣一個模型(如一個視頻預(yù)測器),則基本上有了一個游戲環(huán)境的學(xué)習(xí)模擬器(learned simulator),可用于生成用來訓(xùn)練良好策略的軌跡,即選擇一系列使智能體的長期獎勵最大化的動作。

換句話說,我們不是在真實游戲的操作序列上訓(xùn)練策略,這在實踐和計算上都非常密集,而是在來自世界模型/學(xué)習(xí)模擬器的序列之上訓(xùn)練策略。

我們的世界模型是一個前饋卷積網(wǎng)絡(luò),它接收4個幀,并預(yù)測下一幀以及獎勵(見上圖)。然而,在Atari游戲的情況下,只考慮4幀的視界的話,未來是非確定性的。例如,游戲中的暫停時間就已經(jīng)超過四幀,比如在《乒乓球》(Pong)游戲中,當(dāng)球掉出框時,可能會導(dǎo)致模型無法成功預(yù)測后續(xù)的幀。我們使用一種新的視頻模型架構(gòu)來處理諸如此類的隨機(jī)性問題,在這種情況下能做得更好。

當(dāng)SimPle模型應(yīng)用于《成龍?zhí)唣^》(Kung Fu Master)游戲時,可以看到一個由隨機(jī)性引起的問題的例子。在動畫中,左邊是模型的輸出,中間是groundtruth,右邊是兩者之間的像素差異。在這里,模型的預(yù)測由于產(chǎn)生了不同數(shù)量的對手而偏離了真實游戲。

在每次迭代中,在訓(xùn)練好世界模型之后,我們使用這個learned simulator來生成用于使用近似策略優(yōu)化(PPO)算法改進(jìn)游戲策略的rollouts(即動作、觀察和結(jié)果的樣本序列)。

SimPLe工作的一個重要細(xì)節(jié)是,rollouts的采樣是從實際數(shù)據(jù)集幀開始的。由于預(yù)測錯誤通常會隨著時間的推移而增加,使長期預(yù)測變得非常困難,因此SimPLe只使用中等長度的rollouts。幸運(yùn)的是,PPO算法也可以從其內(nèi)部價值函數(shù)中學(xué)習(xí)動作和獎勵之間的長期影響,因此有限長度的rollouts對于像《Freeway》這樣獎勵稀疏的游戲來說也是足夠的。

SimPLe的效率:比其他方法高2倍以上

衡量成功的一個標(biāo)準(zhǔn)是證明該模型是高效的。為此,我們在與環(huán)境進(jìn)行了100K次交互之后,評估了我們的策略輸出,這相當(dāng)于一個人玩了大約兩個小時的實時游戲。

我們將SimPLe方法與兩種最先進(jìn)的model-free RL方法:Rainbow和PPO,進(jìn)行了比較。在大多數(shù)情況下,SimPLe方法的采樣效率比其他方法高出兩倍以上。

和我們SimPLe方法取得的得分匹配的話,兩種model-free算法所需的交互次數(shù)(左- Rainbow;右-PPO)。紅線表示我們的方法使用的交互次數(shù)。

SimPLe的成功:2款游戲獲得最高分

SimPLe方法的一個令人興奮的結(jié)果是,對于Pong和Freeway這兩款游戲,在模擬環(huán)境中訓(xùn)練的智能體能夠獲得最高分?jǐn)?shù)。下面是智能體使用為Pong游戲?qū)W習(xí)的模型玩游戲的視頻:

對于Freeway、Pong和Breakout這3款游戲,SimPLe可以生成50步以內(nèi)的近乎完美的像素預(yù)測,如下圖所示。

SimPLe可以在Breakout(上圖)和Freeway(下圖)生成幾乎完美的像素預(yù)測。在每個動畫中,左邊是模型的輸出,中間是groundtruth,右邊是兩者之間的像素差異。

SimPLe的局限

SimPLe的預(yù)測并不總是正確的。最常見的失敗是由于世界模型沒有準(zhǔn)確地捕獲或預(yù)測小但高度相關(guān)的對象。

例如:(1)在《Atlantis》和《Battlezone》游戲中,子彈是如此之小,以至于它們往往會消失不見;(2)《Private Eye》游戲中,agent穿越不同的場景,從一個場景傳送到另一個場景。我們發(fā)現(xiàn),我們的模型通常很難捕捉到如此巨大的全局變化。

在《Battlezone》中,我們發(fā)現(xiàn)模型很難預(yù)測小但高度相關(guān)的部分,比如子彈。

結(jié)論

model-based的強(qiáng)化學(xué)習(xí)方法的主要前景是在交互要么成本高昂、速度緩慢,要么需要人工標(biāo)記的環(huán)境中,比如許多機(jī)器人任務(wù)。在這樣的環(huán)境中,一個learned simulator能夠更好地理解智能體的環(huán)境,并能夠為執(zhí)行多任務(wù)強(qiáng)化學(xué)習(xí)提供新的、更好、更快的方法。

雖然SimPLe還沒有達(dá)到標(biāo)準(zhǔn)的model-free RL方法的性能,但它的效率要高很多。我們期望未來的工作能夠進(jìn)一步提高model-based的技術(shù)的性能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111409
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4784

    瀏覽量

    98074
  • 強(qiáng)化學(xué)習(xí)

    關(guān)注

    4

    文章

    270

    瀏覽量

    11970

原文標(biāo)題:谷歌提出強(qiáng)化學(xué)習(xí)新算法SimPLe,模擬策略學(xué)習(xí)效率提高2倍

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動駕駛中常提的離線強(qiáng)化學(xué)習(xí)是什么?

    ,圖片源自:網(wǎng)絡(luò) 但強(qiáng)化學(xué)習(xí)本身是需要不斷試錯的,如果采用這種學(xué)習(xí)方式在真實道路中不斷嘗試,定會導(dǎo)致不可控的事故。于是就有人提出一種猜測,
    的頭像 發(fā)表于 02-07 09:21 ?214次閱讀
    自動駕駛中常提的離線<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>是什么?

    強(qiáng)化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    一種讓機(jī)器通過“試錯”學(xué)會決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會把每步的“正確答案”都告訴
    的頭像 發(fā)表于 01-31 09:34 ?646次閱讀
    <b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>會讓自動駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    多智能體強(qiáng)化學(xué)習(xí)(MARL)核心概念與算法概覽

    訓(xùn)練單個RL智能體的過程非常簡單,那么我們現(xiàn)在換個場景,同時訓(xùn)練五個智能體,而且每個都有自己的目標(biāo)、只能看到部分信息,還能互相幫忙。這就是多智能體強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 01-21 16:21 ?198次閱讀
    多智能體<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>(MARL)核心概念與<b class='flag-5'>算法</b>概覽

    上汽別克至境E7首發(fā)搭載Momenta R6強(qiáng)化學(xué)習(xí)大模型

    別克至境家族迎來新成員——大五座智能SUV別克至境E7首發(fā)。新車將搭載Momenta R6強(qiáng)化學(xué)習(xí)大模型,帶來全場景的智能出行體驗。
    的頭像 發(fā)表于 01-12 16:23 ?333次閱讀

    如何訓(xùn)練好自動駕駛端到端模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:端到端算法是怎樣訓(xùn)練的?是模仿學(xué)習(xí)、強(qiáng)化學(xué)習(xí)和離線強(qiáng)化學(xué)習(xí)這三類嗎?其實端到端(
    的頭像 發(fā)表于 12-08 16:31 ?1432次閱讀
    如何訓(xùn)練好自動駕駛端到端模型?

    今日看點(diǎn):智元推出真機(jī)強(qiáng)化學(xué)習(xí);美國軟件公司SAS退出中國市場

    智元推出真機(jī)強(qiáng)化學(xué)習(xí),機(jī)器人訓(xùn)練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機(jī)器人宣布其研發(fā)的真機(jī)強(qiáng)化學(xué)習(xí)技術(shù),已在與龍旗科技合作的驗證產(chǎn)線中成功落地。據(jù)介紹,此次落地的真機(jī)強(qiáng)化學(xué)習(xí)方案,機(jī)器人
    發(fā)表于 11-05 09:44 ?1100次閱讀

    自動駕駛中常提的“強(qiáng)化學(xué)習(xí)”是個啥?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強(qiáng)化學(xué)習(xí)(Reinforcement Learning,簡稱RL)”,強(qiáng)化學(xué)習(xí)類讓機(jī)器通過試錯來學(xué)會做決策的技術(shù)。簡單理解
    的頭像 發(fā)表于 10-23 09:00 ?677次閱讀
    自動駕駛中常提的“<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>”是個啥?

    PID控制算法學(xué)習(xí)筆記資料

    用于新手學(xué)習(xí)PID控制算法。
    發(fā)表于 08-12 16:22 ?7次下載

    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化學(xué)習(xí)腳本使用指南

    Lab 是個適用于機(jī)器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時支持模仿學(xué)習(xí)(模仿人類)和強(qiáng)化學(xué)習(xí)(在嘗試和錯誤中進(jìn)行
    的頭像 發(fā)表于 07-14 15:29 ?2350次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>腳本使用指南

    【書籍評測活動NO.62】本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    能力的自主進(jìn)化。 02.GRPO 算法 GRPO 算法是 DeepSeek-R1-Zero 使用的另個重要的創(chuàng)新算法。與傳統(tǒng)的強(qiáng)化學(xué)習(xí)
    發(fā)表于 06-09 14:38

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1449次閱讀
    使用MATLAB進(jìn)行無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    18個常用的強(qiáng)化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強(qiáng)化學(xué)習(xí)方法到高級技術(shù)(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強(qiáng)化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?1613次閱讀
    18個常用的<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b><b class='flag-5'>算法</b>整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    電機(jī)大范圍調(diào)速的綜合電壓調(diào)制策略

    針對電動汽車要求驅(qū)動電機(jī)具有大范圍調(diào)速要求和目前任何單基本調(diào)制方式都無法做到全調(diào)制比范圍內(nèi)性能最優(yōu)的問題,提出一種綜合的調(diào)制策略:在低調(diào)制比階段使用傳統(tǒng)的SVPWM
    發(fā)表于 04-01 14:51

    永磁同步電機(jī)二階迭代學(xué)習(xí)控制

    針對永磁同步電機(jī)存在的周期性脈動問題,提出一種二階 PD-型迭代學(xué)習(xí)控制策略,該算法能夠 有效實現(xiàn)最優(yōu)跟蹤控制 。利用卷積的推廣 You
    發(fā)表于 03-26 14:28

    一種無刷直流電機(jī)霍耳信號與定子繞組關(guān)系自學(xué)習(xí)方法

    的關(guān)系。提出一種無刷直流電機(jī)霍耳信號與定子繞組關(guān)系自學(xué)習(xí)方法,該方法通過不同的繞組通電組合將電機(jī)轉(zhuǎn)子依次轉(zhuǎn)到6個不同的位置并記錄對應(yīng)的霍耳信號,然后得出霍耳信號與定子繞組的對應(yīng)關(guān)系。所提出
    發(fā)表于 03-25 15:15