chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌提出對加速智能體的學(xué)習(xí)過程

mK5P_AItists ? 來源:未知 ? 作者:鄧佳佳 ? 2018-04-02 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在強化學(xué)習(xí)問題中,關(guān)于任務(wù)目標的制定,往往需要開發(fā)人員花費很多的精力,在本文中,谷歌大腦聯(lián)合佐治亞理工學(xué)院提出了正向-反向強化學(xué)習(xí)(Forward-Backward Reinforcement Learning,F(xiàn)BRL),它既能從開始位置正向進行探索,也可以從目標開始進行反向探索,從而加速智能體的學(xué)習(xí)過程。

一般來說,強化學(xué)習(xí)問題的目標通常是通過手動指定的獎勵來定義的。為了設(shè)計這些問題,學(xué)習(xí)算法的開發(fā)人員必須從本質(zhì)上了解任務(wù)的目標是什么。然而我們卻經(jīng)常要求智能體在沒有任何監(jiān)督的情況下,在這些稀疏獎勵之外,獨自發(fā)現(xiàn)這些任務(wù)目標。雖然強化學(xué)習(xí)的很多力量來自于這樣一種概念,即智能體可以在很少的指導(dǎo)下進行學(xué)習(xí),但這一要求對訓(xùn)練過程造成了極大的負擔(dān)。

如果我們放松這一限制,并賦予智能體關(guān)于獎勵函數(shù)的知識,尤其是目標,那么我們就可以利用反向歸納法(backwards induction)來加速訓(xùn)練過程。為了達到這個目的,我們提出訓(xùn)練一個模型,學(xué)習(xí)從已知的目標狀態(tài)中想象出反向步驟。

我們的方法不是專門訓(xùn)練一個智能體以決策該如何在前進的同時到達一個目標,而是反向而行,共同預(yù)測我們是如何到達目標的。我們在Gridworld和漢諾塔(Towers of Hanoi)中對我們的研究進行了評估,并通過經(jīng)驗證明了,它的性能比標準的深度雙Q學(xué)習(xí)(Deep Double Q-Learning,DDQN)更好。

強化學(xué)習(xí)(Reinforcement Learning,RL)問題通常是由智能體在對環(huán)境的任務(wù)獎勵盲然無知的情況下規(guī)劃的。然而,對于許多稀疏獎勵問題,包括點對點導(dǎo)航、拾取和放置操縱、裝配等等目標導(dǎo)向的任務(wù),賦予該智能體以獎勵函數(shù)的知識,對于學(xué)習(xí)可泛化行為來說,既可行又實用。

通常,這些問題的開發(fā)人員通常知道任務(wù)目標是什么,但不一定知道如何解決這些問題。在本文中,我們將介紹我們?nèi)绾卫脤δ繕说闹R,使我們甚至能夠在智能體到達這些領(lǐng)域之前學(xué)習(xí)這些領(lǐng)域中的行為。相比于那些從一開始就將學(xué)習(xí)初始化的方法,這種規(guī)劃性方案可能更容易解決。

例如,如果我們知道所需的位置、姿勢或任務(wù)配置,那么我們就可以逆轉(zhuǎn)那些將我們帶到那里的操作,而不是迫使智能體獨自通過隨機發(fā)現(xiàn)來解決這些難題。

Gridworld和漢諾塔環(huán)境

本文中,我們介紹了正向-反向強化學(xué)習(xí)(Forward-Backward Reinforcement Learning,F(xiàn)BRL),它引入反向歸納,使我們的智能體能夠及時進行逆向推理。通過一個迭代過程,我們既從開始位置正向進行了探索,也從目標開始進行了反向探索。

為了實現(xiàn)這一點,我們引入了一個已學(xué)習(xí)的反向動態(tài)模型,以從已知的的目標狀態(tài)開始進行反向探索,并在這個局部領(lǐng)域中更新值。這就產(chǎn)生了“展開”稀疏獎勵的效果,從而使它們更容易發(fā)現(xiàn),并因此加速了學(xué)習(xí)過程。

標準的基于模型的方法旨在通過正向想象步驟并使用這些產(chǎn)生幻覺的事件來增加訓(xùn)練數(shù)據(jù),從而減少學(xué)習(xí)優(yōu)秀策略所必需的經(jīng)驗的數(shù)量。然而,并不能保證預(yù)期的狀態(tài)會通向目標,所以這些轉(zhuǎn)出結(jié)果可能是不充分的。

預(yù)測一個行為的結(jié)果的能力并不一定能提供指導(dǎo),告訴我們哪些行為會通向目標。與此相反,F(xiàn)BRL采用了一種更有指導(dǎo)性的方法,它給定了一個精確的模型,我們相信,每一個處于反向步驟中的狀態(tài)都有通向目標的路徑。

Gridworld中的實驗結(jié)果,其中n =5、10、15、20。我們分別使用50、100、150、200步的固定水平,結(jié)果是10次實驗的平均值。

相關(guān)研究

當(dāng)我們訪問真正的動態(tài)模型時,可以使用純粹基于模型的方法(如動態(tài)編程)來計算所有狀態(tài)的值(Sutton和Barto于1998年提出),盡管當(dāng)狀態(tài)空間較大或連續(xù)時,難以在整個狀態(tài)空間中進行迭代。Q-Learning是一種無模型方法,它通過直接訪問狀態(tài)以在線方式更新值,而函數(shù)逼近技術(shù)(如Deep Q-Learning)可以泛化到未見的數(shù)據(jù)中(Mnih等人于2015年提出)。

基于模型和無模型信息的混合方法也可以使用。例如,DYNA-Q(Sutton于1990年提出)是一種早期的方法,它使用想象的轉(zhuǎn)出出來更新Q值,就如同在真實環(huán)境中經(jīng)歷過一樣。最近出現(xiàn)了更多方法,例如NAF(Gu等人于2016年提出)和I2A(Weber等人于2017年提出)。但這些方法只使用正向的想象力。

與我們自己的方法相似的方法是反向的值迭代(Zang等人于2007年提出),但這是一種純粹基于模型的方法,并且它不學(xué)習(xí)反向模型。一個相關(guān)的方法從一開始就實現(xiàn)雙向搜索和目標(Baldassarre于2003年提出),但這項研究只是學(xué)習(xí)值,而我們的目標是學(xué)習(xí)行動和值。

另一項相似的研究是通過使用接近目標狀態(tài)的反向課程來解決問題(Florensa等人于2017年提出)。但是,該方法假設(shè)智能體可以在目標附近得以初始化。我們不做這個假設(shè),因為了解目標狀態(tài)并不意味著我們知道該如何達到這一狀態(tài)。

漢諾塔中的實驗結(jié)果,其中n = 2、3。我們分別使用50、100步的固定水平。 結(jié)果是10次試驗的平均值。

許多研究通過使用域知識來幫助加速學(xué)習(xí),例如獎勵塑造(Ng等人于1999年提出)。另一種方法是更有效地利用回放緩沖區(qū)中的經(jīng)驗。優(yōu)先經(jīng)驗復(fù)現(xiàn)(Schaul等人于2015年提出)旨在回放具有高TD誤差的樣本。事后經(jīng)驗回放(Hindsight experience replay)將環(huán)境中的每個狀態(tài)視為一個潛在目標,這樣即使系統(tǒng)無法達到所需的目標,也可以進行學(xué)習(xí)。

使用反向動力學(xué)的概念類似于動力學(xué)逆過程(Agrawal等人于2016年,Pathak等人于2017年提出)。在這些方法中,系統(tǒng)預(yù)測在兩個狀態(tài)之間產(chǎn)生轉(zhuǎn)換的動態(tài)。我們的方法是利用狀態(tài)和動作來預(yù)測前一個狀態(tài)。此函數(shù)的目的是進行反向操作,并使用此分解來學(xué)習(xí)靠近目標的值。

本文中,我們介紹了一種加速學(xué)習(xí)具有稀缺獎勵問題的方法。我們介紹了FBRL,它從目標的反向過程中得到了想象步驟。我們證明了該方法在Gridworld和諾塔中的性能表現(xiàn)優(yōu)于DDQN。這項研究有多個擴展方向。

我們對于評估一個反向計劃方法很感興趣,但我們也可以運用正向和反向的想象力進行訓(xùn)練。另一項進步是改善規(guī)劃策略。我們使用了一種具有探索性和貪婪性的方法,但沒有評估如何在兩者之間進行權(quán)衡。我們可以使用優(yōu)先掃描(Moore和Atkeson等人于1993年提出),它選擇那些能夠?qū)е戮哂懈逿D誤差狀態(tài)的行為。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6250

    瀏覽量

    110735
  • 智能
    +關(guān)注

    關(guān)注

    8

    文章

    1748

    瀏覽量

    122019

原文標題:谷歌大腦提出對智能體進行「正向-反向」強化學(xué)習(xí)訓(xùn)練,加速訓(xùn)練過程

文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    智能強化學(xué)習(xí)(MARL)核心概念與算法概覽

    訓(xùn)練單個RL智能過程非常簡單,那么我們現(xiàn)在換一個場景,同時訓(xùn)練五個智能,而且每個都有自己的目標、只能看到部分信息,還能互相幫忙。這就是
    的頭像 發(fā)表于 01-21 16:21 ?88次閱讀
    多<b class='flag-5'>智能</b><b class='flag-5'>體</b>強化<b class='flag-5'>學(xué)習(xí)</b>(MARL)核心概念與算法概覽

    小藝開放平臺快速創(chuàng)建鴻蒙智能

    1.登錄小藝開放平臺,進入小藝智能平臺頁面,點擊立即體驗,進入創(chuàng)建頁面。 2.點擊左上角【+創(chuàng)建智能】按鈕,即可進入智能
    發(fā)表于 01-19 11:00

    谷歌評論卡,碰一碰即可完成谷歌評論 #谷歌評論卡 #NFC標簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發(fā)布于 :2026年01月15日 17:02:00

    智能設(shè)計模式和智能框架,你會了么?

    一、新聞 先播放一條最新新聞,通義團隊官宣開源了兩個智能 Alias-Agent 和 Data-Juicer Agent 。 Alias-Agent 提供了RaAct,Planner
    的頭像 發(fā)表于 11-12 16:30 ?1171次閱讀
    多<b class='flag-5'>智能</b><b class='flag-5'>體</b>設(shè)計模式和<b class='flag-5'>智能</b><b class='flag-5'>體</b>框架,你會了么?

    IBM發(fā)布全新智能工作流和業(yè)務(wù)域智能

    各行各業(yè)的企業(yè)正超越 AI 的實驗階段,加速邁入 AI 智能時代——在新階段里,智能不僅能響應(yīng)用戶需求,更能進行推理、協(xié)作,并采取行動來
    的頭像 發(fā)表于 10-18 10:49 ?1108次閱讀

    如何有效管理和部署的AI智能

    隨著人工智能技術(shù)的快速發(fā)展,AI智能正從單一任務(wù)執(zhí)行工具演進為具備自主決策能力的復(fù)雜系統(tǒng)。在這個演進過程中,如何有效管理規(guī)?;渴鸬?b class='flag-5'>智能
    的頭像 發(fā)表于 10-17 14:35 ?309次閱讀
    如何有效管理和部署的AI<b class='flag-5'>智能</b><b class='flag-5'>體</b>

    AI智能的技術(shù)應(yīng)用與未來圖景

    深度學(xué)習(xí)與邏輯推理,實現(xiàn)復(fù)雜情境的語義解析與因果推斷;行動層依托強化學(xué)習(xí)框架驅(qū)動自主決策鏈,形成感知-決策-執(zhí)行的閉環(huán)能力。這種架構(gòu)演進使智能具備了環(huán)境動態(tài)響應(yīng)、多目標優(yōu)化決策和自主
    的頭像 發(fā)表于 07-24 11:04 ?931次閱讀

    從大模型到智能:企業(yè)級智能如何搭建

    自主決策能力的數(shù)字化代理,其核心特征包括環(huán)境感知、自主決策、持續(xù)學(xué)習(xí)和多模態(tài)交互。構(gòu)建智能需要融合認知科學(xué)、計算機科學(xué)和管理學(xué)的跨學(xué)科知識,形成完整的理論框架。 從技術(shù)架構(gòu)看,智能
    的頭像 發(fā)表于 07-21 15:46 ?859次閱讀
    從大模型到<b class='flag-5'>智能</b><b class='flag-5'>體</b>:企業(yè)級<b class='flag-5'>智能</b><b class='flag-5'>體</b>如何搭建

    IBM推動AI智能應(yīng)用加速普及

    受訪企業(yè)高管表示,預(yù)計 2025年,人工智能支持的工作流程將激增 8倍,人工智能將提高流程效率、降低成本并改變工作流程。
    的頭像 發(fā)表于 06-28 10:41 ?960次閱讀

    什么是AI智能

    在當(dāng)今數(shù)字化迅速發(fā)展的時代,AI智能作為技術(shù)進步的重要標志之一,正逐漸滲透到我們生活的各個方面。簡單來說,AI智能是指能夠執(zhí)行特定任務(wù)、解決問題或做出決策的人工
    的頭像 發(fā)表于 04-16 09:52 ?2110次閱讀
    什么是AI<b class='flag-5'>智能</b><b class='flag-5'>體</b>

    硅基覺醒已至前夜,聯(lián)發(fā)科攜手生態(tài)加速智能化用戶體驗時代到來

    、主動、無界的“智能化用戶體驗“時代。 “智能化用戶體驗”將會擁有“主動及時、知你懂你、互動協(xié)作、學(xué)習(xí)進化、專屬隱私信息守護”五大特征。
    發(fā)表于 04-13 19:51

    請求贈閱《零基礎(chǔ)開發(fā)AI Agent——手把手教你用扣子做智能

    博主好!致敬葉濤 管鍇 張心雨三位AI具身智能-智能方面的專家、導(dǎo)師! 《零基礎(chǔ)開發(fā)AI Agent——手把手教你用扣子做智能》一不懂編
    發(fā)表于 04-10 12:16

    學(xué)習(xí)智能開發(fā)

    智能是大模型的應(yīng)用落地,正在學(xué)習(xí)中,這本書太及時了,非常想看看。
    發(fā)表于 03-27 15:48

    AI智能套件

    智能解決方案。一、應(yīng)用領(lǐng)域AI智能套件具備自然語言處理、機器學(xué)習(xí)以及人機交互能力,可以滲入用戶的日常生活與工作環(huán)境,對傳統(tǒng)設(shè)備進行升級。教育領(lǐng)域:
    發(fā)表于 02-25 16:48 ?0次下載

    谷歌AI智能執(zhí)行復(fù)雜任務(wù)能力大幅提升

    自然語言描述任務(wù),隨后由AI智能代替用戶執(zhí)行并最終完成任務(wù),極大地提升工作效率和便捷性。 為了推進這一技術(shù)的實現(xiàn),谷歌正在積極開發(fā)兩個相關(guān)項目。其中備受矚目的是名為“Mariner”的瀏覽器擴展程序。通過該程序,AI
    的頭像 發(fā)表于 02-17 14:39 ?1107次閱讀