chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于目標(biāo)圖像的視覺強(qiáng)化學(xué)習(xí)算法,讓機(jī)器人可以同時學(xué)習(xí)多個任務(wù)

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-09-24 10:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目前的深度強(qiáng)化學(xué)習(xí)需要人為地為每一個任務(wù)設(shè)計獎勵函數(shù),當(dāng)涉及復(fù)雜系統(tǒng)時需要很多的人力成本和復(fù)雜的工作。如果需要完成更大范圍內(nèi)的更多工作,就需要對每一個新任務(wù)進(jìn)行重復(fù)的訓(xùn)練。為了提高學(xué)習(xí)的效率,伯克利的研究者們提出了一種可以同時對多個不同任務(wù)進(jìn)行學(xué)習(xí)的算法,無需人工干預(yù)。

這一算法可以自動從圖像中抽取目標(biāo)并學(xué)習(xí)如何達(dá)到目標(biāo),并實現(xiàn)推物體、抓握和開門等一系列特殊的任務(wù)。機(jī)器人可以學(xué)會自己表示目標(biāo)、學(xué)習(xí)如何達(dá)到目標(biāo),而一切的輸入僅僅是來自相機(jī)的RGB圖像。

· 目標(biāo)條件下的強(qiáng)化學(xué)習(xí)

如何描述真實世界的狀態(tài)和期望的目標(biāo)是我們需要考慮的首要問題,但對于機(jī)器人來說枚舉出所有需要注意的物體是不現(xiàn)實的,現(xiàn)實世界中的物體及其數(shù)量變化多端、如果要檢測他們就需要額外的視覺檢測工作。

那么該如何解決這一問題呢?研究人員提出了一種直接利用傳感器信息來操作的方法,利用機(jī)器人相機(jī)的輸出來表達(dá)世界的狀態(tài),同時利用期望狀態(tài)的圖像作為目標(biāo)輸入到機(jī)器人中。對于新的任務(wù),只需要為模型提供新的目標(biāo)圖像即可。這種方法同時能拓展到多種復(fù)雜的任務(wù),例如可以通過語言和描述來表達(dá)狀態(tài)/目標(biāo)。(或者可以利用先前提出的方法來優(yōu)化目標(biāo):傳送門>>UC Berkeley提出新的時域差分模型策略:從無模型到基于模型的深度強(qiáng)化學(xué)習(xí))

強(qiáng)化學(xué)習(xí)是一種訓(xùn)練主體最大化獎勵的學(xué)習(xí)機(jī)制,對于目標(biāo)條件下的強(qiáng)化學(xué)習(xí)來說可以將獎勵函數(shù)設(shè)為當(dāng)前狀態(tài)與目標(biāo)狀態(tài)之間距離的反比函數(shù),那么最大化獎勵就對應(yīng)著最小化與目標(biāo)函數(shù)的距離。

我們可以通過一個基于目標(biāo)條件下的Q函數(shù)來訓(xùn)練策略實現(xiàn)最大化獎勵。基于目標(biāo)條件的Q函數(shù)Q(s,a,g)描述的是在當(dāng)前狀態(tài)和目標(biāo)下,當(dāng)前的行為將產(chǎn)生對主體怎樣的結(jié)果(獎勵)?也就是說在給定狀態(tài)s、目標(biāo)g的前提下,我們可以通過優(yōu)化行為a來實現(xiàn)獎勵最大化:

π(s,g) = maxaQ(s,a,g)

基于Q函數(shù)來選擇最優(yōu)的行為,可以得到最大化獎勵和的策略(在這個例子中便是達(dá)到各種不同的目標(biāo))。

Q學(xué)習(xí)得以廣泛應(yīng)用的原因在于它可以不基于策略而僅僅只依賴與s,a,g。那么意味著訓(xùn)練任意策略所收集的數(shù)據(jù)都可以用來在多個任務(wù)上進(jìn)行訓(xùn)練?;谀繕?biāo)條件的Q學(xué)習(xí)算法如簡圖所示:

但上述方法的主要局限在于數(shù)據(jù)收集。如果能人工生成數(shù)據(jù),理論上就可以學(xué)習(xí)解決不同的任務(wù)而無需與真實世界進(jìn)行交互。但遺憾的是在真實世界中學(xué)習(xí)精確的模型十分困難,所以通常依賴于采樣來獲取狀態(tài)s--行為a--下一個狀態(tài)s'的訓(xùn)練數(shù)據(jù)。

但我們換個角度來看,如果可以表達(dá)出獎勵函數(shù)r(s,g), 有一種可以生成目標(biāo)并計算獎勵的機(jī)制,我們就可以可回溯的重新標(biāo)記目標(biāo),重新計算獎勵。這樣的話就可以利用(s,a,s') 數(shù)據(jù)生成大量的人工數(shù)據(jù),這一個過程如下圖所示:

最美妙的事情在于可以同時生成多個目標(biāo)和獎勵函數(shù),這就意味著可以學(xué)習(xí)達(dá)到多個目標(biāo)而無需采集額外的數(shù)據(jù),這一簡單的改進(jìn)極大的加速了學(xué)習(xí)過程。

上面的方法主要基于兩個假設(shè):1).知道獎勵函數(shù)的表達(dá)并可以進(jìn)行操作;2).可以得到目標(biāo)的采樣分布p(g).基于前人的工作,可以方便的設(shè)計出目標(biāo)分布p(g)和獎勵函數(shù)。

但對于基于視覺的任務(wù)來說會出現(xiàn)兩個問題:1).由于基于像素的距離可能沒有實際意義,模型不知道該使用哪一個獎勵函數(shù);2).由于任務(wù)的目標(biāo)是圖像的形式,需要知道目標(biāo)圖像的分布p(g),但人工設(shè)計目標(biāo)圖像的分布是一個很復(fù)雜的任務(wù)。那么研究人員們期望最好的情況就是,主體可以自動地想象出它的目標(biāo),并學(xué)習(xí)出如何達(dá)到這一目標(biāo)。

·基于假想目標(biāo)的強(qiáng)化學(xué)習(xí)

為了解決這一問題,研究人員通過學(xué)習(xí)出圖像的表示并利用這些表示來實現(xiàn)條件Q學(xué)習(xí),而不是直接利用圖像本身來進(jìn)行強(qiáng)化學(xué)習(xí)。那么這時候關(guān)鍵的問題就被轉(zhuǎn)換為:這一從圖像中學(xué)習(xí)的表達(dá)應(yīng)該滿足什么樣的特點?為了計算出語義的獎勵,需要一種可以捕捉圖像中變量潛在因素的表達(dá),同時這種表達(dá)需要很便捷地生成新的目標(biāo)。

試驗中研究人員通過變分自編碼器(VAE)來從圖像中獲取滿足這些條件地表示。這種生成模型可以將高維空間中圖像轉(zhuǎn)換到低維度地隱空間中去(或者進(jìn)行相反地變換)。得到的模型可以將圖像轉(zhuǎn)換到隱空間中并抽取其中的變量特征,這與人類在真實世界中描述目標(biāo)的抽象過程很類似。在給定當(dāng)前圖像x和目標(biāo)圖像xg后,模型可將他們轉(zhuǎn)換為隱空間中對應(yīng)的隱變量z和zg,此時就可以利用隱變量來為強(qiáng)化學(xué)習(xí)算法描述系統(tǒng)狀態(tài)和期望目標(biāo)了。在低維的隱空間中學(xué)習(xí)Q函數(shù)和策略比直接使用圖像進(jìn)行訓(xùn)練要快很多。

將當(dāng)前圖像和目標(biāo)圖像編碼到隱空間中,并利用其中的距離來計算獎勵。

這同時解決了如何計算強(qiáng)化學(xué)習(xí)中計算獎勵的問題。相較于利用像素誤差,可以使用隱空間中與目標(biāo)的距離來訓(xùn)練主體。在最大化抵達(dá)目標(biāo)概率的同時這一方法可以給出更有效的學(xué)習(xí)信號。

這一模型的重要性在于主體可以容易的在隱空間中生成目標(biāo)。(這一生成模型使得隱空間中的采樣是可以回溯的:僅僅從VAE的先驗中采樣)其原因在于:為主體提供了可以設(shè)置自身目標(biāo)的機(jī)制,主體從生成模型的隱變量中采樣并嘗試抵達(dá)隱空間中的目標(biāo);同時為重采樣機(jī)制也可用于前述的重標(biāo)記過程。由于訓(xùn)練的生成模型可以將真實圖像編碼為先驗,從先驗的隱變量采樣也對應(yīng)著有意義的隱目標(biāo)。

主體可以通過模型生成自己的目標(biāo),用于探索和目標(biāo)重標(biāo)記。

綜上所述,對于輸入圖像的隱空間表示1).捕捉了場景中的隱含因素;2).為優(yōu)化提供了有效的距離度量;3).提供了有效的目標(biāo)采樣機(jī)制,使得這一方法可以直接利用像素輸入來實現(xiàn)基于假想的強(qiáng)化學(xué)習(xí)算法( Reinforcement Learning with imagined Goals ,RIG)

· 實驗

下面研究人員將通過實驗來證明這一方法是能簡單高效地在合理的時間內(nèi)在真實世界中訓(xùn)練出機(jī)器人策略。實驗分為兩個任務(wù),分別是基于目標(biāo)圖像直到機(jī)械臂運(yùn)動到人為指定地位置和將目標(biāo)推到期望的位置。實驗中僅僅通過84*84的RGB圖像來訓(xùn)練,而沒有關(guān)節(jié)角度和位置信息。

機(jī)器人首先學(xué)習(xí)到如何在隱含空間內(nèi)學(xué)習(xí)出自己的目標(biāo),這一階段可以利用解碼器來可視化機(jī)器人為自己假想出來的目標(biāo)。下圖上半部分顯示了機(jī)器人“想象”出的目標(biāo)位置,而下面圖則是實際運(yùn)行狀況。

通過設(shè)置自身的目標(biāo),機(jī)器人就可以在沒有人類的干預(yù)下自動的訓(xùn)練嘗試以抵達(dá)目標(biāo)。需要執(zhí)行特定的任務(wù)時,才需要人為的給定目標(biāo)圖像。由于機(jī)器人以及多次練習(xí)過如何抵達(dá)目標(biāo),在下面的圖中我們可以看到它已經(jīng)不需要額外的訓(xùn)練便可以抵達(dá)新的目標(biāo)。

下圖是第二個任務(wù),利用RIG來訓(xùn)練機(jī)械臂將物體推到指定位置。其中左邊是實驗裝置、右上是目標(biāo)圖像、右下是機(jī)器人推動的過程。

通過圖像訓(xùn)練策略使得機(jī)器人推物體的任務(wù)變得容易多了。只需要在上一個任務(wù)的基礎(chǔ)上加上一張桌子、一個物體、稍微調(diào)整相機(jī)就可以開始訓(xùn)練了。雖然模型的輸入是圖像,但這一算法只需要一個小時的時間就可以訓(xùn)練完成抵達(dá)特定位置的任務(wù)、4.5小時就可以實現(xiàn)將物體推到特定位置的任務(wù)(需要與環(huán)境交互),同時達(dá)到了比較好的精度。

很多實際使用的強(qiáng)化學(xué)習(xí)算法需要目標(biāo)位置的基準(zhǔn)狀態(tài),然而這卻需要引入額外的傳感器或訓(xùn)練目標(biāo)檢測算法來實現(xiàn) 。與之相比,這里提出的算法僅僅依賴于RGB相機(jī),并可以直接輸入圖像完成訓(xùn)練過程。

· 未來研究方向

通過前文描述的方法,可以利用直接輸入的圖片訓(xùn)練出真實世界的機(jī)器人策略,簡單高效地實現(xiàn)不同的任務(wù)?;谶@一結(jié)果,可以開啟很多令人激動地研究領(lǐng)域。這一研究不僅限于利用圖像作為強(qiáng)化學(xué)習(xí)的目標(biāo),同時還可以廣泛應(yīng)用于語言和描述等不同的目標(biāo)表達(dá)中。同時,可以探索如何利用更本質(zhì)的方式來選擇目標(biāo)以實現(xiàn)更好的自動學(xué)習(xí)。如果使用內(nèi)在動機(jī)的概念與上文提出的策略結(jié)合,可以引導(dǎo)策略進(jìn)行更快的學(xué)習(xí)。

另一個可能方向是訓(xùn)練模型能夠處理動力學(xué)的情況。對環(huán)境動力學(xué)進(jìn)行編碼可以使得隱含空間更加適合強(qiáng)化學(xué)習(xí),加速學(xué)習(xí)的過程。最后,有很多機(jī)器人任務(wù)的狀態(tài)很難被傳感器所捕捉,但利用基于假想目標(biāo)的學(xué)習(xí)就可以處理諸如形變物體的抓取、目標(biāo)數(shù)量變化這樣復(fù)雜的問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    30252

    瀏覽量

    217814
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4739

    瀏覽量

    96724
  • 強(qiáng)化學(xué)習(xí)

    關(guān)注

    4

    文章

    269

    瀏覽量

    11820

原文標(biāo)題:伯克利研究人員提出基于目標(biāo)圖像的視覺強(qiáng)化學(xué)習(xí)算法,讓機(jī)器人可以同時學(xué)習(xí)多個任務(wù)

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗】2.具身智能機(jī)器人的基礎(chǔ)模塊

    ,一次生成深度信息。 自主機(jī)器人定位任務(wù)的本質(zhì)是對機(jī)器人自身狀態(tài)的估計問題,包括位置,朝向,速度等問題。 路徑規(guī)劃旨在找到從起點到目標(biāo)區(qū)域的路徑,確保路徑的可行性和最優(yōu)性。路徑規(guī)劃方法
    發(fā)表于 01-04 19:22

    【「# ROS 2智能機(jī)器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    部署,詳細(xì)介紹了基于顏色閾值和深度學(xué)習(xí)的巡線方法。 二維碼識別則廣泛應(yīng)用于機(jī)器人定位與任務(wù)觸發(fā),例如AGV(自動導(dǎo)引車)的路徑規(guī)劃。 深度學(xué)習(xí)
    發(fā)表于 05-03 19:41

    基于深度學(xué)習(xí)技術(shù)的智能機(jī)器人

    ”特征的算法,同時根據(jù)學(xué)習(xí)到的“經(jīng)驗數(shù)據(jù)”,從而能把圖片中的貓都識別出來?;凇吧疃?b class='flag-5'>學(xué)習(xí)”的智能分類 智能機(jī)器人就是通過搭載“深度
    發(fā)表于 05-31 09:36

    機(jī)器人視覺系統(tǒng)組成及定位算法分析

    1.機(jī)器人視覺機(jī)器人研究的核心就是:導(dǎo)航定位、路徑規(guī)劃、避障、多傳感器融合。定位技術(shù)有幾種,不關(guān)心,只關(guān)心視覺的。視覺技術(shù)用到“眼睛”
    發(fā)表于 06-08 08:30

    機(jī)器人視覺機(jī)器視覺有什么不一樣?

    的知識,來判定這些零件是不是不良品。某種程度上來說,你可以認(rèn)為機(jī)器視覺是計算機(jī)視覺的孩子,因為它使用計算機(jī)視覺
    發(fā)表于 08-28 10:48

    深度強(qiáng)化學(xué)習(xí)實戰(zhàn)

    內(nèi)容2:課程一: TensoRFlow入門到熟練:課程二:圖像分類:課程三:物體檢測:課程四:人臉識別:課程五:算法實現(xiàn):1、卷積神經(jīng)網(wǎng)絡(luò)CNN2、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN3、強(qiáng)化學(xué)習(xí)DRL4、對抗性生成
    發(fā)表于 01-10 13:42

    四足機(jī)器人的機(jī)構(gòu)設(shè)計

    四足機(jī)器人屬于復(fù)雜機(jī)電系統(tǒng),需要綜合生物、機(jī)械、電子、控制等學(xué)科內(nèi)容,具體涉及仿生機(jī)構(gòu)設(shè)計、靈巧運(yùn)動機(jī)構(gòu)設(shè)計、高性能驅(qū)動器制造,行走穩(wěn)定性控制、強(qiáng)化學(xué)習(xí)等在內(nèi)的多個研究方向。其中,機(jī)構(gòu)設(shè)計是保障四足
    發(fā)表于 09-15 06:54

    基于LCS和LS-SVM的多機(jī)器人強(qiáng)化學(xué)習(xí)

    本文提出了一種LCS和LS-SVM相結(jié)合的多機(jī)器人強(qiáng)化學(xué)習(xí)方法,LS-SVM獲得的最優(yōu)學(xué)習(xí)策略作為LCS的初始規(guī)則集。LCS通過與環(huán)境的交互,能更快發(fā)現(xiàn)指導(dǎo)多機(jī)器人
    發(fā)表于 01-09 14:43 ?0次下載

    【重磅】DeepMind發(fā)布通用強(qiáng)化學(xué)習(xí)新范式,自主機(jī)器人可學(xué)會任何任務(wù)

    SAC-X是一種通用的強(qiáng)化學(xué)習(xí)方法,未來可以應(yīng)用于機(jī)器人以外的更廣泛領(lǐng)域
    的頭像 發(fā)表于 03-19 14:45 ?2188次閱讀

    基于強(qiáng)化學(xué)習(xí)的MADDPG算法原理及實現(xiàn)

    之前接觸的強(qiáng)化學(xué)習(xí)算法都是單個智能體的強(qiáng)化學(xué)習(xí)算法,但是也有很多重要的應(yīng)用場景牽涉到多個智能體之間的交互。
    的頭像 發(fā)表于 11-02 16:18 ?2.3w次閱讀

    一文詳談機(jī)器學(xué)習(xí)強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)屬于機(jī)器學(xué)習(xí)中的一個子集,它使代理能夠理解在特定環(huán)境中執(zhí)行特定操作的相應(yīng)結(jié)果。目前,相當(dāng)一部分機(jī)器人就在使用強(qiáng)化學(xué)習(xí)掌握種種新能力。
    發(fā)表于 11-06 15:33 ?2041次閱讀

    機(jī)器學(xué)習(xí)中的無模型強(qiáng)化學(xué)習(xí)算法及研究綜述

    強(qiáng)化學(xué)習(xí)( Reinforcement learning,RL)作為機(jī)器學(xué)習(xí)領(lǐng)域中與監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)并列的第三種
    發(fā)表于 04-08 11:41 ?11次下載
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>中的無模型<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b><b class='flag-5'>算法</b>及研究綜述

    當(dāng)機(jī)器人遇見強(qiáng)化學(xué)習(xí),會碰出怎樣的火花?

    當(dāng)機(jī)器人遇見強(qiáng)化學(xué)習(xí),會碰出怎樣的火花? 一名叫 Cassie 的機(jī)器人,給出了生動演繹。 最近,24 歲的中國南昌小伙李鐘毓和其所在團(tuán)隊,用強(qiáng)化學(xué)習(xí)教 Cassie 走路 ,目前它已
    的頭像 發(fā)表于 04-13 09:35 ?2869次閱讀
    當(dāng)<b class='flag-5'>機(jī)器人</b>遇見<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>,會碰出怎樣的火花?

    基于深度學(xué)習(xí)機(jī)器人目標(biāo)識別和跟蹤

    機(jī)器人鄰域都有涉及。機(jī)器人視覺也是當(dāng)下研究生的一個大熱門,其包含機(jī)器人目標(biāo)環(huán)境對象的視覺信息處
    的頭像 發(fā)表于 08-02 12:07 ?2021次閱讀

    基于強(qiáng)化學(xué)習(xí)目標(biāo)檢測算法案例

    摘要:基于強(qiáng)化學(xué)習(xí)目標(biāo)檢測算法在檢測過程中通常采用預(yù)定義搜索行為,其產(chǎn)生的候選區(qū)域形狀和尺寸變化單一,導(dǎo)致目標(biāo)檢測精確度較低。為此,在基于深度強(qiáng)化
    發(fā)表于 07-19 14:35 ?0次下載