chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NeurIPS 2023 | 擴散模型解決多任務(wù)強化學(xué)習(xí)問題

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-10-02 10:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

擴散模型(diffusion model)在 CV 領(lǐng)域甚至 NLP 領(lǐng)域都已經(jīng)有了令人印象深刻的表現(xiàn)。最近的一些工作開始將 diffusion model 用于強化學(xué)習(xí)(RL)中來解決序列決策問題,它們主要利用 diffusion model 來建模分布復(fù)雜的軌跡或提高策略的表達性。

但是, 這些工作仍然局限于單一任務(wù)單一數(shù)據(jù)集,無法得到能同時解決多種任務(wù)的通用智能體。那么,diffusion model 能否解決多任務(wù)強化學(xué)習(xí)問題呢?我們最近提出的一篇新工作——“Diffusion Model is an Effective Planner and Data Synthesizer for Multi-Task Reinforcement Learning”,旨在解決這個問題并希望啟發(fā)后續(xù)通用決策智能的研究:

wKgaomUs_uiAPwcVAADyizd-MH8593.png

論文題目:Diffusion Model is an Effective Planner and Data Synthesizer for Multi-Task Reinforcement Learning

論文鏈接:

https://arxiv.org/abs/2305.18459

wKgaomUs_uiARxLWAAAl6LOgh3c813.png

背景

數(shù)據(jù)驅(qū)動的大模型在 CV 和 NLP 領(lǐng)域已經(jīng)獲得巨大成功,我們認為這背后源于模型的強表達性和數(shù)據(jù)集的多樣性和廣泛性?;诖?,我們將最近出圈的生成式擴散模型(diffusion model)擴展到多任務(wù)強化學(xué)習(xí)領(lǐng)域(multi-task reinforcement learning),利用 large-scale 的離線多任務(wù)數(shù)據(jù)集訓(xùn)練得到通用智能體。 目前解決多任務(wù)強化學(xué)習(xí)的工作大多基于 Transformer 架構(gòu),它們通常對模型的規(guī)模,數(shù)據(jù)集的質(zhì)量都有很高的要求,這對于實際訓(xùn)練來說是代價高昂的?;?TD-learning 的強化學(xué)習(xí)方法則常常面臨 distribution-shift 的挑戰(zhàn),在多任務(wù)數(shù)據(jù)集下這個問題尤甚,而我們將序列決策過程建模成條件式生成問題(conditional generative process),通過最大化 likelihood 來學(xué)習(xí),有效避免了 distribution shift 的問題。

wKgaomUs_umAfPWpAAAuhh9-KLM146.png

方法

具體來說,我們發(fā)現(xiàn) diffusion model 不僅能很好地輸出 action 進行實時決策,同樣能夠建模完整的(s,a,r,s')的 transition 來生成數(shù)據(jù)進行數(shù)據(jù)增強提升強化學(xué)習(xí)策略的性能,具體框架如圖所示:

wKgaomUs_umAGc6HAAI2cE1qOKM978.png

對于決策規(guī)劃任務(wù),我們將模型稱為 ;對于數(shù)據(jù)生成(增強)任務(wù),我們將模型稱為 。我們的擴散模型基于 DDPM 的訓(xùn)練方式,利用 損失訓(xùn)練 ,它能夠預(yù)測逆向過程每一步的噪聲 。對于 ,它的損失函數(shù)可以表示為:wKgaomUs_umAAA_wAACLlEPXDXA612.png其中wKgaomUs_umAWYSRAAB1Ws6EjIU335.png是軌跡的標(biāo)準(zhǔn)化累積回報,Demonstration Prompt,可以表示為:

wKgaomUs_umAQRwuAAAxxdL7iBY889.png

*表示專家軌跡, 即是從每個任務(wù)下的一條或幾條專家軌跡采樣得到的 時間步長的一段包含狀態(tài)和動作的軌跡。 classifi-free guidance,并在測試推理過程中生成未來 步長的動作序列,在實驗中我們選取第一個動作與環(huán)境交互。 對于 ,它的損失函數(shù)可以表示為:wKgaomUs_umAUGgDAACK-1SXsoo131.png其中wKgaomUs_umANKHeAACSilxMGYM177.png

wKgaomUs_uqAEzr3AAAq2QW7Bb8589.png

值得注意的是這里我們需要擴散模型建模整個(s,a,r)的完整軌跡,并且由于目標(biāo)是完成數(shù)據(jù)生成任務(wù),需要盡可能多樣化的數(shù)據(jù),不需要模型 condition 在 上,自然也不需要 classifier-free guidance。

wKgaomUs_uqAaGp7AAAtJ0fTuoM419.png

模型結(jié)構(gòu)

為了更好地建模多任務(wù)數(shù)據(jù),并且統(tǒng)一多樣化的輸入數(shù)據(jù),我們用 transformer 架構(gòu)替換了傳統(tǒng)的 U-Net 網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)圖如下:

wKgaomUs_uqAO-7aAAJyxIMKF6w767.png

▲ 關(guān)于模型結(jié)構(gòu)和更多細節(jié),還請參考我們的論文

wKgaomUs_uqAK0WIAAAr2pbNr48494.png

實驗

我們首先在 Meta-World MT50 上開展實驗并與 baselines 進行比較,我們在兩種數(shù)據(jù)集上進行實驗,分別是包含大量專家數(shù)據(jù),從 SAC-single-agent 中的 replay buffer 中收集到的 Near-optimal data(100M);以及從 Near-optimal data 中降采樣得到基本不包含專家數(shù)據(jù)的 Sub-optimal data(50M)。實驗結(jié)果如下:

wKgaomUs_uqACYt7AAPaFsHrZ_A580.png

可以看到我們的方法在同樣大小的數(shù)據(jù)上不僅超越了大多數(shù)離線強化學(xué)習(xí)方法,并且也超過了兩種多任務(wù)在線強化學(xué)習(xí)方法,其中 PaCo 是目前的 SOTA 方法。我們的方法通過 classifier-free guidance 得到最優(yōu)行為,對數(shù)據(jù)集質(zhì)量的依賴性不強,在 Sub-optimal data 上的表現(xiàn)相比其他 sequence modeling 的方法有很大提升。 在我們的實驗中也觀察到 Behavior Cloning(BC)在 Near-optimal data 上和我們的方法相比具有 competitive performance,但 BC 嚴重依賴數(shù)據(jù)集質(zhì)量,在 Sub-optimal data 上性能急劇下降。 在數(shù)據(jù)增強方面,我們的方法也同樣有效,明顯提升了數(shù)據(jù)集的質(zhì)量以增強策略性能,實驗結(jié)果如下:wKgaomUs_uuAFGIsAAL17Q96vJY141.png我們選取 45 個任務(wù)的 Near-optimal data 訓(xùn)練 ,從表中我們可以觀察到在 見過的任務(wù)上,我們的方法均取得了最好的性能。甚至給定一段 demonstration prompt, 能泛化到?jīng)]見過的任務(wù)上并取得較好的表現(xiàn)。我們選取四個任務(wù)對原數(shù)據(jù)和 生成的數(shù)據(jù)做 T-SNE 可視化分析,發(fā)現(xiàn)我們生成的數(shù)據(jù)的分布基本匹配原數(shù)據(jù)分布,并且在不偏離的基礎(chǔ)上擴展了分布,使數(shù)據(jù)覆蓋更加全面。

wKgaomUs_uuASXaRAAQzw2TjRHc660.png

同樣也具有泛化性,更多實驗分析可以參見論文。

wKgaomUs_uuAeNslAAAtTL4L6hI534.png

總結(jié)

我們提出了一種基于擴散模型(diffusion model)的一種新的、通用性強的多任務(wù)強化學(xué)習(xí)解決方案,它不僅可以通過單個模型高效完成多任務(wù)決策,而且可以對原數(shù)據(jù)集進行增強,從而提升各種離線算法的性能。我們未來將把 遷移到更加多樣、更加通用的場景,旨在深入挖掘其出色的生成能力和數(shù)據(jù)建模能力,解決更加困難的任務(wù)。同時,我們會將 遷移到真實控制場景,并嘗試優(yōu)化其推理速度以適應(yīng)某些需要高頻控制的任務(wù)。


原文標(biāo)題:NeurIPS 2023 | 擴散模型解決多任務(wù)強化學(xué)習(xí)問題

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:NeurIPS 2023 | 擴散模型解決多任務(wù)強化學(xué)習(xí)問題

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中常提的離線強化學(xué)習(xí)是什么?

    [首發(fā)于智駕最前沿微信公眾號]在之前談及自動駕駛模型學(xué)習(xí)時,詳細聊過強化學(xué)習(xí)的作用,由于強化學(xué)習(xí)能讓大模型通過交互學(xué)到策略,不需要固定的規(guī)則
    的頭像 發(fā)表于 02-07 09:21 ?214次閱讀
    自動駕駛中常提的離線<b class='flag-5'>強化學(xué)習(xí)</b>是什么?

    強化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛大模型訓(xùn)練時,有的技術(shù)方案會采用模仿學(xué)習(xí),而有些會采用強化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強化學(xué)習(xí)
    的頭像 發(fā)表于 01-31 09:34 ?646次閱讀
    <b class='flag-5'>強化學(xué)習(xí)</b>會讓自動駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    多智能體強化學(xué)習(xí)(MARL)核心概念與算法概覽

    訓(xùn)練單個RL智能體的過程非常簡單,那么我們現(xiàn)在換一個場景,同時訓(xùn)練五個智能體,而且每個都有自己的目標(biāo)、只能看到部分信息,還能互相幫忙。這就是多智能體強化學(xué)習(xí)
    的頭像 發(fā)表于 01-21 16:21 ?198次閱讀
    多智能體<b class='flag-5'>強化學(xué)習(xí)</b>(MARL)核心概念與算法概覽

    上汽別克至境E7首發(fā)搭載Momenta R6強化學(xué)習(xí)模型

    別克至境家族迎來新成員——大五座智能SUV別克至境E7首發(fā)。新車將搭載Momenta R6強化學(xué)習(xí)模型,帶來全場景的智能出行體驗。
    的頭像 發(fā)表于 01-12 16:23 ?333次閱讀

    一文說透了如何實現(xiàn)單片機的多任務(wù)并發(fā)!

    在嵌入式系統(tǒng)開發(fā)中,多任務(wù)并發(fā)是非常常見的,對于處理復(fù)雜的應(yīng)用場景、提升系統(tǒng)的并發(fā)能力、提高系統(tǒng)的實時性等方面都有很大好處。在單片機中實現(xiàn)多任務(wù)并發(fā)是非常重要的,本文將為大家介紹如何在單片機中實現(xiàn)
    發(fā)表于 01-06 06:46

    國內(nèi)七大基于大模型的發(fā)射任務(wù)調(diào)度與過程保障分系統(tǒng)軟件介紹

    )、多模態(tài)AI、數(shù)字孿生與強化學(xué)習(xí)等前沿技術(shù),聚焦發(fā)射任務(wù)的智能規(guī)劃、資源調(diào)度、過程保障與應(yīng)急響應(yīng),是當(dāng)前全球航天領(lǐng)域智能化升級的核心載體。 ? ?系統(tǒng)軟件供應(yīng)可以來這里,這個首肌開始是幺伍扒,中間是幺幺叁叁,最后一個是泗柒泗
    的頭像 發(fā)表于 12-24 11:08 ?277次閱讀

    NVIDIA 推出 Nemotron 3 系列開放模型

    token 數(shù)。 ● Nemotron 通過先進的強化學(xué)習(xí)技術(shù)以及大規(guī)模并行多環(huán)境后訓(xùn)練,實現(xiàn)了卓越的準(zhǔn)確率。 ● NVIDIA 率先推出整套前沿的開放模型、訓(xùn)練數(shù)據(jù)集及強化學(xué)習(xí)環(huán)境與
    的頭像 發(fā)表于 12-16 09:27 ?633次閱讀
    NVIDIA 推出 Nemotron 3 系列開放<b class='flag-5'>模型</b>

    如何訓(xùn)練好自動駕駛端到端模型

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:端到端算法是怎樣訓(xùn)練的?是模仿學(xué)習(xí)強化學(xué)習(xí)和離線強化學(xué)習(xí)這三類嗎?其實端到端(end-to-end)算法在自動駕駛、智能體決策系統(tǒng)里
    的頭像 發(fā)表于 12-08 16:31 ?1433次閱讀
    如何訓(xùn)練好自動駕駛端到端<b class='flag-5'>模型</b>?

    多任務(wù)系統(tǒng)中,如何平衡任務(wù)調(diào)度以防止因高負載導(dǎo)致的再次進入低功耗模式的延遲?

    多任務(wù)系統(tǒng)中,如何平衡任務(wù)調(diào)度以防止因高負載導(dǎo)致的再次進入低功耗模式的延遲?
    發(fā)表于 12-04 06:37

    今日看點:智元推出真機強化學(xué)習(xí);美國軟件公司SAS退出中國市場

    智元推出真機強化學(xué)習(xí),機器人訓(xùn)練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機器人宣布其研發(fā)的真機強化學(xué)習(xí)技術(shù),已在與龍旗科技合作的驗證產(chǎn)線中成功落地。據(jù)介紹,此次落地的真機強化學(xué)習(xí)方案,機器人
    發(fā)表于 11-05 09:44 ?1104次閱讀

    自動駕駛中常提的“強化學(xué)習(xí)”是個啥?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學(xué)習(xí)(Reinforcement Learning,簡稱RL)”,強化學(xué)習(xí)是一類讓機器通過試錯來學(xué)會做決策的技術(shù)。簡單理解
    的頭像 發(fā)表于 10-23 09:00 ?678次閱讀
    自動駕駛中常提的“<b class='flag-5'>強化學(xué)習(xí)</b>”是個啥?

    愛普科技PSRAM加速wisun無線模塊多任務(wù)處理

    愛普科技256Mb PSRAM(如APS256XXN-OBR-BG)為WiSUN無線模塊提供高速數(shù)據(jù)緩存與臨時存儲解決方案,其166MHz速率、1.8V低功耗及小尺寸封裝顯著提升模塊在智能電網(wǎng)、工業(yè)自動化中的多任務(wù)處理能力和穩(wěn)定性。
    的頭像 發(fā)表于 10-14 09:25 ?386次閱讀
    愛普科技PSRAM加速wisun無線模塊<b class='flag-5'>多任務(wù)</b>處理

    NVIDIA Isaac Lab可用環(huán)境與強化學(xué)習(xí)腳本使用指南

    Lab 是一個適用于機器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時支持模仿學(xué)習(xí)(模仿人類)和強化學(xué)習(xí)(在嘗試和錯誤中進行學(xué)習(xí)),為所有機器
    的頭像 發(fā)表于 07-14 15:29 ?2352次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強化學(xué)習(xí)</b>腳本使用指南

    快速入門——LuatOS:sys庫多任務(wù)管理實戰(zhàn)攻略!

    在嵌入式開發(fā)中,多任務(wù)管理是提升系統(tǒng)效率的關(guān)鍵。本教程專為快速入門設(shè)計,聚焦LuatOS的sys庫,通過實戰(zhàn)案例帶你快速掌握多任務(wù)創(chuàng)建、調(diào)度與同步技巧。無論你是零基礎(chǔ)新手還是希望快速提升開發(fā)效率
    的頭像 發(fā)表于 05-29 14:36 ?828次閱讀
    快速入門——LuatOS:sys庫<b class='flag-5'>多任務(wù)</b>管理實戰(zhàn)攻略!

    18個常用的強化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強化學(xué)習(xí)方法到高級技術(shù)(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?1617次閱讀
    18個常用的<b class='flag-5'>強化學(xué)習(xí)</b>算法整理:從基礎(chǔ)方法到高級<b class='flag-5'>模型</b>的理論技術(shù)與代碼實現(xiàn)