chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌提出元獎勵學習,兩大基準測試刷新最優(yōu)結果

DPVg_AI_era ? 來源:lq ? 2019-02-24 10:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

RL算法由于獎勵不明確,智能體可能會收到“利用環(huán)境中的虛假模式”的正反饋,這就有可能導致獎勵黑客攻擊。谷歌提出了使用開發(fā)元獎勵學習(MeRL)來解決未指定獎勵的問題,通過優(yōu)化輔助獎勵函數(shù)向智能體提供更精確的反饋。

強化學習(RL)為優(yōu)化面向目標的行為,提供了統(tǒng)一且靈活的框架。

并且在解決諸如:玩視頻游戲、連續(xù)控制和機器人學習等具有挑戰(zhàn)性的任務方面,取得了顯著成功。

RL算法在這些應用領域的成功,往往取決于高質量和密集獎勵反饋的可用性。

然而,將RL算法的適用性,擴展到具有稀疏和未指定獎勵的環(huán)境,是一個持續(xù)的挑戰(zhàn)。

需要學習智能體從有限的反饋中,概括例如如何學習正確行為的問題。

在這種問題設置中研究RL算法性能的一種自然方法,是通過自然語言理解任務。

為智能體提供自然語言輸入,并且需要生成復雜的響應,以實現(xiàn)輸入過程中指定的目標,同時僅接收“成功-失敗”的反饋。

例如一個“盲”智能體,任務是通過遵循一系列自然語言命令(例如,“右,上,上,右”)到達迷宮中的目標位置。

給定輸入文本,智能體(綠色圓圈)需要解釋命令,并基于這種解釋采取動作以生成動作序列(a)。

如果智能體人達到目標(紅色星級),則獲得1的獎勵,否則返回0。

由于智能體無法訪問任何可視信息,因此智能體解決此任務,并概括為新指令的唯一方法,是正確解釋指令。

在這些任務中,RL智能體需要學習從稀疏(只有少數(shù)軌跡導致非零獎勵)和未指定(無目的和意外成功之間的區(qū)別)獎勵。

重要的是,由于獎勵不明確,智能體可能會收到“利用環(huán)境中的虛假模式”的正反饋,這就有可能導致獎勵黑客攻擊,在實際系統(tǒng)中部署時會導致意外和有害的行為。

在“學習從稀疏和未指定的獎勵中進行概括”中,使用開發(fā)元獎勵學習(MeRL)來解決未指定獎勵的問題,通過優(yōu)化輔助獎勵函數(shù)向智能體提供更精確的反饋。

《Learning to Generalize from Sparse and Underspecified Rewards》論文地址:

https://arxiv.org/abs/1902.07198

MeRL與使用“新探索策略收集到成功軌跡”的記憶緩沖區(qū)相結合,從而通過稀疏獎勵學習。

這個方法的有效性在語義分析中得到證明,其目標是學習從自然語言到邏輯形式的映射(例如,將問題映射到SQL程序)。

本文研究了弱監(jiān)督問題設置,其目標是從問答配對中自動發(fā)現(xiàn)邏輯程序,而不需要任何形式的程序監(jiān)督。

例如下圖中找出“哪個國家贏得最多銀牌?”,智能體需要生成類似SQL的程序,以產生正確的答案(即“尼日利亞”)。

所提出的方法在WikiTableQuestions和WikiSQL基準測試中實現(xiàn)了最先進的結果,分別將先前的工作提升了1.2%和2.4%。

MeRL自動學習輔助獎勵函數(shù),而無需使用任何專家演示(例如,ground-truth計劃),使其更廣泛適用并且與先前的獎勵學習方法不同。

高級概述:

元獎勵學習(MeRL)

MeRL在處理不明確獎勵方面發(fā)現(xiàn),虛假軌跡和實現(xiàn)意外成功的程序,對智能體的泛化性能不利。

例如,智能體可能解決上述迷宮問題的特定實例。但是,如果它在訓練期間學會執(zhí)行虛假動作,提供看不見的指令則可能導致其失敗。

為了緩解這個問題,MeRL優(yōu)化了更精確的輔助獎勵函數(shù),可以根據行動軌跡的特征區(qū)分意外、或非意外的成功。

通過元學習最大化訓練的智能體在保持驗證集上的表現(xiàn),來優(yōu)化輔助獎勵。

從稀疏獎勵中學習

要從稀疏的獎勵中學習,有效的探索如何找到一組成功軌跡,至關重要。

論文通過利用Kullback-Leibler(KL)發(fā)散的兩個方向來解決這一挑戰(zhàn),這是一種衡量兩種不容概率分布的方法。

在下面的示例中,使用KL散度來最小化固定雙峰(陰影紫色)和學習高斯(陰影綠色)分布之間的差異,這可以分別代表智能體的最優(yōu)策略分布,和學習的策略的分布。

KL對象的一個學習方向,試圖覆蓋兩種模式的分布,而其他目標學習的分布,則在尋求特定模式(即,它更喜歡A模式而不是B模式)。

我們的方法利用模式覆蓋了KL關注多個峰值以收集多樣化的成功軌跡和模式的傾向,尋求KL在軌跡之間的隱含偏好,以學習強有力的策略。

結論

設計區(qū)分最佳和次優(yōu)行為的獎勵函數(shù)對于將RL應用于實際應用程序至關重要。

這項研究在沒有任何人為監(jiān)督的情況下向獎勵函數(shù)建模方向邁出了一小步。

在未來的工作中,我們希望從自動學習密集獎勵函數(shù)的角度解決RL中的信用分配問題。

致謝

這項研究是與Chen Liang和Dale Schuurmans合作完成的。 我們感謝Chelsea Finn和Kelvin Guu對該論文的評論。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6241

    瀏覽量

    109950
  • 智能體
    +關注

    關注

    1

    文章

    368

    瀏覽量

    11461
  • 強化學習
    +關注

    關注

    4

    文章

    269

    瀏覽量

    11843

原文標題:谷歌提出元獎勵學習,兩大基準測試刷新最優(yōu)結果

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    是德示波器MSOX2024A時間基準穩(wěn)定性的測試方法

    值有出入,進而使整個測量結果的準確性降低,影響對信號特性的判斷與分析。 1.2 時間基準不穩(wěn)定導致的測量誤差 時間基準不穩(wěn)定會帶來多種測量誤差,如時間間隔測量誤差、頻率測量誤差等。時間間隔誤差會使信號波形在時間軸上的位置
    的頭像 發(fā)表于 08-18 17:19 ?384次閱讀
    是德示波器MSOX2024A時間<b class='flag-5'>基準</b>穩(wěn)定性的<b class='flag-5'>測試</b>方法

    效率最優(yōu)的感應電機無差拍直接轉矩控制

    摘要:提出了一種感應電機無差拍直接轉矩控制系統(tǒng)的效率最優(yōu)控制方法。在定子磁鏈定向坐標系中以定子磁鏈和轉子磁鏈為狀態(tài)變量,導出了空間矢量無差拍直接轉矩控制的電壓控制律。分析了電機損耗與轉矩、轉速和定子
    發(fā)表于 07-16 19:02

    華為攜手兩大運營商再次刷新5G上行速率

    1.1Gbps,再次刷新了5G上行速率的高度。此前,2024年8月廣東電信測試的5G單用戶上行速率達到1.0Gbps,此次突破標志著華為5G基站的上行鏈路能力達到一個新的高峰。
    的頭像 發(fā)表于 05-21 16:17 ?716次閱讀

    活動名單公布!學電路設計分享學習心得、技術疑問及實戰(zhàn)成果,贏取專屬禮品!

    設計成果介紹) 2、格式要求: 評論前面需包含 #電路設計學習# 標簽,內容≥30字,圖文格式更佳。 獎勵設置 開發(fā)板套件x1、10京東卡x3、電子發(fā)燒友月度VIPx5 獲獎規(guī)則: 在評論區(qū)留言
    發(fā)表于 05-14 09:53

    國產電壓基準源替換RFE3012應用于測試測量設備

    國產電壓基準源替換RFE3012應用于測試測量設備
    的頭像 發(fā)表于 03-06 10:43 ?595次閱讀
    國產電壓<b class='flag-5'>基準</b>源替換RFE3012應用于<b class='flag-5'>測試</b>測量設備

    曙光存儲FlashNexus登頂SPC-1基準測評

    近日,國際存儲性能委員會(SPC)公布SPC-1 V3基準測試最新成績,曙光存儲集中式全閃FlashNexus以32控、超3000萬IOPS的卓越性能刷新紀錄,強勢登頂全球榜首,彰顯中國存儲在高端領域的領先實力!
    的頭像 發(fā)表于 02-27 11:17 ?762次閱讀

    北大攜智機器?團隊提出OmniManip架構

    近日,北京大學與智機器人的聯(lián)合實驗室有了重大成果,北?攜?智機器?團隊提出 OmniManip 架構。 在具身智能領域,將視覺語言基礎模型(VLMs)應用于機器人實現(xiàn)通用操作一直是核心問題。目前
    的頭像 發(fā)表于 01-24 09:57 ?749次閱讀

    SPEC ML基準測試新增模算效率指標

    近日,國際標準性能評估組織SPEC宣布了AI基準測試SPEC ML的最新進展。此次更新標志著SPEC ML基準測試在面向不同AI負載下的軟硬件系統(tǒng)性能評估方面取得了重要突破,成功構建了
    的頭像 發(fā)表于 01-15 14:28 ?672次閱讀

    影響OTDR測試結果的因素

    光時域反射儀(OTDR)是光纖通信領域中不可或缺的測試工具。它通過發(fā)送光脈沖并測量反射回來的光信號,來確定光纖鏈路的長度、損耗和故障位置。然而,OTDR測試結果的準確性受到多種因素的影響。 1.
    的頭像 發(fā)表于 12-31 09:22 ?1373次閱讀

    MLCommons推出AI基準測試0.5版

    開放式機器學習工程聯(lián)盟 MLCommons 在美國加州當?shù)貢r間公布推出適用于消費類 PC 的 AI 性能的 MLPerf Client 基準測試的 0.5 版,這是該測試的第一個公開版
    的頭像 發(fā)表于 12-12 16:47 ?1064次閱讀

    谷歌正式發(fā)布Gemini 2.0 性能提升近

    2.0在關鍵基準測試中相比前代產品Gemini 1.5 Pro的性能提升了近倍。該模型支持圖像、視頻和音頻等多種輸入與輸出形式,例如可以實現(xiàn)文本與圖像的混合生成以及自定義的多語言文本轉語音(TTS)內容。 此外,Gemini
    的頭像 發(fā)表于 12-12 14:22 ?1021次閱讀

    用ADS8317采樣,如果基準偏差,對結果的采樣精度有影響嗎?

    請問用ADS8317采樣基準1.25V如果基準偏差對結果的采樣精度有影響嘛
    發(fā)表于 11-27 08:06

    ADS131A04使用外部基準Vref 5V和內部4V基準,如果5V精度是0.05%,轉換結果哪個更準?

    你好! 1、使用外部基準Vref 5V和內部4V基準,如果5V精度是0.05%,轉換結果哪個更準?資料里沒有寫4V的精度 與溫漂 2、如果模擬輸入是基準5V/2,使用最高有效位數(shù)(O
    發(fā)表于 11-21 07:15

    ESD HBM測試差異較大的結果分析

    ESD HBM測試結果差異較大的原因,通常包括設備/儀器差異、?校準和維護水平不同、?環(huán)境條件差異、?測試樣本差異、?測試操作員技能和經驗差異以及
    的頭像 發(fā)表于 11-18 15:17 ?1680次閱讀
    ESD HBM<b class='flag-5'>測試</b>差異較大的<b class='flag-5'>結果</b>分析

    成本400,DIY一個高刷新率熱成像相機

    志T113的加持下,UI界面的幾乎所有動畫都能達到90Hz刷新率,并支持隨意的動畫打斷,最重要的是,作者將熱成像相機的軟硬件全部開源了出來! 熱成像相機開機動畫演示 PCB溫度檢測演示 遠距相機
    發(fā)表于 11-13 09:28