chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡(jiǎn)單隨機(jī)搜索:無(wú)模型強(qiáng)化學(xué)習(xí)的高效途徑

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:steve ? 2018-04-01 09:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

現(xiàn)在人們對(duì)無(wú)模型強(qiáng)化學(xué)習(xí)的一個(gè)普遍看法是,這種基于隨機(jī)搜索策略的方法在參數(shù)空間中比那些探索行為空間的方法表現(xiàn)出更差的樣本復(fù)雜性。UC Berkeley的研究人員通過引入隨機(jī)搜索方法,推翻了這種說法。以下是論智對(duì)作者Benjamin Recht博文的編譯。

我們已經(jīng)看到,隨機(jī)搜索在簡(jiǎn)單的線性問題上表現(xiàn)得很好,而且似乎比一些強(qiáng)化學(xué)習(xí)方法(例如策略梯度)更好。然而隨著問題難度增加,隨機(jī)搜索是否會(huì)崩潰?答案是否定的。但是,請(qǐng)繼續(xù)讀下去!

讓我們?cè)趶?qiáng)化學(xué)習(xí)社區(qū)感興趣的問題上應(yīng)用隨機(jī)搜索。深度強(qiáng)化學(xué)習(xí)領(lǐng)域一直把大量時(shí)間和精力用于由OpenAI維護(hù)的、基于MuJoCo模擬器的一套基準(zhǔn)測(cè)試中。這里,最優(yōu)控制問題指的是讓一個(gè)有腿機(jī)器人在一個(gè)方向上盡可能快地行走,越遠(yuǎn)越好。其中一些任務(wù)非常簡(jiǎn)單,但是有些任務(wù)很難,比如這種有22個(gè)自由度的復(fù)雜人形模型。有腿機(jī)器人的運(yùn)動(dòng)由Hamilton方程控制,但是從這些模型中計(jì)劃動(dòng)作是非常具有挑戰(zhàn)性的,因?yàn)闆]有設(shè)計(jì)目標(biāo)函數(shù)的最佳方法,并且模型是分段線性的。只要機(jī)器人的任何部位碰到堅(jiān)硬物體,模型就會(huì)變化,因此會(huì)出現(xiàn)此前沒有的作用于機(jī)器人的法向力。于是,讓機(jī)器人無(wú)需處理復(fù)雜的非凸非線性模型而正常工作,對(duì)強(qiáng)化學(xué)習(xí)來(lái)說是個(gè)有趣的挑戰(zhàn)。

最近,Salimans及其在OpenAI的合作者表示,隨機(jī)搜索在這些標(biāo)準(zhǔn)測(cè)試中表現(xiàn)的很好,尤其是加上幾個(gè)算法增強(qiáng)后很適合神經(jīng)網(wǎng)絡(luò)控制器。在另一項(xiàng)實(shí)驗(yàn)中,Rajeswaran等人表示,自然策略梯度可以學(xué)習(xí)用于完成標(biāo)準(zhǔn)的先行策略。也就是說,他們證明靜態(tài)線性狀態(tài)的反饋——就像我們?cè)贚QR(Linear Quadratic Regulator)中使用的那樣——也足以控制這些復(fù)雜的機(jī)器人模擬器。但這仍然有一個(gè)問題:簡(jiǎn)單隨機(jī)搜索能找到適合MuJoCo任務(wù)的線性控制器嗎?

我的學(xué)生Aurelia Guy和Horia Mania對(duì)此進(jìn)行了測(cè)試,他們編寫了一個(gè)非常簡(jiǎn)單的隨機(jī)搜索版本(是我之前發(fā)布的Iqrpols.py中的一個(gè))。令人驚訝的是,這個(gè)簡(jiǎn)單的算法學(xué)習(xí)了Swimmer-v1,Hopper-v1,Walker2d-v1和Ant-v1任務(wù)中的線性策略,這些策略實(shí)現(xiàn)了之前文章中提出的獎(jiǎng)勵(lì)閾值。不錯(cuò)!

簡(jiǎn)單隨機(jī)搜索:無(wú)模型強(qiáng)化學(xué)習(xí)的高效途徑

但是只有隨機(jī)搜索還不夠完美。Aurelia和Horia完全不能用人形模型做出有趣的事。試了很多次參數(shù)調(diào)整后,他們決定改進(jìn)隨機(jī)搜索,讓它訓(xùn)練地更快。Horia注意到許多強(qiáng)化學(xué)習(xí)的論文利用狀態(tài)的統(tǒng)計(jì)數(shù)據(jù),并且在將狀態(tài)傳遞給神經(jīng)網(wǎng)絡(luò)之前能夠?qū)顟B(tài)白化。所以他開始保持在線估計(jì)狀態(tài),在將他們傳遞給線性控制器之前將它們白化。有了這個(gè)簡(jiǎn)單的竅門,Aurelia和Horia現(xiàn)在可以讓人形機(jī)器人做出最佳表現(xiàn)。這實(shí)際上是Salimans等人在標(biāo)準(zhǔn)值上達(dá)到的“成功閾值”的兩倍。只需要線性控制器、隨機(jī)搜索和一個(gè)簡(jiǎn)單的技巧。

簡(jiǎn)單隨機(jī)搜索:無(wú)模型強(qiáng)化學(xué)習(xí)的高效途徑

另外還有一件簡(jiǎn)單的事情就是,代碼比OpenAI的進(jìn)化策略論文中的要快15倍。我們可以用更少的計(jì)算獲得更高的獎(jiǎng)勵(lì)。用戶可以在一小時(shí)內(nèi)在標(biāo)準(zhǔn)18核EC2實(shí)例上訓(xùn)練一個(gè)高性能人形模型。

現(xiàn)在,隨著在線狀態(tài)的更新,隨機(jī)搜索不僅超過了人形模型的最佳水平,而且還超越了Swimmer-v1、Hopper-v1、HalfCheetah-v1。但在Walker2d-v1和Ant-v1上的表現(xiàn)還不是很好。但是我們可以再添加一個(gè)小技巧。我們可以放棄不會(huì)產(chǎn)生良好回報(bào)的采樣方向。這增加了一個(gè)超參數(shù),但有了這一額外的調(diào)整,隨機(jī)搜索實(shí)際上可能會(huì)達(dá)到或超過OpenAI的gym中所有MuJoCo標(biāo)準(zhǔn)的最佳性能。注意,這里并不限制與策略梯度的比較。就我所知,這些策略比任何無(wú)模型強(qiáng)化學(xué)習(xí)的應(yīng)用結(jié)果要好,無(wú)論是Actor Critic Method還是Value Function Estimation Method等等更深?yuàn)W的東西。對(duì)于這類MuJoCo問題,似乎純粹的隨機(jī)搜索優(yōu)于深度強(qiáng)化學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)。

簡(jiǎn)單隨機(jī)搜索:無(wú)模型強(qiáng)化學(xué)習(xí)的高效途徑

通過一些小調(diào)整得到的隨機(jī)搜索結(jié)果勝過了MuJoCo任務(wù)中的所有其他方法,并且速度更快。論文和代碼都已公布。

從隨機(jī)搜索中,我們有了以下幾點(diǎn)收獲:

基準(zhǔn)很難

我認(rèn)為所有這一切唯一合理的結(jié)論就是這些MuJoCo Demo很容易,毫無(wú)疑問。但是,用這些標(biāo)準(zhǔn)測(cè)試NIPS、ICML或ICLR中的論文可能不再合適。這就出現(xiàn)了一個(gè)重要的問題:什么是強(qiáng)化學(xué)習(xí)的良好標(biāo)準(zhǔn)?顯然,我們需要的不僅僅是Mountain Car。我認(rèn)為具有未知?jiǎng)幼鞯腖QR是一個(gè)合理的任務(wù),因?yàn)榇_定新實(shí)例并了解性能的限制是很容易的。但是該領(lǐng)域應(yīng)該花更多時(shí)間了解如何建立有難度的標(biāo)準(zhǔn)。

不要在模擬器上抱太大希望

這些標(biāo)準(zhǔn)比較容易的一部分原因是MuJoCo不是一個(gè)完美的模擬器。MuJoCo非???,并且對(duì)于概念驗(yàn)證非常有用。但為了快速起見,它必須在接觸點(diǎn)周圍進(jìn)行平滑處理(接觸的不連續(xù)是使腿部運(yùn)動(dòng)困難的原因)。因此,你只能讓其中一個(gè)模擬器走路,并不意味著你可以讓真正的機(jī)器人走路。的確,這里有四種讓獎(jiǎng)勵(lì)可以達(dá)到6000的步態(tài),但看起來(lái)都不太現(xiàn)實(shí):

即使是表現(xiàn)最好的模型(獎(jiǎng)勵(lì)達(dá)到11600),如下圖所示,這種看起來(lái)很蠢的步態(tài)也不可能應(yīng)用在現(xiàn)實(shí)中:

努力將算法簡(jiǎn)化

在簡(jiǎn)單算法中添加超參數(shù)和算法小部件,可以在足夠小的一組基準(zhǔn)測(cè)試中提高其性能。我不確定是否放棄最好的方向或狀態(tài)歸一化會(huì)對(duì)新的隨機(jī)搜索問題起作用,但這對(duì)MuJoCo的標(biāo)準(zhǔn)和有用。通過添加更多可調(diào)參數(shù),甚至可以獲得更多回報(bào)。

使用之前先探索

注意,由于隨機(jī)搜索方法很快,我們可以評(píng)估它在許多隨機(jī)種子上的表現(xiàn)。這些無(wú)模型的方法在這些基準(zhǔn)上都表現(xiàn)出驚人的巨大差異。例如,在人形任務(wù)中,即使我們提供了我們認(rèn)為是好的參數(shù),模型的訓(xùn)練時(shí)間也慢了四分之一。對(duì)于那些隨機(jī)種子,它會(huì)找到相當(dāng)奇特的步態(tài)。如果將注意力限定在三個(gè)隨機(jī)種子上用于隨機(jī)搜索,通常具有誤導(dǎo)性,因?yàn)槟憧赡軙?huì)將性能調(diào)整為隨機(jī)數(shù)生成器的特性。

簡(jiǎn)單隨機(jī)搜索:無(wú)模型強(qiáng)化學(xué)習(xí)的高效途徑

這種現(xiàn)象在LQR上也出現(xiàn)了。我們可以將算法向一些隨機(jī)種子進(jìn)行微調(diào),然后在新的隨機(jī)種子上看到完全不同的行為。Henderson等人用深度強(qiáng)化學(xué)習(xí)方法觀察了這些現(xiàn)象,但我認(rèn)為如此高的變量將成為所有無(wú)模型方法的通用癥狀。僅通過模擬就能解釋很多邊界情況。正如我在上一篇文章中所說的:“通過拋棄模型和知識(shí),我們永遠(yuǎn)不知道是否可以從少數(shù)實(shí)例和隨機(jī)種子中學(xué)到足夠的東西進(jìn)行概括。”


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:簡(jiǎn)單隨機(jī)搜索:強(qiáng)化學(xué)習(xí)的高效途徑

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    1.Deepseek簡(jiǎn)介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。DeepSeek-R1采用強(qiáng)化學(xué)習(xí)進(jìn)行后訓(xùn)練,旨在提升推理能力,尤其擅長(zhǎng)數(shù)學(xué)、代碼
    的頭像 發(fā)表于 07-25 15:22 ?834次閱讀
    速看!EASY-EAI教你離線部署Deepseek R1大<b class='flag-5'>模型</b>

    如何在Ray分布式計(jì)算框架下集成NVIDIA Nsight Systems進(jìn)行GPU性能分析

    在大語(yǔ)言模型強(qiáng)化學(xué)習(xí)訓(xùn)練過程中,GPU 性能優(yōu)化至關(guān)重要。隨著模型規(guī)模不斷擴(kuò)大,如何高效地分析和優(yōu)化 GPU 性能成為開發(fā)者面臨的主要挑戰(zhàn)之一。
    的頭像 發(fā)表于 07-23 10:34 ?1777次閱讀
    如何在Ray分布式計(jì)算框架下集成NVIDIA Nsight Systems進(jìn)行GPU性能分析

    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化學(xué)習(xí)腳本使用指南

    Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時(shí)支持模仿學(xué)習(xí)(模仿人類)和強(qiáng)化學(xué)習(xí)(在嘗試和錯(cuò)誤中進(jìn)行學(xué)習(xí)),為所有機(jī)器
    的頭像 發(fā)表于 07-14 15:29 ?1475次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>腳本使用指南

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    教育等領(lǐng)域發(fā)揮著越來(lái)越重要的作用。?針對(duì)日前前來(lái)咨詢的廣大客戶對(duì)面向大模型智能硬件的學(xué)習(xí)需求,我們根據(jù)CSK6大模型語(yǔ)音視覺開發(fā)板已有功能,整理了一份適合基于本開發(fā)板進(jìn)行教學(xué)活動(dòng)的學(xué)習(xí)
    發(fā)表于 07-04 11:10

    【書籍評(píng)測(cè)活動(dòng)NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    。DeepSeek-V3 的發(fā)布幾乎沒有預(yù)熱和炒作,僅憑借其出色的效果和超低的成本迅速走紅。 DeepSeek-R1 則是在 DeepSeek-V3 的基礎(chǔ)上構(gòu)建的推理模型,它在后訓(xùn)練階段大規(guī)模使用強(qiáng)化學(xué)習(xí)技術(shù)
    發(fā)表于 06-09 14:38

    18個(gè)常用的強(qiáng)化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級(jí)模型的理論技術(shù)與代碼實(shí)現(xiàn)

    本來(lái)轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強(qiáng)化學(xué)習(xí)方法到高級(jí)技術(shù)(如PPO、A3C、PlaNet等)的實(shí)現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對(duì)強(qiáng)化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?1088次閱讀
    18個(gè)常用的<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>算法整理:從基礎(chǔ)方法到高級(jí)<b class='flag-5'>模型</b>的理論技術(shù)與代碼實(shí)現(xiàn)

    詳解RAD端到端強(qiáng)化學(xué)習(xí)后訓(xùn)練范式

    受限于算力和數(shù)據(jù),大語(yǔ)言模型預(yù)訓(xùn)練的 scalinglaw 已經(jīng)趨近于極限。DeepSeekR1/OpenAl01通過強(qiáng)化學(xué)習(xí)后訓(xùn)練涌現(xiàn)了強(qiáng)大的推理能力,掀起新一輪技術(shù)革新。
    的頭像 發(fā)表于 02-25 14:06 ?861次閱讀
    詳解RAD端到端<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>后訓(xùn)練范式

    百度搜索與文心智能體平臺(tái)接入DeepSeek及文心大模型深度搜索

    近日,百度搜索與文心智能體平臺(tái)聯(lián)合宣布了一項(xiàng)重要更新:將全面接入DeepSeek及文心大模型最新的深度搜索功能。這一更新將為用戶和開發(fā)者帶來(lái)更加智能、高效
    的頭像 發(fā)表于 02-17 09:14 ?852次閱讀

    Deepseek R1大模型離線部署教程

    DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型 。DeepSeek-R1采用強(qiáng)化學(xué)習(xí)進(jìn)行后訓(xùn)練,旨在提升推理能力,尤其擅長(zhǎng)數(shù)學(xué)、代碼和自然語(yǔ)言推理等復(fù)雜任務(wù)
    的頭像 發(fā)表于 02-12 09:37 ?2192次閱讀
    Deepseek R1大<b class='flag-5'>模型</b>離線部署教程

    淺談適用規(guī)模充電站的深度學(xué)習(xí)有序充電策略

    深度強(qiáng)化學(xué)習(xí)能夠有效計(jì)及電動(dòng)汽車出行模式和充電需求的不確定性,實(shí)現(xiàn)充電場(chǎng)站充電成本化的目標(biāo)。通過對(duì)電動(dòng)汽車泊車時(shí)間和充電需求特征進(jìn)行提取,建立適用于大規(guī)模電動(dòng)汽車有序充電的馬爾可夫決策過程模型,并
    的頭像 發(fā)表于 02-08 15:00 ?698次閱讀
    淺談適用規(guī)模充電站的深度<b class='flag-5'>學(xué)習(xí)</b>有序充電策略

    智譜推出深度推理模型GLM-Zero預(yù)覽版

    近日,智譜公司正式發(fā)布了其深度推理模型GLM-Zero的預(yù)覽版——GLM-Zero-Preview。這款模型標(biāo)志著智譜在擴(kuò)展強(qiáng)化學(xué)習(xí)技術(shù)訓(xùn)練推理模型方面的重大突破,成為其首個(gè)專注于增強(qiáng)
    的頭像 發(fā)表于 01-03 10:42 ?687次閱讀

    螞蟻集團(tuán)收購(gòu)邊塞科技,吳翼出任強(qiáng)化學(xué)習(xí)實(shí)驗(yàn)室首席科學(xué)家

    近日,專注于模型賽道的初創(chuàng)企業(yè)邊塞科技宣布被螞蟻集團(tuán)收購(gòu)。據(jù)悉,此次交易完成后,邊塞科技將保持獨(dú)立運(yùn)營(yíng),而原投資人已全部退出。 與此同時(shí),螞蟻集團(tuán)近期宣布成立強(qiáng)化學(xué)習(xí)實(shí)驗(yàn)室,旨在推動(dòng)大模型強(qiáng)化
    的頭像 發(fā)表于 11-22 11:14 ?1893次閱讀

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過與環(huán)境的交互來(lái)學(xué)習(xí)如何做出決策,以最大化累積獎(jiǎng)勵(lì)。PyTorch 是一個(gè)流行的開源機(jī)器學(xué)習(xí)庫(kù),
    的頭像 發(fā)表于 11-05 17:34 ?1294次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?3384次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    多個(gè)神經(jīng)網(wǎng)絡(luò)層組成,每個(gè)層都包含大量的神經(jīng)元和權(quán)重參數(shù)。 傳統(tǒng)機(jī)器學(xué)習(xí)模型規(guī)模相對(duì)較小,參數(shù)數(shù)量通常只有幾千到幾百萬(wàn)個(gè),模型結(jié)構(gòu)相對(duì)簡(jiǎn)單。 二、訓(xùn)練數(shù)據(jù)需求 AI大
    的頭像 發(fā)表于 10-23 15:01 ?3204次閱讀