chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind全新AI項目曝光:可控制各類機器人,數(shù)據(jù)集有望開源

jf_WZTOguxH ? 來源:AI前線 ? 2023-10-09 15:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

DeepMind 的新項目是什么?

開發(fā)機器人技術(shù)的一大挑戰(zhàn),就在于必須投入大量精力來為每臺機器人、每項任務(wù)和每種環(huán)境訓(xùn)練機器學(xué)習(xí)模型。近日,谷歌 DeepMind 團隊及其他 33 個研究機構(gòu)正共同發(fā)起新項目,旨在創(chuàng)建一套通用 AI 系統(tǒng)來應(yīng)對這個挑戰(zhàn)。據(jù)稱該系統(tǒng)能夠與不同類型的物理機器人協(xié)同運作,成功執(zhí)行多種任務(wù)。

谷歌機器人部門高級軟件工程師 Pannag Sanketi 在采訪中表示,“我們觀察到,機器人在專項領(lǐng)域表現(xiàn)極佳,但在通用領(lǐng)域卻缺乏靈性。一般來講,大家需要為每項任務(wù)、每臺機器人和每種環(huán)境分別訓(xùn)練一套模型,從零開始調(diào)整每一個變量?!?/p>

為了克服這個問題,讓機器人的訓(xùn)練和部署變得更加輕松、快捷,谷歌 DeepMind 在名為 Open X-Embodiment 的大型共享數(shù)據(jù)庫項目中引入了兩大關(guān)鍵組件:一套包含了 22 種機器人類型數(shù)據(jù)的數(shù)據(jù)集,外加一系列能夠跨多種任務(wù)進行技能遷移的模型 RT-1-X(這是一個源自 RT-1 的機器人變壓器模型)。為了開發(fā) Open X-Embodiment 數(shù)據(jù)集,研發(fā)人員在超過 100 萬個場景中展示了 500 多種技能和 150,000 項任務(wù),因此,該數(shù)據(jù)集也是同類中最全面的機器人數(shù)據(jù)集。

此外,研究人員還在機器人實驗室和不同類型的物理裝置之上對模型進行了測試,并發(fā)現(xiàn)與傳統(tǒng)機器人訓(xùn)練方法相比,新方案確實能取得更好的成績。

139c5730-666d-11ee-939d-92fbcf53809c.png

來自 Open X-Embodiment 數(shù)據(jù)集的樣本展示了 500 多種技能和 150,000 項任務(wù)。

13b3be70-666d-11ee-939d-92fbcf53809c.png

Open X-Embodiment 數(shù)據(jù)集結(jié)合了跨實施例、數(shù)據(jù)集和技能的數(shù)據(jù)。

結(jié)合機器人數(shù)據(jù)

通常來講,不同類型的機器人往往擁有獨特的傳感器和執(zhí)行器,所以需要配合專門的軟件模型。這就類似于不同生物體的大腦和神經(jīng)系統(tǒng)需要專門進化,從而適應(yīng)該生物的身體結(jié)構(gòu)與所處環(huán)境。

但 Open X-Embodiment 的誕生卻出于這樣一條先驗性的假設(shè):將來自不同機器人和任務(wù)的數(shù)據(jù)結(jié)合起來,就能創(chuàng)建一套優(yōu)于專用模型的通用模型,足以驅(qū)動所有類型的機器人。這個概念在一定程度上受到大語言模型(LLM)的啟發(fā),即在使用大型通用數(shù)據(jù)集進行訓(xùn)練時,模型成果的匹配度甚至可以優(yōu)于在特定數(shù)據(jù)集上訓(xùn)練的小型針對性模型。而研究人員驚喜地發(fā)現(xiàn),此項原理果然也適用于機器人領(lǐng)域。

為了創(chuàng)建 Open X-Embodiment 數(shù)據(jù)集,研究團隊收集了來自不同國家 20 個機構(gòu)的 22 臺機器人具身的真實數(shù)據(jù)。該數(shù)據(jù)集包含超 100 萬種情節(jié)(所謂情節(jié),是指機器人每次嘗試執(zhí)行任務(wù)時所采取的一系列動作),其中具體涉及 500 多種技能和 15 萬個任務(wù)示例。

隨附的各模型均基于 Transformer,一套在大語言模型中也得以應(yīng)用的深度學(xué)習(xí)架構(gòu)。RT-1-X 建立在 Robotics Transformer 1(簡稱 RT-1)之上,是一套適用于在真實環(huán)境下實現(xiàn)機器人技術(shù)規(guī)?;亩嗳蝿?wù)模型。RT-2-X 則建立在 RT-1 后繼者 RT-2 的基礎(chǔ)之上——RT-2 是一種視覺語言動作(VLA)模型,能夠從機器人和網(wǎng)絡(luò)數(shù)據(jù)中學(xué)習(xí),并具備響應(yīng)自然語言命令的能力。

研究人員在五所不同研究實驗室的五臺常用機器人上測試了 RT-1-X 對各類任務(wù)的執(zhí)行能力。與針對這些機器人開發(fā)的專用模型相比,RT-1-X 在拾取和移動物體、以及開門等任務(wù)上的成功率高出 50%。該模型還能將技能遷移至多種不同環(huán)境,這也是在特定視覺場景下訓(xùn)練出的專用模型所做不到的。由此可見,由不同示例集訓(xùn)練而成的模型在大多數(shù)任務(wù)中都優(yōu)于專用模型。論文還提到,此模型適用于從機械手臂到四足動物在內(nèi)的多種機器人。

加州大學(xué)伯克利分校副教授、論文聯(lián)合作者 Sergey Levine 寫道,“對于任何曾有機器人研究經(jīng)驗的朋友來說,都能意識到這是多么了不起:這類模型「從來」就沒能第一次就嘗試成功,但這個模型卻做到了?!?/p>

13c8a75e-666d-11ee-939d-92fbcf53809c.png

值得注意的是,即使是規(guī)模較小的 RT-1-X 模型,也實現(xiàn)了對各實驗室內(nèi)部專用模型的超越!對于任何曾有機器人研究經(jīng)驗的朋友來說,都能意識到這是多么了不起:這類模型“從來”就沒能第一次就嘗試成功,但這個模型卻做到了。

在應(yīng)急技能和處理訓(xùn)練數(shù)據(jù)集中未涉及的新任務(wù)方面,RT-2-X 的成功率可達 RT-2 的 3 倍。具體來講,RT-2-X 在需要空間認(rèn)知的任務(wù)上表現(xiàn)出更好的性能,例如理解“將蘋果放到布旁邊”和“將蘋果放到布上”兩種要求間的區(qū)別。

研究人員在 Open X 和 RT-X 的發(fā)布博文中寫道,“我們的結(jié)果表明,與其他平臺的數(shù)據(jù)進行聯(lián)合訓(xùn)練之后,RT-2-X 獲得了原始數(shù)據(jù)集中并不具備的額外技能,使其能夠執(zhí)行前所未見的新任務(wù)?!?/p>

步步邁向機器人研究的新未來

展望未來,科學(xué)家們正在考慮將這些進展與 DeepMind 開發(fā)的自我改進模型 RoboCat 的見解相結(jié)合,希望探索出新的研究方向。RoboCat 能夠?qū)W會在不同機械臂上執(zhí)行各種任務(wù),然后自動設(shè)計出新的訓(xùn)練數(shù)據(jù)以提高自身性能。

Sanketi 認(rèn)為,另一個潛在的研究方向,也可能是進一步研究不同數(shù)據(jù)集間的混合會如何影響跨機器人具身的能力泛化與改進效果。

該團隊目前已經(jīng)開源了 Open X-Embodiment 數(shù)據(jù)集和小型 RT-1-X 模型,但并未公開 RT-2-X 模型。

Sanketi 總結(jié)道,“我們相信,這些工具將改變機器人的訓(xùn)練方式,并加速該領(lǐng)域的研究進展。我們希望開源相關(guān)數(shù)據(jù),并提供安全但受限的模型以減少障礙、加速研究。機器人技術(shù)的未來離不開機器人之間的相互學(xué)習(xí),而這一切的前提,首先要求研究人員之間能夠相互學(xué)習(xí)。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31066

    瀏覽量

    222151
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39707

    瀏覽量

    301314
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26186
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    12282

原文標(biāo)題:DeepMind 全新 AI 項目曝光:可控制各類機器人,數(shù)據(jù)集有望開源

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    你好,我是StackChan,超可愛的社區(qū)共創(chuàng)開源AI桌面機器人!

    StackChan登場MeetStackChanStackChan是一款開源AI桌面機器人。它可以陪你玩,陪你聊,還支持開源共創(chuàng)與DIY擴展,配合App與
    的頭像 發(fā)表于 12-26 17:28 ?2588次閱讀
    你好,我是StackChan,超可愛的社區(qū)共創(chuàng)<b class='flag-5'>開源</b><b class='flag-5'>AI</b>桌面<b class='flag-5'>機器人</b>!

    探索RISC-V在機器人領(lǐng)域的潛力

    應(yīng)用,特別是機器人操作系統(tǒng)領(lǐng)域的可行性。MUSE Pi Pro以其強大的K1 AI CPU和官方對主流開源軟件棧的積極適配,成為了一個非常有吸引力的選擇。 二、 硬件初窺:性能小鋼炮 MUSE Pi Pro
    發(fā)表于 12-03 14:40

    高精度機器人控制的核心——基于 MYD-LT536 開發(fā)板的精密運動控制方案

    ISP多媒體接口,適合構(gòu)建機器人視覺-運動融合系統(tǒng),實現(xiàn)工件識別與動態(tài)定位。 3. 支持閉環(huán)控制與誤差校正 可結(jié)合高分辨率編碼器反饋數(shù)據(jù),運行機器人閉環(huán)
    發(fā)表于 11-14 15:48

    NVIDIA推出面向語言、機器人和生物學(xué)的全新開源AI技術(shù)

    NVIDIA 秉持對開源的長期承諾,推出了面向語言、機器人和生物學(xué)的全新開源 AI 技術(shù),為構(gòu)建開源生態(tài)系統(tǒng)做出貢獻,擴展
    的頭像 發(fā)表于 11-06 11:49 ?1060次閱讀

    RK3576機器人核心:三屏異顯+八路攝像頭,重塑機器人交互與感知

    、遠程作業(yè)機器人、特種檢測機器人· 多攝像頭輸入:通過多路攝像頭無死角監(jiān)控作業(yè)現(xiàn)場,實現(xiàn)精準(zhǔn)操作與安全監(jiān)控。· 多屏顯示:將不同視角的畫面、傳感器數(shù)據(jù)、控制界面分別顯示,幫助操作員遠程
    發(fā)表于 10-29 16:41

    NVIDIA 利用全新開源模型與仿真庫加速機器人研發(fā)進程

    科研人員及開發(fā)者打造功能更強大、適應(yīng)性更強的機器人。 ? 全新的 NVIDIA Isaac GR00T 開源基礎(chǔ)模型將為機器人賦予接近人類的推理能力,使其能夠拆解復(fù)雜指令,并借助已有知
    的頭像 發(fā)表于 09-30 09:52 ?3064次閱讀
    NVIDIA 利用<b class='flag-5'>全新開源</b>模型與仿真庫加速<b class='flag-5'>機器人</b>研發(fā)進程

    機器人競技幕后:磁傳感器芯片激活 “精準(zhǔn)感知力”

    2025 世界人形機器人運動會于 8 月 17 日圓滿收官,賽場上機器人在跑步、跳躍、抓取等項目中的精彩表現(xiàn),背后是運動控制、環(huán)境感知等技術(shù)的迭代升級。而在這些技術(shù)中,磁傳感器芯片憑借
    發(fā)表于 08-26 10:02

    開源鴻蒙驅(qū)動機器人AI產(chǎn)業(yè)生態(tài)發(fā)展,M-Robots OS正式開源

    M-RobotsOS項目發(fā)布儀式等重要環(huán)節(jié),匯聚全球開發(fā)者智慧,全力打造機器人領(lǐng)域的新生態(tài),促進產(chǎn)業(yè)鏈上下游企業(yè)的協(xié)同創(chuàng)新發(fā)展。開放原子開源基金會理事長程曉明程曉明
    的頭像 發(fā)表于 07-26 14:20 ?1116次閱讀
    <b class='flag-5'>開源</b>鴻蒙驅(qū)動<b class='flag-5'>機器人</b>與<b class='flag-5'>AI</b>產(chǎn)業(yè)生態(tài)發(fā)展,M-Robots OS正式<b class='flag-5'>開源</b>

    全國首個開源鴻蒙機器人操作系統(tǒng) M-Robots OS 正式開源

    機器人操作系統(tǒng)M-RobotsOS,推動機器人行業(yè)生態(tài)融合、能力復(fù)用、智能協(xié)同。構(gòu)建機器人共通語言解決產(chǎn)業(yè)協(xié)同難題機器人行業(yè)正面臨兩大關(guān)鍵挑戰(zhàn):一方面,傳統(tǒng)通用操
    的頭像 發(fā)表于 07-24 10:56 ?1019次閱讀
    全國首個<b class='flag-5'>開源</b>鴻蒙<b class='flag-5'>機器人</b>操作系統(tǒng) M-Robots OS 正式<b class='flag-5'>開源</b>

    盤點#機器人開發(fā)平臺

    Athena機器人****開發(fā)平臺思嵐推出Athena機器人開發(fā)平臺,有望主導(dǎo)機器人開發(fā)平臺未來市場-電子發(fā)燒友網(wǎng)AUTO CUBEROS機器人
    發(fā)表于 05-13 15:02

    自制一個支持AI 控制的無刷平衡車機器人開源項目D-BOT全攻略

    今天給大家介紹一款創(chuàng)意桌面機器人——D-BOT!它不僅是一個功能強大的平衡車機器人,也是一個融合了AI控制、3D建模與PCB設(shè)計的開源
    發(fā)表于 04-28 11:45

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+內(nèi)容初識

    、Gazebo仿真(含RGBD相機/激光雷達仿真)、實物機器人運動控制,實現(xiàn)\"仿真→實物\"的無縫銜接 高階應(yīng)用篇(7-9章) 聚焦視覺SLAM、自主導(dǎo)航等前沿場景,提供完整項目鏈路(如
    發(fā)表于 04-27 11:24

    大象機器人攜手進迭時空推出 RISC-V 全棧開源六軸機械臂產(chǎn)品

    末端執(zhí)行器。 全棧開源 從RISC-V指令、芯片SDK到機器人控制代碼100%開放,開發(fā)者可自由定制算法與控制邏輯。 官方apt倉庫提供d
    發(fā)表于 04-25 17:59

    NVIDIA推出開源物理AI數(shù)據(jù)

    標(biāo)準(zhǔn)化合成數(shù)據(jù)的初始版本預(yù)計將成為世界上最大的此類數(shù)據(jù),目前已作為開源版本提供給機器人開發(fā)人員。
    的頭像 發(fā)表于 03-24 17:52 ?1030次閱讀

    NVIDIA 發(fā)布全球首個開源人形機器人基礎(chǔ)模型 Isaac GR00T N1——并推出加速機器人開發(fā)的仿真框架

    推出完全可定制的 GR00T N1 基礎(chǔ)模型,為人形機器人賦予通用技能與推理技能 NVIDIA、Google DeepMind 和 Disney Research 合作開發(fā)新一代開源物理引擎
    發(fā)表于 03-19 09:30 ?715次閱讀
    NVIDIA 發(fā)布全球首個<b class='flag-5'>開源</b>人形<b class='flag-5'>機器人</b>基礎(chǔ)模型 Isaac GR00T N1——并推出加速<b class='flag-5'>機器人</b>開發(fā)的仿真框架