chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

終結(jié)機器人評測混戰(zhàn)時代,RoboChallenge帶來大規(guī)模真機測評基準(zhǔn)

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2025-10-19 11:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgZPGjzI5aAVVGPAApV8_LANDM676.jpg

當(dāng)前機器人行業(yè)呈現(xiàn)兩極分化態(tài)勢。一邊是競技賽事的火熱,如2025年世界人形機器人運動會吸引了全球16個國家280支隊伍參與,另一邊卻是現(xiàn)實核心技術(shù)仍然面臨瓶頸,某企業(yè)人形機器人因末端執(zhí)行器精度不足,導(dǎo)致工業(yè)場景中的精密作業(yè)效率甚至比不上人工。

這種理想與現(xiàn)實的落差,在資本層面表現(xiàn)得更為明顯。今年前七個月,具身智能與機器人領(lǐng)域融資金額已突破240億元,遠超去年全年總和。面對層出不窮的機器人公司和產(chǎn)品,投資者卻陷入困惑:如何判斷哪些企業(yè)真正掌握核心技術(shù)?哪些產(chǎn)品具備長期落地的潛力?

行業(yè)缺乏的,正是一個能夠客觀衡量機器人能力的標(biāo)尺。

對此,由Dexmal原力靈機聯(lián)合Huggingface共同發(fā)起的全球首個大規(guī)模真機基準(zhǔn)測試集RoboChallenge,為具身智能真機評測提供了有效標(biāo)準(zhǔn)。

wKgZO2jzI5eAG47dAAH2OLl-F18404.jpg

那么,為什么具身智能行業(yè)急需一個統(tǒng)一測評標(biāo)準(zhǔn)?RoboChallenge真機基準(zhǔn)測試平臺又從哪些層面攻克了行業(yè)難點呢?

wKgZPGjzI5iAKxilAAI6nwtiglE586.jpg

算法和模型的世界里,基準(zhǔn)測試早已是推動進步的發(fā)動機。計算機視覺有ImageNet,自然語言處理有GLUE,每一項突破都以公開、可復(fù)現(xiàn)的排行榜為標(biāo)尺,激發(fā)了無數(shù)創(chuàng)新。而機器人領(lǐng)域長期沒有類似的標(biāo)準(zhǔn)體系。

對機器人能力的評估始終在兩個極端搖擺。

一端是那些刷屏社交網(wǎng)絡(luò)的機器人項目。無論是后空翻的人形機器人,還是展會現(xiàn)場表演泡咖啡,炫技式的展示雖然極易出圈,吸引大眾眼球,但更偏向于娛樂和營銷,無法反映機器人在通用、非結(jié)構(gòu)化環(huán)境中的真實能力。

另一端是實驗室測試。在科研領(lǐng)域,研究人員會在仿真環(huán)境或高度結(jié)構(gòu)化的物理環(huán)境中測試機器人的某項特定能力,例如物體抓取成功率、路徑規(guī)劃效率等。但這些演示無法代表現(xiàn)實世界的復(fù)雜與不確定,也無法讓投資者、同行或市場知道,它們之間到底差多少、強在哪。

缺乏基準(zhǔn)的后果,是整個行業(yè)信息失真。

投資角度,評估難。投資者缺乏有效的技術(shù)評估工具,往往只能依賴于光鮮的演示視頻和創(chuàng)始團隊的背景來做判斷,這可能導(dǎo)致擅長演示的團隊可能比技術(shù)扎實的團隊更容易獲得融資。

市場角度,劣幣驅(qū)逐良幣。當(dāng)演示效果重于實際效用時,企業(yè)的資源分配就會自然傾斜。本應(yīng)用于核心技術(shù)突破的研發(fā)精力,被迫分流到能夠快速制造傳播熱點的炫技功能上。

而沒有公認的基準(zhǔn),技術(shù)就無法在同一維度上進行比較和衡量,也就難以形成清晰的技術(shù)演進路線圖。開發(fā)者們各自為戰(zhàn),重復(fù)造輪子。某個團隊已經(jīng)解決的經(jīng)典問題,可能在另一個團隊那里仍是攔路虎;某個領(lǐng)域的突破性進展,往往難以被準(zhǔn)確識別并快速擴散到整個行業(yè),整個行業(yè)的創(chuàng)新效率大打折扣。

投資者、消費市場、技術(shù)發(fā)展都呼喚著一個更加強有力的真機測量標(biāo)準(zhǔn)來提供統(tǒng)一基座,推動具身智能行業(yè)良性發(fā)展。

wKgZPGjzI5mAfHNNAAImoZfM990124.jpg

行業(yè)急需一套更全面、科學(xué)的具身智能真機測試標(biāo)準(zhǔn)。然而,要在真實環(huán)境中對機器人進行公平、可復(fù)現(xiàn)的評測,難度遠超想象。

當(dāng)前行業(yè)內(nèi)的測試體系普遍面臨著三大痛點:測試場景碎片化,各機構(gòu)使用的環(huán)境、任務(wù)千差萬別;評估標(biāo)準(zhǔn)不統(tǒng)一,導(dǎo)致結(jié)果缺乏可比性;評測方法不夠系統(tǒng),難以全面反映機器人的真實能力水平。這些問題使得不同算法、不同硬件平臺的機器人表現(xiàn)如同使用不同尺子測量的身高:數(shù)據(jù)再多,也難以進行有意義的橫向比較。

正是在這樣的行業(yè)背景下,由Dexmal原力靈機團隊和HuggingFace推出的RoboChallenge直面挑戰(zhàn),提出了全球首個大規(guī)模具身智能真機測評平臺,旨在通過科學(xué)評估體系為具身智能產(chǎn)業(yè)構(gòu)建一個開放、公正、可復(fù)現(xiàn)的真實考場。

RoboChallenge的第一個顛覆性創(chuàng)新,是規(guī)?;?、穩(wěn)定地解決了公平性難題。

過去,機器人領(lǐng)域的基準(zhǔn)測試長期處于割裂狀態(tài):學(xué)術(shù)界的實驗多局限于單一模型或固定環(huán)境,缺乏跨平臺可比性,而企業(yè)的內(nèi)部測試又往往自成體系,難以形成行業(yè)共識。

RoboChallenge則以大規(guī)模真機測試為核心,通過統(tǒng)一任務(wù)標(biāo)準(zhǔn)、統(tǒng)一評估指標(biāo)和跨模型對照機制,實現(xiàn)了真正的公平測評。

為精準(zhǔn)評估VLA算法核心能力,RoboChallenge首期采用配備夾爪的機械臂作為標(biāo)準(zhǔn)化平臺,其傳感方案同步輸出多視角RGB與對齊深度信息。系統(tǒng)集成了UR5、Franka Panda、COBOT Magic Aloha和ARX-5四類主流機型,支持7×24小時不間斷運行。通過這種方式,在完全相同的初始條件和任務(wù)下,不同算法的實力得以被客觀地量化與呈現(xiàn)。RoboChallenge首次在真實物理環(huán)境中,實現(xiàn)了對多種主流機器人平臺的多任務(wù)、跨模型測試。

RoboChallenge的另一大創(chuàng)新,是推出了遠程機器人評測模式。

通過自研的遠程推理系統(tǒng),研究者即使不擁有實體機器人,也能在平臺上完成算法部署、任務(wù)執(zhí)行與結(jié)果驗證。

平臺采用無容器化設(shè)計,用戶通過標(biāo)準(zhǔn)化API可直接調(diào)用;RGB圖像等觀測數(shù)據(jù)均帶有毫秒級時間戳,便于多模型融合與復(fù)雜時間對齊;系統(tǒng)通過HTTP API實現(xiàn)異步處理,并提供實時隊列反饋。同時,智能作業(yè)調(diào)度模塊可實時查看任務(wù)狀態(tài),支持模型多任務(wù)并行,大幅提升測試效率與系統(tǒng)穩(wěn)定性。

這種“在線真機評測”在保證高精度與可復(fù)現(xiàn)性的同時,大幅降低了科研與創(chuàng)新門檻。對學(xué)術(shù)界,它提供了開放、免費的實驗資源;對產(chǎn)業(yè)界,它搭建了公平、高效的驗證平臺。全球研究者得以在統(tǒng)一環(huán)境、標(biāo)準(zhǔn)化流程下參與測試,真正實現(xiàn)“沒有機器人,一樣做實驗”。

wKgZO2jzI5mAIP6sAAHe8q1zHyg344.jpg

除了公平的測試基準(zhǔn)與遠程評測模式,一套科學(xué)、精細的評分體系同樣是衡量機器人能力的核心。

當(dāng)前行業(yè)內(nèi)的真機評測往往只包含3到5項任務(wù),難以系統(tǒng)、全面地評估算法的綜合表現(xiàn)與泛化能力。而作為RoboChallenge推出的首套測試集,Table30以“科學(xué)分類學(xué)”為設(shè)計理念,從VLA、機器人類型、任務(wù)場景環(huán)境和目標(biāo)物體屬性等維度構(gòu)建了30個覆蓋多維度操作場景的桌面級任務(wù)。

評分機制上,Table30突破傳統(tǒng)二值化評估局限,引入更符合實際應(yīng)用需求的進度評分系統(tǒng):對復(fù)雜任務(wù)認可分步進展,對簡單任務(wù)優(yōu)化完成效率。分揀、倒液體、開瓶蓋、疊放物體……這些看似簡單的任務(wù),實則高度還原了人類日常生活中的細微操作需求。優(yōu)秀的模型不應(yīng)只在某些任務(wù)上表現(xiàn)出色,更應(yīng)在整個任務(wù)矩陣中展現(xiàn)出穩(wěn)健、全面的能力。通過這種精細化、系統(tǒng)化的設(shè)計,Table30 能夠清晰測出不同模型之間的代際差距,將算法差異量化、可視化,為技術(shù)演進提供了可靠的衡量依據(jù)。

官方學(xué)術(shù)論文《RoboChallenge: Real-robot based Large Scale Evaluation of Embodied Policies》則進一步證明了Table30基準(zhǔn)測試是有效且具有區(qū)分度的。研究顯示,在系列真實測試中,Pi05 模型在成功率和得分上均顯著領(lǐng)先,而多任務(wù)模型版本(/multi)普遍表現(xiàn)不如單任務(wù)版本。研究揭示,當(dāng)前不同VLA(視覺-語言-動作)模型之間存在顯著的性能差距,一個多指標(biāo)、公平且大規(guī)模的具身智能真機評測平臺是有意義的。

wKgZPGjzI5qAIvLyAAJWg-oC1YY547.jpg

值得注意的是,訪問RoboChallenge官網(wǎng),每個用戶都能看到RoboChallenge的評測任務(wù)列表。每個任務(wù)都包含任務(wù)名稱、狀態(tài)、提交次數(shù)、提交者、提交時間和得分等信息。用戶可以通過點擊任務(wù)名稱查看任務(wù)詳情,包括任務(wù)描述、評測指標(biāo)、提交記錄和模型表現(xiàn)等。此外,頁面還提供了篩選和排序功能,方便用戶查找感興趣的任務(wù)和評測結(jié)果。

wKgZO2jzI5qAZe-yAAFw5PN1tMs209.jpg

可以說,RoboChallenge并非一場短暫的賽事,而是一項長期構(gòu)建的行業(yè)基礎(chǔ)工程。它致力于建立一套可持續(xù)演進的任務(wù)體系,持續(xù)吸納來自社區(qū)和產(chǎn)業(yè)界的新挑戰(zhàn)場景;它要形成一個公開、可信的排行榜,使所有參與者都能從中看到自己在真實世界的坐標(biāo);它要積累起標(biāo)準(zhǔn)化的評測數(shù)據(jù),為投資、科研、產(chǎn)品化提供決策依據(jù)。

而它的意義,遠不止于建立一套測試標(biāo)準(zhǔn),更在于打造一把源自中國的標(biāo)尺,為整個具身智能行業(yè)的長遠發(fā)展,注入持續(xù)而深刻的動力。

wKgZPGjzI5uAUusbAAJRwXKnqEE187.jpg

每一項技術(shù)的成熟,都需要一把被全行業(yè)認可的公共標(biāo)尺。
從ImageNet到COCO,從GLUE到MMLU,這些基準(zhǔn)不僅塑造了技術(shù)發(fā)展的格局,也定義了產(chǎn)業(yè)迭代的節(jié)奏。

如今,RoboChallenge的問世讓具身智能也有了這樣的量尺:一個扎根現(xiàn)實、開放共建、可度量的真實舞臺。

更重要的是,這是一個向所有人開放的舞臺。

據(jù)悉,RoboChallenge堅持全面開放原則。平臺不僅向全球研究者免費提供測試服務(wù),還公開所有任務(wù)的演示數(shù)據(jù)與測試中間結(jié)果,真正實現(xiàn)了可復(fù)現(xiàn)、可驗證的透明度。這意味著,無論是頂尖實驗室還是初創(chuàng)團隊,都能在統(tǒng)一標(biāo)準(zhǔn)下對比成果、復(fù)現(xiàn)實驗、優(yōu)化算法。

這種開放性,將打破機器人研發(fā)長期以來的高門檻與孤島化局面,促進行業(yè)共識的形成,加速學(xué)術(shù)成果與產(chǎn)業(yè)能力的雙向轉(zhuǎn)化。但它的意義遠不止于服務(wù)學(xué)術(shù)論文的發(fā)表和B端產(chǎn)業(yè)鏈,更在于真正推動測評技術(shù)走向C端,實現(xiàn)廣泛落地。

如果你是研究人員,可以不再受限于仿真環(huán)境與實體硬件,在真實機器人上驗證你的想法;如果你是創(chuàng)業(yè)者,可以基于客觀數(shù)據(jù)展示你產(chǎn)品的真實能力,讓技術(shù)說話;技術(shù)愛好者甚至在校學(xué)生,也獲得了接觸前沿、親手參與的機會,人人都可以親手為機器人“跑個分”。

wKgZO2jzI5uANQJIAAKKNB2AnRM121.jpg

目前,RoboChallenge已正式登陸Hugging Face平臺,面向全球開放其真機評測任務(wù)與數(shù)據(jù)集。平臺已發(fā)布三十個真實世界任務(wù)數(shù)據(jù)集,涵蓋擦桌、澆花、開關(guān)電器、堆疊積木、分類物品等多種具身操作場景,全面展示了機器人在現(xiàn)實環(huán)境下的感知與行動能力。所有任務(wù)數(shù)據(jù)均支持公開訪問與復(fù)現(xiàn)實驗,體現(xiàn)了RoboChallenge對“可比性、可復(fù)現(xiàn)、可共建”的堅持。

wKgZPGjzI5yAYl_WAALgeLF1uiA052.jpg

正因如此,RoboChallenge不僅是一個評測平臺,它正逐漸成為機器人世界的公共基礎(chǔ)設(shè)施。

它讓機器人不再停留于看起來聰明,而是必須在真實世界中“確實聰明”;讓投資判斷不再憑故事,而是扎實的數(shù)據(jù);讓研究不再各自為政,而能在同一套規(guī)則中進化。

在未來幾年里,RoboChallenge也許會像當(dāng)年的ImageNet一樣,成為推動一個時代加速的引擎。它不是一場比賽,而是一面鏡子,讓整個行業(yè)照見自己的真實能力。

而機器人世界的跑分時代,也終于要開始了。

wKgZO2jzI5yAeQqcAAINCBclRgk681.jpg

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37066

    瀏覽量

    290493
  • 人形機器人
    +關(guān)注

    關(guān)注

    7

    文章

    822

    瀏覽量

    18099
  • 具身智能
    +關(guān)注

    關(guān)注

    0

    文章

    215

    瀏覽量

    719
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機器人看點:寧德時代入股銀河通用機器人 機器人企業(yè)扎堆赴港上市

    給大家帶來一些機器人的行業(yè)資訊: 寧德時代入股銀河通用機器人 企查查APP數(shù)據(jù)顯示北京銀河通用機器人有限公司發(fā)生工商變更,寧德
    的頭像 發(fā)表于 09-29 15:27 ?1947次閱讀

    智能焊接機器人當(dāng)前的技術(shù)瓶頸是什么

    從產(chǎn)業(yè)現(xiàn)狀看,中國智能焊接機器人已在鋼結(jié)構(gòu)、船舶、隧道橋梁、能源等領(lǐng)域?qū)崿F(xiàn)規(guī)模化應(yīng)用,且在上述行業(yè)中滲透率持續(xù)上升,呈現(xiàn)出顯著的積極發(fā)展態(tài)勢。這將為智能焊接機器人大規(guī)模應(yīng)用創(chuàng)造有利條
    的頭像 發(fā)表于 09-09 09:16 ?512次閱讀

    NVIDIA Jetson Thor:開啟通用機器人時代

    電子發(fā)燒友網(wǎng)報道(文 / 吳子鵬)2025 年,機器人技術(shù)正加速從專用機器時代邁向通用機器人時代。這一過程不僅預(yù)示著機器人應(yīng)用范圍的極大拓展
    發(fā)表于 08-28 16:32 ?4000次閱讀
    NVIDIA Jetson Thor:開啟通用<b class='flag-5'>機器人</b>新<b class='flag-5'>時代</b>

    機器人競技幕后:磁傳感器芯片激活 “精準(zhǔn)感知力”

    。 同時,磁傳感器還是多傳感器融合中的 “穩(wěn)定錨點”。在機器人運動系統(tǒng)的融合定位中,它常作為核心基準(zhǔn)。以 “足球機器人” 項目為例,當(dāng)視覺傳感器因強光出現(xiàn)噪點、超聲波傳感器受聲波反射干擾時,內(nèi)置
    發(fā)表于 08-26 10:02

    工業(yè)機器人的特點

    單調(diào)、繁瑣的重復(fù)性操作,因此既可以避免由于工作本身的單調(diào)性給工人帶來的工作效率下降,又可以因為機器的不間斷操作提高單純性輸出。也正是因為機器人可勝任重復(fù)性工作,也避免了工人的職業(yè)病,同時也因為設(shè)定
    發(fā)表于 07-26 11:22

    盤點#機器人開發(fā)平臺

    地瓜機器人RDK X5開發(fā)套件地瓜機器人RDK X5開發(fā)套件產(chǎn)品介紹 旭日5芯片10TOPs算力-電子發(fā)燒友網(wǎng)機器人開發(fā)套件 Kria KR260機器人開發(fā)套件 Kria KR260-
    發(fā)表于 05-13 15:02

    AgiBot World Colosseo:構(gòu)建通用機器人智能的規(guī)模化數(shù)據(jù)平臺

    AgiBot World Colosseo:構(gòu)建通用機器人智能的規(guī)模化數(shù)據(jù)平臺 隨著人工智能在語言處理和計算機視覺領(lǐng)域取得突破,機器人技術(shù)仍面臨現(xiàn)實場景泛化能力的挑戰(zhàn)。這一困境的核心在于高質(zhì)量
    的頭像 發(fā)表于 03-12 11:42 ?1530次閱讀
    AgiBot World Colosseo:構(gòu)建通用<b class='flag-5'>機器人</b>智能的<b class='flag-5'>規(guī)模</b>化數(shù)據(jù)平臺

    名單公布!【書籍評測活動NO.58】ROS 2智能機器人開發(fā)實踐

    資格! 從 PC 到智能手機,下一個更大的計算平臺是什么? 最佳答案可能是 機器人 ! 如果設(shè)想成真,則需要有人為機器人“造腦”,即打造適配的計算平臺及操作系統(tǒng)。 就像以計算機為平臺的計算機時代,和以
    發(fā)表于 03-03 14:18

    寧德時代自研機器人團隊成立

    寧德時代機器人領(lǐng)域的布局正逐步展開。去年底,該公司開始加大對機器人領(lǐng)域的投入,并已在上海組建了一支由數(shù)十構(gòu)成的團隊,專注于自研機器人本體
    的頭像 發(fā)表于 02-12 09:22 ?804次閱讀

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊

    具身智能機器人的基礎(chǔ)模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機器人計算系統(tǒng),自主機器人的感知系統(tǒng),自主機器人的定位系統(tǒng),自主機器人
    發(fā)表于 01-04 19:22

    《具身智能機器人系統(tǒng)》第10-13章閱讀心得之具身智能機器人計算挑戰(zhàn)

    取特征點,涉及大量像素級比較運算;優(yōu)化機器人位姿,需要迭代求解大規(guī)模矩陣方程。書中提出了模塊化的硬件加速方案,闡述了如何以因子圖為通用模版,以求解非線性優(yōu)化問題為橋梁,面向多種機器人應(yīng)用進行加速。 第11
    發(fā)表于 01-04 01:15

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    的影響與發(fā)展 隨著具身智能機器人數(shù)量的爆炸式增長,我們已經(jīng)進入了一個新的技術(shù)時代:自主經(jīng)濟時代。自主經(jīng)濟時代是指通過使用具身智能機器人提供商
    發(fā)表于 12-28 21:12

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.全書概覽與第一章學(xué)習(xí)

    非常感謝電子發(fā)燒友提供的這次書籍測評活動!最近,我一直在學(xué)習(xí)大模型和人工智能的相關(guān)知識,深刻體會到機器人技術(shù)是一個極具潛力的未來方向,甚至可以說是推動時代變革的重要力量。能參與這次活動并有機會深入
    發(fā)表于 12-27 14:50

    鴻蒙機器人與鴻蒙開發(fā)板聯(lián)動演示

    鴻蒙機器人與鴻蒙開發(fā)板聯(lián)動演示,機器人的角色為迎賓機器人,開發(fā)板負責(zé)人賓客出現(xiàn)監(jiān)聽
    發(fā)表于 12-02 14:55

    名單公布!【書籍評測活動NO.51】具身智能機器人系統(tǒng) | 了解AI的下一個浪潮!

    試用評測資格! 早就聽大佬們說,具身智能是人工智能的下一波浪潮,也是AI未來的趨勢! 最近,具身智能的概念更是炙手可熱,備受矚目! 不論是這幾天稚暉君開源人形機器人全套圖紙+代碼,引發(fā)圈內(nèi)熱議
    發(fā)表于 11-11 10:20