chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

全球首個(gè)最大規(guī)??绫倔w視觸覺多模態(tài)數(shù)據(jù)集白虎-VTouch發(fā)布

開放原子 ? 來源:OpenLoong開源社區(qū) ? 2026-01-29 14:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

具身智能走向真實(shí)世界規(guī)?;瘧?yīng)用,離不開可復(fù)現(xiàn)、可擴(kuò)展、可協(xié)同演進(jìn)的數(shù)據(jù)基礎(chǔ)設(shè)施。圍繞真實(shí)物理交互能力構(gòu)建這一核心工程目標(biāo),1月26日,國家地方共建人形機(jī)器人創(chuàng)新中心聯(lián)合上海緯鈦科技有限公司正式發(fā)布全球首個(gè)最大規(guī)??绫倔w視觸覺多模態(tài)數(shù)據(jù)集——白虎-VTouch(Vision-Based Tactile Sensor),總規(guī)模超過60,000分鐘。

近日,白虎-VTouch數(shù)據(jù)集首批6,000分鐘數(shù)據(jù)在OpenLoong開源社區(qū)和AtomGit平臺(tái)同步開放下載,并躍居AtomGit平臺(tái)數(shù)據(jù)集分類下載量第一。歡迎掃描二維碼或點(diǎn)擊閱讀原文下載使用,誠邀全球開發(fā)者與產(chǎn)業(yè)伙伴使用與共建。

白虎-VTouch的開源選擇

在OpenLoong社區(qū)的定位中,白虎-VTouch并不是一個(gè)“單點(diǎn)能力領(lǐng)先”的數(shù)據(jù)集,而是一次對(duì)具身智能數(shù)據(jù)范式的系統(tǒng)性補(bǔ)位。過去幾年,具身智能領(lǐng)域的快速發(fā)展更多依賴視覺、多模態(tài)語言以及仿真環(huán)境中的策略學(xué)習(xí)。但在真實(shí)世界任務(wù)中,機(jī)器人仍然普遍面臨“看得見卻做不好”的困境,其根源并不在模型規(guī)模,而在于真實(shí)物理交互數(shù)據(jù)的長期缺位。

白虎-VTouch的獨(dú)特指出在于其首次將高分辨率視觸覺信息、真實(shí)物理接觸過程以及跨機(jī)器人本體的一致標(biāo)注體系放在同一個(gè)數(shù)據(jù)框架中進(jìn)行系統(tǒng)性構(gòu)建。這類數(shù)據(jù)本身具有高工程成本特性:高帶寬同步采集、復(fù)雜標(biāo)定流程、多機(jī)器人平臺(tái)協(xié)同、真實(shí)場(chǎng)景反復(fù)復(fù)現(xiàn),幾乎不具備被單一團(tuán)隊(duì)長期獨(dú)占和閉源演進(jìn)的可持續(xù)性。由此可見,若這類數(shù)據(jù)未能融入開源生態(tài),其價(jià)值會(huì)被極大限制。

OpenLoong開源社區(qū)承載了白虎-VTouch的開源發(fā)布,并不只是簡(jiǎn)單提供一個(gè)下載入口,而是將其作為社區(qū)級(jí)基礎(chǔ)能力的一部分進(jìn)行組織。一方面,白虎-VTouch本身補(bǔ)足了具身智能Scaling Law中長期缺失的“觸覺與接觸”維度,使模型訓(xùn)練首次能夠系統(tǒng)性學(xué)習(xí)接觸狀態(tài)、力控反饋與動(dòng)作調(diào)整之間的關(guān)系;另一方面,通過開源,它也為不同研究路線、不同機(jī)器人平臺(tái)、不同控制范式提供了一個(gè)可以被反復(fù)驗(yàn)證、復(fù)現(xiàn)和對(duì)比的公共基準(zhǔn)。

白虎-VTouch被設(shè)計(jì)為一個(gè)可被持續(xù)擴(kuò)展、持續(xù)復(fù)用的具身基礎(chǔ)語料庫。它的意義不止在于“已經(jīng)采集了多少分鐘的數(shù)據(jù)”,而在于為整個(gè)社區(qū)建立了一種可復(fù)制的工程方法:如何在真實(shí)世界中穩(wěn)定采集高質(zhì)量視觸覺數(shù)據(jù),如何保證多模態(tài)時(shí)序?qū)R,如何在不同本體之間保持語義一致性。這些能力,只有通過開源,才能真正沉淀為行業(yè)公共資產(chǎn)。

不同數(shù)據(jù)集對(duì)比

跨本體視觸覺多模態(tài)數(shù)據(jù)體系的工程突破

白虎-VTouch(Vision-Based Tactile Sensor)包含視觸覺傳感器數(shù)據(jù)、RGB-D數(shù)據(jù)、關(guān)節(jié)位姿數(shù)據(jù)等多模態(tài)信息,覆蓋輪臂機(jī)器人(D-Wheel)、雙足人形機(jī)器人(青龍)及手持智能終端等多種機(jī)器人本體結(jié)構(gòu),以真實(shí)物理交互過程為核心對(duì)象,將視觸覺傳感器數(shù)據(jù)、RGB-D視覺信息與機(jī)器人關(guān)節(jié)位姿狀態(tài)進(jìn)行系統(tǒng)整合,構(gòu)建覆蓋感知、接觸與動(dòng)作全過程的多模態(tài)訓(xùn)練語料體系。

跨層次交互理解具身標(biāo)注體系

基于真實(shí)物理交互與多模態(tài)感知數(shù)據(jù),團(tuán)隊(duì)構(gòu)建了跨層次交互理解具身標(biāo)注體系,通過視覺、語言、動(dòng)作與觸覺等多模態(tài)語義的聯(lián)合建模與對(duì)齊,實(shí)現(xiàn)跨模態(tài)表征學(xué)習(xí)與統(tǒng)一理解,為下一代具身VTLA提供數(shù)據(jù)標(biāo)準(zhǔn)。白虎-VTouch數(shù)據(jù)標(biāo)注體系將分批次開源。

抽象思維層:理解“為什么”。通過將任務(wù)抽象意圖推演成通用化維度交叉思維鏈,模型直接學(xué)習(xí)背后的思維鏈規(guī)律組合。

動(dòng)作邏輯層:明白“怎么做”。創(chuàng)建完備獨(dú)立的原子動(dòng)作元語,結(jié)合自然語言指令將復(fù)雜長流程任務(wù)操作拆解為動(dòng)作步驟序列,涵蓋操作邏輯與步驟內(nèi)涵。

物理狀態(tài)層:感受“做什么”。通過視觸覺增強(qiáng)的物理交互信息深化智能體對(duì)自身狀態(tài)的掌握,同時(shí)確保物理真實(shí)一致性和多模態(tài)同步對(duì)齊。

“矩陣式”任務(wù)構(gòu)建新范式

來源:OpenLoong開源社區(qū)

在任務(wù)構(gòu)建方法上,白虎-VTouch并未沿用傳統(tǒng)的“人工定義單任務(wù)”路徑,而是提出“矩陣式”任務(wù)構(gòu)建新范式。該范式以雙臂協(xié)同結(jié)構(gòu)、原子操作類型、接觸與觸覺模式作為核心維度,并結(jié)合物體與幾何屬性、感知模態(tài)組合及任務(wù)層級(jí)結(jié)構(gòu)等輔助維度進(jìn)行系統(tǒng)性交叉,每一個(gè)維度交點(diǎn),均對(duì)應(yīng)一個(gè)可執(zhí)行的最小任務(wù)單元?;谶@一構(gòu)建邏輯,白虎-VTouch覆蓋了家居家政、工業(yè)制造、餐飲服務(wù)與特殊作業(yè)四大真實(shí)應(yīng)用領(lǐng)域,形成380+任務(wù)類型、100+原子技能、500+真實(shí)物品的高密度任務(wù)空間。同時(shí),通過光照變化、遮擋干擾與姿態(tài)擾動(dòng)等方式顯式引入泛化條件,使任務(wù)設(shè)計(jì)從一開始即面向真實(shí)部署環(huán)境。

補(bǔ)齊具身智能Scaling Law中缺失的“觸覺維度”

具身智能的Scaling Law,與大模型語境下的Scaling并不完全等價(jià),其中長期缺失的一環(huán),正是“接觸與觸覺”。

白虎-VTouch的核心價(jià)值之一,在于其系統(tǒng)性的引入了真實(shí)物理交互中的觸覺與接觸信息。白虎-VTouch所采用的視觸覺傳感器支持最高640×480分辨率與120Hz刷新率,在物體接觸過程可穩(wěn)定記錄細(xì)粒度接觸變化,包含約9072萬對(duì)視觸覺接觸圖像真實(shí)物體接觸樣本。視觸覺接觸數(shù)據(jù)占本數(shù)據(jù)集規(guī)模的比重為57%,顯著擴(kuò)展了真實(shí)物理交互場(chǎng)景的接觸范圍?;谝曈|覺傳感器的高空間分辨率與多維力感知能力,數(shù)據(jù)集能夠以圖像級(jí)形式記錄接觸過程中的微觀形變、壓力分布與滑移狀態(tài),使觸覺信息具備與視覺同等級(jí)別的可學(xué)習(xí)表征密度。

這類數(shù)據(jù)服務(wù)于對(duì)接觸狀態(tài)高度敏感的任務(wù)場(chǎng)景,補(bǔ)足了具身智能Scaling Law所缺失的“觸覺與接觸”維度,為模型建立“接觸前—接觸中—接觸后”的完整物理理解提供了必要基礎(chǔ),也為機(jī)器人從“能看”走向“能觸、能控、能穩(wěn)態(tài)泛化”奠定了關(guān)鍵語料支撐。

在任務(wù)層面,視觸覺信息重點(diǎn)覆蓋260+接觸密集型任務(wù),其中,68%的任務(wù)在引入視觸覺感知后獲得了更完整、連續(xù)的接觸狀態(tài)描述,為精細(xì)操作、力控調(diào)整與失敗恢復(fù)等關(guān)鍵環(huán)節(jié)提供了直接增益,充分體現(xiàn)了視觸覺數(shù)據(jù)在提升復(fù)雜操作任務(wù)成功率方面的實(shí)際價(jià)值。

開發(fā)者使用路徑

在設(shè)計(jì)構(gòu)想里,白虎-VTouch的使用路徑并不是“下載即結(jié)束”,而是應(yīng)被嵌入到一個(gè)完整的開發(fā)閉環(huán)之中。針對(duì)不同階段的開發(fā)者,其需承擔(dān)的角色也有所差異。

對(duì)于初入具身智能領(lǐng)域的研究者或工程師而言,白虎-VTouch提供的是一個(gè)真實(shí)世界對(duì)齊的起點(diǎn)。開發(fā)者可以直接基于已開源的子集數(shù)據(jù),快速理解視觸覺融合在真實(shí)操作中的作用方式,驗(yàn)證純視覺策略與視觸覺策略在成功率和穩(wěn)定性上的差異。這一階段,數(shù)據(jù)集更多承擔(dān)的是“認(rèn)知校準(zhǔn)”的作用,讓開發(fā)者盡早意識(shí)到真實(shí)物理交互與仿真或純視覺任務(wù)之間的本質(zhì)差異。

對(duì)于已有一定算法積累的團(tuán)隊(duì),白虎-VTouch則是一個(gè)可復(fù)現(xiàn)實(shí)驗(yàn)與泛化驗(yàn)證的平臺(tái)。通過矩陣式任務(wù)構(gòu)建,開發(fā)者可以有意識(shí)地選擇訓(xùn)練子空間,并在未見組合上測(cè)試模型的泛化能力,而不是簡(jiǎn)單追求單任務(wù)指標(biāo)。這種使用方式尤其適合研究跨本體遷移、雙臂協(xié)同策略以及力控相關(guān)問題,也是該數(shù)據(jù)集設(shè)計(jì)時(shí)重點(diǎn)考慮的核心場(chǎng)景。

對(duì)于希望將算法落地到真實(shí)機(jī)器人系統(tǒng)中的開發(fā)者,白虎-VTouch與OpenLoong現(xiàn)有的本體平臺(tái)、控制框架及仿真工具形成了天然銜接。數(shù)據(jù)、模型與真實(shí)本體之間保持一致的接口與語義,使“訓(xùn)練—推理—部署”不再是割裂的三個(gè)階段,而是一條可反復(fù)迭代的工程流水線。這一點(diǎn),也是白虎-VTouch被選擇在OpenLoong開源社區(qū)開源發(fā)布的重要原因之一。

任務(wù)詞云

白虎-VTouch在OpenLoong開源社區(qū)開源后,其視觸覺融合數(shù)據(jù)集、模型實(shí)現(xiàn)與任務(wù)組織方式已作為公共資源向社區(qū)開放,支持開發(fā)者直接下載、復(fù)現(xiàn)實(shí)驗(yàn)并開展二次開發(fā)。圍繞統(tǒng)一的數(shù)據(jù)結(jié)構(gòu)與基線設(shè)置,不同團(tuán)隊(duì)可以在同一操作語境下進(jìn)行方法對(duì)比與系統(tǒng)驗(yàn)證,降低雙臂操作研究與工程實(shí)踐的起步成本。

OpenLoong開源社區(qū)將持續(xù)匯聚來自不同機(jī)器人構(gòu)形、任務(wù)場(chǎng)景與應(yīng)用方向的實(shí)踐反饋,推動(dòng)數(shù)據(jù)集與模型在真實(shí)使用中不斷完善,歡迎更多開發(fā)者與研究者加入OpenLoong開源社區(qū),基于白虎-VTouch數(shù)據(jù)集開展實(shí)驗(yàn)、提出改進(jìn)并共同擴(kuò)展雙臂機(jī)器人視觸覺融合的能力邊界。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4142

    瀏覽量

    45800
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26122
  • 具身智能
    +關(guān)注

    關(guān)注

    0

    文章

    364

    瀏覽量

    824

原文標(biāo)題:首個(gè)跨本體視觸覺多模態(tài)數(shù)據(jù)集白虎-VTouch正式在OpenLoong社區(qū)開源

文章出處:【微信號(hào):開放原子,微信公眾號(hào):開放原子】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    聯(lián)想集團(tuán)史上最大規(guī)模Tech World科技盛會(huì)成功舉辦

    2026年1月6日,全球消費(fèi)電子展CES 2026開幕首日,聯(lián)想集團(tuán)史上最大規(guī)模的Tech World科技盛會(huì)在全球首座全沉浸式球幕場(chǎng)館——拉斯維加斯大球Sphere成功舉辦。
    的頭像 發(fā)表于 01-09 16:29 ?841次閱讀
    聯(lián)想集團(tuán)史上<b class='flag-5'>最大規(guī)模</b>Tech World科技盛會(huì)成功舉辦

    格靈深瞳模態(tài)大模型榮登InfoQ 2025中國技術(shù)力量年度榜單

    靈感實(shí)驗(yàn)室聯(lián)合LLaVA社區(qū)發(fā)布模態(tài)大模型LLaVA-OneVision-1.5,實(shí)現(xiàn)了訓(xùn)練數(shù)據(jù)、代碼和模型權(quán)重的全鏈路開源,在多項(xiàng)公開
    的頭像 發(fā)表于 01-05 10:05 ?395次閱讀

    商湯科技正式發(fā)布并開源全新模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開源了與南洋理工大學(xué)S-Lab合作研發(fā)的全新模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 模態(tài)模型奠定了新一
    的頭像 發(fā)表于 12-08 11:19 ?936次閱讀
    商湯科技正式<b class='flag-5'>發(fā)布</b>并開源全新<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>模型架構(gòu)NEO

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應(yīng)用打造的頂尖模態(tài)嵌入模型。該模型是
    的頭像 發(fā)表于 10-29 17:15 ?210次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入模型

    中科曙光助力紫東太初4.0大模型重磅發(fā)布

    近日,全球首個(gè)“深度推理+模態(tài)”大模型——“紫東太初”4.0在2025東湖國際人工智能高峰論壇上正式發(fā)布。中科曙光作為核心生態(tài)伙伴,依托中
    的頭像 發(fā)表于 09-24 09:33 ?574次閱讀

    米爾RK3576部署端側(cè)模態(tài)輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    首輪推理延遲,適配對(duì)響應(yīng)速度敏感的車載、醫(yī)療等場(chǎng)景; 其二,模態(tài)融合再升級(jí)—— 在圖文基礎(chǔ)上集成語音、傳感器數(shù)據(jù),實(shí)現(xiàn) “看 + 聽 + 感知” 的
    發(fā)表于 09-05 17:25

    淺析模態(tài)標(biāo)注對(duì)大模型應(yīng)用落地的重要性與標(biāo)注實(shí)例

    ”的關(guān)鍵工序——模態(tài)標(biāo)注重要性日益凸顯。 一、什么是模態(tài)標(biāo)注? 模態(tài)標(biāo)注是指對(duì)文本、圖像、
    的頭像 發(fā)表于 09-05 13:49 ?1683次閱讀

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來,機(jī)器人操作領(lǐng)域的VLA模型普遍基于本體機(jī)器人數(shù)據(jù)預(yù)訓(xùn)練,這類方法存在兩大局限:不同機(jī)器人本體和動(dòng)作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)
    的頭像 發(fā)表于 08-21 09:56 ?961次閱讀
    基于<b class='flag-5'>大規(guī)模</b>人類操作<b class='flag-5'>數(shù)據(jù)</b>預(yù)訓(xùn)練的VLA模型H-RDT

    Cognizant籌辦最大規(guī)模氛圍編程活動(dòng)

    -Cognizant正在籌辦全球最大規(guī)模的氛圍編程活動(dòng),以提升數(shù)千名員工的AI素養(yǎng) 為抓住人工智能經(jīng)濟(jì)將創(chuàng)造的巨大機(jī)遇,Cognizant與Lovable、Windsurf、Cursor
    的頭像 發(fā)表于 08-03 18:44 ?626次閱讀
    Cognizant籌辦<b class='flag-5'>最大規(guī)模</b>氛圍編程活動(dòng)

    偉創(chuàng)力高效電源模塊在超大規(guī)模數(shù)據(jù)中心的應(yīng)用

    受云端存儲(chǔ)和數(shù)據(jù)處理需求持續(xù)增長的推動(dòng),數(shù)據(jù)中心正以前所未有的速度擴(kuò)張。當(dāng)前全球大規(guī)模數(shù)據(jù)中心,即規(guī)模
    的頭像 發(fā)表于 07-07 15:41 ?1102次閱讀

    全球首個(gè)胃癌影像篩查AI模型發(fā)布

    浙江省腫瘤醫(yī)院聯(lián)合阿里巴巴達(dá)摩院,發(fā)布全球首個(gè)胃癌影像篩查AI模型DAMO GRAPE,首次利用平掃CT影像識(shí)別早期胃癌病灶,并聯(lián)合全國20家醫(yī)院,在近10萬人的大規(guī)模臨床研究中大幅
    的頭像 發(fā)表于 06-30 14:37 ?3776次閱讀

    薄型、頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()薄型、頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有薄型、頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊的引腳圖、接線圖、封
    發(fā)表于 05-15 18:32
    薄型、<b class='flag-5'>多</b>頻段、<b class='flag-5'>大規(guī)模</b>物聯(lián)網(wǎng)前端模塊 skyworksinc

    NVIDIA技術(shù)驅(qū)動(dòng)帕西尼觸覺感知與人形機(jī)器人智能突破

    感知科技實(shí)現(xiàn)了從接觸仿真、觸覺信號(hào)產(chǎn)生、仿真數(shù)據(jù)生成,再到觸覺模態(tài)模型訓(xùn)練的全流程 GPU 加速,提升標(biāo)定和訓(xùn)練效率 100 倍,完成觸覺
    的頭像 發(fā)表于 04-21 09:15 ?1326次閱讀

    ?模態(tài)交互技術(shù)解析

    模態(tài)交互 模態(tài)交互( Multimodal Interaction )是指通過多種感官通道(如視覺、聽覺、觸覺等)或多種交互方式(如語音
    的頭像 發(fā)表于 03-17 15:12 ?4165次閱讀

    ??低?b class='flag-5'>發(fā)布模態(tài)大模型文搜存儲(chǔ)系列產(chǎn)品

    模態(tài)大模型為安防行業(yè)帶來重大技術(shù)革新,基于觀瀾大模型技術(shù)體系,??低晫⒋髤?shù)量、大樣本量的圖文模態(tài)大模型與嵌入式智能硬件深度融合,發(fā)布
    的頭像 發(fā)表于 02-18 10:33 ?1189次閱讀