chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從“抓瞎”到“精準(zhǔn)到0.01m”:我們是怎么調(diào)教機(jī)器人不亂動的?

地瓜機(jī)器人 ? 2025-07-01 20:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2025 ICRA Sim2Rea 獲獎隊(duì)伍給我們帶來MuJoCo+ROS2閉環(huán)控制與精準(zhǔn)視覺抓取全流程解析

項(xiàng)目主要包括Communication、Envs、Navigation、PoseTransform、TaskUnderstanding、VisionUnderstanding這六個部分,功能如下:

模塊名稱

主要功能

核心類或函數(shù)

Communication

MMK2的MuJoCo、ROS2通訊代碼和驅(qū)動算法

TopicSubscriber、TopicPublisher、MMK2_Receiver、MMK2_Controller

Envs

用于調(diào)試的MuJoCo環(huán)境

GraspAppleTask

Navigation

計(jì)算并導(dǎo)航至目標(biāo)位置

MoveToPoint

PoseTransform

MMK2的MuJoCo、ROS2坐標(biāo)變換和逆運(yùn)動學(xué)計(jì)算

PoseTransform、transform_position_wrt_camera_to_base、get_world_position_from_head_camera等

TaskUnderstanding

比賽任務(wù)解析和格式化輸出

TaskParser

VisionUnderstanding

識別并計(jì)算物體位姿

RosVisionModule、get_Toc_box_from_yolo、find_space_for_box等

核心亮點(diǎn)

我們重構(gòu)了機(jī)器人的底層運(yùn)動控制,解決了仿真到現(xiàn)實(shí)的遷移難題與開環(huán)控制的巨大誤差。 初始控制算法在從MuJoCo仿真遷移到ROS2真實(shí)環(huán)境時完全失效。為此,我們放棄了簡單的開環(huán)控制,通過引入關(guān)節(jié)狀態(tài)和里程計(jì)作為閉環(huán)反饋信號,并結(jié)合簡化的PID調(diào)節(jié)邏輯,重寫了驅(qū)動底層。特別地,我們設(shè)計(jì)了利用sigmoid函數(shù)的平滑控制算法,實(shí)現(xiàn)了機(jī)器人運(yùn)動的平滑啟停與變速。最終,這套閉環(huán)控制系統(tǒng)使機(jī)器人的底盤移動精度達(dá)到0.01米,旋轉(zhuǎn)精度達(dá)到0.1度,為上層任務(wù)的穩(wěn)定執(zhí)行提供了高精度、高流暢度的運(yùn)動能力基礎(chǔ)。

我們建立了一套從視覺感知到物理執(zhí)行的完整技術(shù)管線,解決了復(fù)雜場景下的目標(biāo)定位與精確操作難題。 在感知端,我們結(jié)合了快速的YOLO目標(biāo)檢測與深度信息,并設(shè)計(jì)了“先觀察記錄,后移動執(zhí)行”的策略,有效解決了因機(jī)器人視角變化(如抓取前的俯視)導(dǎo)致的識別失敗問題。在執(zhí)行端,為將視覺系統(tǒng)獲得的目標(biāo)世界坐標(biāo)轉(zhuǎn)化為精確的機(jī)械臂動作,我們利用一個實(shí)時同步的MuJoCo仿真環(huán)境來處理復(fù)雜的逆運(yùn)動學(xué)解算和多坐標(biāo)系(相機(jī)、基座、世界)間的轉(zhuǎn)換。該仿真環(huán)境作為一個高效的計(jì)算模型,能快速求解出機(jī)器人所需的關(guān)節(jié)配置,從而精確地打通了從“看到”到“做到”的全過程。

項(xiàng)目亮點(diǎn)

項(xiàng)目結(jié)構(gòu)清晰,各個功能模塊解耦,API命名和編寫符合規(guī)范,文檔完整清晰,易于開發(fā)和維護(hù)。

大部分算法同時提供了ROS2和MuJoCo環(huán)境的實(shí)現(xiàn),支持ROS2分布式和MuJoCo本地調(diào)試。

比賽的入口文件是run.py,通過一個文件自動檢測比賽進(jìn)程,切換不同的任務(wù)腳本(round_1~3)執(zhí)行。在任務(wù)腳本中也按照步驟給出了完整的任務(wù)流程和實(shí)現(xiàn)。

在Envs的GraspAppleTask類中提供了一個蘋果抓取的環(huán)境,并在DISCOVERSE的mjcf中提供了對應(yīng)的xml文件,主要用于測試MuJoCo環(huán)境中的坐標(biāo)轉(zhuǎn)換算法。

在Communication的MMK2_Controller類中提供了豐富的MMK2機(jī)器人控制方法,并提供多次優(yōu)化之后的_move_base底層驅(qū)動方法,實(shí)現(xiàn)機(jī)器人運(yùn)動的精準(zhǔn)、流暢控制,移動精度達(dá)到0.01m,轉(zhuǎn)動精度達(dá)到0.1°。

在Navigation的MoveToPoint類中針對比賽環(huán)境提供了精準(zhǔn)導(dǎo)航方法,只需要目標(biāo)位置的坐標(biāo)和朝向,配合MMK2_Controller即可實(shí)現(xiàn)任意位置的精準(zhǔn)到達(dá)。

在PoseTransform的PoseTransform類中基于MuJoCo構(gòu)建實(shí)時同步數(shù)字孿生環(huán)境實(shí)現(xiàn)機(jī)器人的正逆運(yùn)動學(xué)解算,并針對相機(jī)坐標(biāo)系、基座坐標(biāo)系、底盤坐標(biāo)系和世界坐標(biāo)系提供了彼此坐標(biāo)轉(zhuǎn)換的方法。

在TaskUnderstanding的TaskParser類中提供了比賽任務(wù)指令的解析器,通過ROS2發(fā)布的topic信息獲取task_info和game_info,根據(jù)比賽輪數(shù)自動解析任務(wù)指令為格式化輸出。

在VisionUnderstanding的RosVisionModule類中提供了物體識別和位姿計(jì)算方法,視覺模型包括YOLO v11/v12的目標(biāo)檢測模型和SAM2的實(shí)例分割模型,提供了基于RGB-D信息的快速位姿計(jì)算方法和基于點(diǎn)云匹配的精準(zhǔn)位姿計(jì)算方法。針對比賽任務(wù),提供了道具Box的精準(zhǔn)位姿計(jì)算方法和Box放置坐標(biāo)的計(jì)算方法。

開發(fā)時的踩坑與重構(gòu)

MMK2機(jī)器人的底盤控制算法最開始是基于DISCOVERSE中的mmk2_base.py編寫的,只是簡單地將對應(yīng)關(guān)節(jié)的數(shù)值綁定到對應(yīng)的關(guān)節(jié)上,因?yàn)殄e誤地使用了位置變量qpos作為控制對象,所以在低速情況下,在MuJoCo環(huán)境中的效果還可以,但是遷移到ROS2中發(fā)現(xiàn)對應(yīng)的topic綁定的其實(shí)是驅(qū)動變量ctrl,無法兼容。經(jīng)過第一輪重構(gòu),通過實(shí)驗(yàn)得到穩(wěn)定運(yùn)行時各個關(guān)節(jié)的參數(shù)范圍,但是發(fā)現(xiàn)開環(huán)控制具有很大的誤差,因此引入關(guān)節(jié)位置參數(shù)joint_states和底盤里程計(jì)參數(shù)odom作為閉環(huán)反饋信號。經(jīng)過多輪迭代,引入了簡化版本的PID調(diào)節(jié),在最終的MMK2_Controller版本中,使用_move_base作為機(jī)器人底盤閉環(huán)運(yùn)動的底層驅(qū)動,并利用sigmoid函數(shù)在_smooth_control_step實(shí)現(xiàn)了更加平滑流暢的控制,最終實(shí)現(xiàn)移動精度0.01m,轉(zhuǎn)動精度0.1°。同時使用相同的想法完善了更加平滑連貫的set_arm_position方法實(shí)現(xiàn)機(jī)械臂的控制。

對于環(huán)境中的物體位姿計(jì)算,一開始采用了傳統(tǒng)的目標(biāo)檢測+深度點(diǎn)云重建+點(diǎn)云位姿匹配的流程,但是點(diǎn)云匹配的精度和速度都很難滿足要求,因此采用了和官方baseline中類似的方法,只使用目標(biāo)檢測+深度信息實(shí)現(xiàn)了較為精準(zhǔn)的位姿計(jì)算,實(shí)現(xiàn)了精度和速度的平衡。對于需要更加精準(zhǔn)定位的物體,比如cabinet上盛放三種prop的box,需要在移動到物體前方后進(jìn)行二次定位和微調(diào),具體通過get_Toc_box_from_yolo這一類方法,考慮到了檢測到不同數(shù)量的box的情況,增加了系統(tǒng)容錯。

項(xiàng)目的ACT訓(xùn)練腳本的配置文件比較分散,為了實(shí)現(xiàn)命令行參數(shù)的簡潔,在命名上的耦合比較嚴(yán)重,完全搞懂的確花了些功夫。為了更加多樣化的數(shù)據(jù),在仿真數(shù)據(jù)生成的腳本中添加了額外的變化,包括轉(zhuǎn)動角度、初始化位置等;為了實(shí)現(xiàn)更加高效的訓(xùn)練,重構(gòu)了DDP并行訓(xùn)練腳本;同時修改了evaluate腳本中的一些bug,使其能夠兼容不同長度的action。不過最終不知道是因?yàn)閛ver fitting還是數(shù)據(jù)多樣性不足,ACT算法幾乎自始至終沒有work,當(dāng)然這也是模仿學(xué)習(xí)中不得不品嘗的一環(huán):)

針對比賽任務(wù),我們采集了大量的數(shù)據(jù),根據(jù)比賽環(huán)境對任務(wù)流程做了深入的優(yōu)化。采集了1000條左右的目標(biāo)檢測數(shù)據(jù)進(jìn)行YOLO(YOLO v11/v12)訓(xùn)練,最終基本能實(shí)現(xiàn)對場景中全部物體(包括drawer的上下兩個把手)的精準(zhǔn)識別定位;采集了近萬條抓取仿真數(shù)據(jù)進(jìn)行box和不同prop的ACT訓(xùn)練,完善了并行訓(xùn)練腳本實(shí)現(xiàn)了DDP多卡訓(xùn)練,并嘗試將base model更換為更大的resnet-50進(jìn)行訓(xùn)練以提高泛化性,最終在仿真環(huán)境中取得了不錯的效果。

ROS2與ROS1的分布式通訊模式不同,ROS2支持在同一個局域網(wǎng)內(nèi)所有相同random_seed的node之間的topic通訊,這會導(dǎo)致兩臺同時進(jìn)行測試的client會彼此影響,導(dǎo)致server的不穩(wěn)定,產(chǎn)生“量子糾纏”,后續(xù)在每個新的版本的docker初始化時都會給配對的client和server設(shè)定唯一的random_seed,最終random_seed從99排到了91。

比賽規(guī)則里物體名稱與仿真環(huán)境提供不相符,需要在TaskParser完成相應(yīng)字段的映射。

采用ACT的方法解釋性比較差,訓(xùn)練周期較長,改進(jìn)方法相對不明確,短時間內(nèi)無法取得較好的效果?;趥鹘y(tǒng)的目標(biāo)檢測和三維重建及硬編碼等方法,解釋性較強(qiáng),改進(jìn)方向相對明確。

手臂運(yùn)動和夾爪開合同步進(jìn)行,容易造成夾取prop后,尚未運(yùn)行到目標(biāo)點(diǎn),夾爪就松開等出乎意料的情況。將二者運(yùn)動獨(dú)立以后,即手臂運(yùn)動期間,夾爪保持狀態(tài)不變,即可避免上述問題。

由于訓(xùn)練的數(shù)據(jù)中缺少對prop的俯視照片,所以在夾取前,俯視prop時,容易出現(xiàn)無法識別的情況。采用的解決辦法是,先將盒子放置在桌子上,隨后后退,以此時的相對位置獲得prop的世界坐標(biāo),開始抓取時,再將剛才記錄的世界坐標(biāo)轉(zhuǎn)換為相對坐標(biāo),指導(dǎo)機(jī)械手的抓取。

比賽任務(wù)流程設(shè)計(jì)

round_1

目標(biāo)是移動到目標(biāo)box的前面固定位置,然后等待抓取任務(wù)

1. 解析任務(wù) -> Target: cabinet_index + floor_index + prop_name 2. 走到中間點(diǎn),調(diào)整高度到對應(yīng)層數(shù) -> [0.4, 0.4, CABINET_POSITION[cabinet_index][-1]] + SLIDE_POSITION[floor_index] 3. YOLO識別box + prop_name -> 識別到目標(biāo)box/沒識別到則選擇離畫面中心點(diǎn)最近的box 4. YOLO -> 識別到目標(biāo)box的中心點(diǎn)pos(左右) 5. left_cabinet調(diào)整CABINET_POSITION[cabinet_index][0](x+ -> 右), right_cabinet調(diào)整CABINET_POSITION[cabinet_index][1](y+ -> 左) 6. 設(shè)定目標(biāo)點(diǎn) -> 根據(jù)5調(diào)整CABINET_POSITION對應(yīng)的位置 7. move_to_point -> 移動到目標(biāo)點(diǎn)

round_2

目標(biāo)是找到帶有指定紋理的prop(prop_name,目前只有類型限定),然后放到指定參照物(object_name)的指定方位

1. 解析任務(wù) -> prop_name, texture_name, target_object_name, target_direction 2. 找到指定參照物,獲取其相對于base的position,table_index,target_position_wrt_base 2.1 先觀察左桌子,再觀察右桌子,通過宏定義其各自的尋找位姿(參考round1_run中的observation) 2.2 當(dāng)yolo檢測到target_object_name時,is_target_object_finded置為True,結(jié)束尋找,獲取其相對于base的position,同時返回table_index(left/right) 2.3 根據(jù)target_direction計(jì)算target_position_wrt_base,作為prop放置的目標(biāo)位置 3. 走到中心點(diǎn)找到目標(biāo)prop,返回floor_index和cabinet_index 3.1 走到中心點(diǎn),首先觀察左柜子,再觀察右柜子,通過宏定義其各自的尋找位姿 3.2 當(dāng)yolo檢測到prop_name時,is_prop_finded置為True,結(jié)束尋找,返回floor_index和cabinet_index 4. 參考round1_run中的流程,抓取包含prop的box,走到目標(biāo)table之前 4.1 參考_step_3~_step_9,走到目標(biāo)table之前,通過宏定義確定目標(biāo)table前的世界坐標(biāo),使用move_to_point移動 5. 微調(diào)位置,走到target_object前面,放下box,抓取prop,將prop放置在target_position_wrt_base

round_3

機(jī)器人需打開指定層級的儲物單元識別內(nèi)部物品(prop),找到并抓取裝有該prop的盒子運(yùn)至目標(biāo)桌子旁,取出prop放置在參照物的指定方位

1. 解析任務(wù) -> target_object, layer_index, target_direction 1.1 解析任務(wù)指令,確定目標(biāo)參照物(target_object)、儲物單元層級(layer_index: bottom/top)、放置方位(target_direction) 2. 尋找目標(biāo)參照物 -> table_index, target_object_position_wrt_world 2.1 依次觀察左右兩張桌子 2.2 當(dāng)yolo檢測到target_object時,記錄其世界坐標(biāo)(target_object_position_wrt_world)和所在桌子(table_index) 3. 打開儲物單元并識別Prop -> self.prop_name 3.1 導(dǎo)航至指定儲物單元前 3.2 根據(jù)layer_index執(zhí)行操作: 3.2.1 若為bottom:調(diào)用_drawer_open()定位把手拉開抽屜 3.2.2 若為top:調(diào)用_cabinet_door_open()定位把手打開柜門 3.3 視覺識別儲物單元內(nèi)部物品,確定prop名稱(self.prop_name) 4. 定位Prop Box -> cabinet_index, floor_index 4.1 移動至場地中心點(diǎn),面向中央柜區(qū) 4.2 依次觀察左右柜子的各層(second/third/fourth) 4.3 當(dāng)yolo檢測到包含self.prop_name的box時,記錄柜號(cabinet_index)和層數(shù)(floor_index) 5. 抓取Prop Box并移至目標(biāo)桌子 5.1 導(dǎo)航至cabinet_index和floor_index指定的柜層前 5.2 調(diào)用_hug_box(): 5.2.1 視覺微調(diào)位置對準(zhǔn)目標(biāo)box 5.2.2 雙臂協(xié)同抓取box并取出 5.3 調(diào)用_move_to_target_table(): 5.3.1 根據(jù)table_index移動到目標(biāo)桌子前 5.4 放置box并調(diào)整姿態(tài): 5.4.1 控制手臂將box放置桌面 5.4.2 后退并調(diào)整頭部姿態(tài),視覺精確定位box位置 6. 抓取Prop并放置 6.1 調(diào)用_grasp_prop_via_yolo(): 6.1.1 視覺定位box內(nèi)的self.prop_name 6.1.2 左臂抓取prop并取出 6.2 調(diào)用_get_target_position_wrt_base(): 6.2.1 將target_object_position_wrt_world轉(zhuǎn)換為基坐標(biāo)系 6.2.2 結(jié)合target_direction計(jì)算最終放置點(diǎn) 6.3 控制左臂將prop移動到目標(biāo)放置點(diǎn)后松開

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    30888

    瀏覽量

    221135
  • 機(jī)器視覺
    +關(guān)注

    關(guān)注

    164

    文章

    4772

    瀏覽量

    125601
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    RK3576機(jī)器人核心:三屏異顯+八路攝像頭,重塑機(jī)器人交互與感知

    、遠(yuǎn)程作業(yè)機(jī)器人、特種檢測機(jī)器人· 多攝像頭輸入:通過多路攝像頭無死角監(jiān)控作業(yè)現(xiàn)場,實(shí)現(xiàn)精準(zhǔn)操作與安全監(jiān)控?!?多屏顯示:將不同視角的畫面、傳感器數(shù)據(jù)、控制界面分別顯示,幫助操作員遠(yuǎn)程精準(zhǔn)
    發(fā)表于 10-29 16:41

    小蘿卜機(jī)器人的故事

    代替, LED, 有大佬感興趣, 一起關(guān)注和討論代碼, 這個機(jī)器人知名度不高, 可是是機(jī)器人的原型, 如果開放接口, 定位和無線充電, 也不失為未來的禮物。 讓我們為小蘿卜工程師的, 自掏腰包救蘿卜
    發(fā)表于 10-23 05:24

    割草機(jī)器人人形機(jī)器人,移遠(yuǎn)通信放出了哪些大招?

    8月26日,電子發(fā)燒友記者在深圳國際物聯(lián)網(wǎng)展10號館看到,移遠(yuǎn)通信展示了Robrain機(jī)器人解決方案,移遠(yuǎn)通信展示的機(jī)器人采用了一套融合方案,即機(jī)器人本體為逐際動力提供,通過連接一塊搭載移遠(yuǎn)高算力AI模組SG885G、集成端側(cè)本
    的頭像 發(fā)表于 09-03 09:13 ?7095次閱讀
    <b class='flag-5'>從</b>割草<b class='flag-5'>機(jī)器人</b><b class='flag-5'>到</b>人形<b class='flag-5'>機(jī)器人</b>,移遠(yuǎn)通信放出了哪些大招?

    機(jī)器人競技幕后:磁傳感器芯片激活 “精準(zhǔn)感知力”

    支撐機(jī)器人競技能力的核心力量,深刻改變著競技機(jī)器人的能力邊界。 磁傳感器芯片為機(jī)器人運(yùn)動提供 “精準(zhǔn)導(dǎo)航”。在動態(tài)平衡系統(tǒng)中,像昆泰芯 KTH71 系列磁傳感器芯片,通過檢測地磁場與
    發(fā)表于 08-26 10:02

    【一分鐘教程】用ZMC600E實(shí)現(xiàn)關(guān)節(jié)機(jī)器人±180度精準(zhǔn)轉(zhuǎn)動

    一分鐘速覽:設(shè)備連接到編程控制,演示關(guān)節(jié)機(jī)器人的±180度精準(zhǔn)轉(zhuǎn)動。關(guān)節(jié)機(jī)器人±180度轉(zhuǎn)動例程在科技高度發(fā)達(dá)今天,越來越多的智能機(jī)器人進(jìn)
    的頭像 發(fā)表于 08-15 11:36 ?723次閱讀
    【一分鐘教程】用ZMC600E實(shí)現(xiàn)關(guān)節(jié)<b class='flag-5'>機(jī)器人</b>±180度<b class='flag-5'>精準(zhǔn)</b>轉(zhuǎn)動

    RFID技術(shù)與碼垛機(jī)器人深度協(xié)同的核心難題與破局之道

    “碼垛機(jī)器人正以每小時2000次抓取、0.01毫米誤差的極致性能,重塑全球工廠物流——飲料巨頭70%人力成本削減,寧德時代1.5秒電芯轉(zhuǎn)運(yùn),這場智能革命已從效率突破邁向數(shù)字化紐帶。
    的頭像 發(fā)表于 08-15 11:15 ?603次閱讀

    工業(yè)機(jī)器人的特點(diǎn)

    的基礎(chǔ),也是三者的實(shí)現(xiàn)終端,智能制造裝備產(chǎn)業(yè)包括高檔數(shù)控機(jī)床、工業(yè)機(jī)器人、自動化成套生產(chǎn)線、精密儀器儀表、智能傳感器、汽車自動化焊接線、柔性自動化生產(chǎn)線、智能農(nóng)機(jī)、3D 打印機(jī)等領(lǐng)域。而智能制造裝備中工業(yè)
    發(fā)表于 07-26 11:22

    0.01°微小變化精準(zhǔn)捕捉,機(jī)器人姿態(tài)傳感器革新

    119億元,2024年2030年的復(fù)合年增長率達(dá)60%。 ? 人形機(jī)器人應(yīng)用到的傳感器種類眾多,可以用于視覺、聽覺、嗅覺、力覺、觸覺、位置與運(yùn)動等方面。大致可以分為兩類,一類是外部傳感器,主要功能是實(shí)現(xiàn)機(jī)器人與外界的交互,包括
    的頭像 發(fā)表于 07-12 01:12 ?7022次閱讀
    <b class='flag-5'>0.01</b>°微小變化<b class='flag-5'>精準(zhǔn)</b>捕捉,<b class='flag-5'>機(jī)器人</b>姿態(tài)傳感器革新

    機(jī)器人測試:虛擬現(xiàn)實(shí),機(jī)器人如何才能變成真正的打工牛馬?

    虛擬世界的算法優(yōu)化,現(xiàn)實(shí)中的 “抗造” 考驗(yàn),再到細(xì)節(jié)處的容錯能力,機(jī)器人的每一輪測試,本質(zhì)上都是在模仿人類 “打工人” 的成長路徑:先在練習(xí)中練熟技能,再在實(shí)戰(zhàn)中扛住壓力,最終成為那個
    的頭像 發(fā)表于 07-11 09:16 ?1618次閱讀
    <b class='flag-5'>機(jī)器人</b>測試:<b class='flag-5'>從</b>虛擬<b class='flag-5'>到</b>現(xiàn)實(shí),<b class='flag-5'>機(jī)器人</b>如何才能變成真正的打工牛馬?

    機(jī)械應(yīng)答深度交互,移遠(yuǎn)通信如何讓機(jī)器人“靈魂覺醒”?

    你是否還在因機(jī)器人的“答非所問”而無奈,為它們的“反應(yīng)慢半拍”而抓狂?別慌!一場引領(lǐng)機(jī)器人實(shí)現(xiàn)“靈魂覺醒”的技術(shù)革命,正如同暗夜中悄然綻放的繁星,徹底顛覆人們對機(jī)器人的傳統(tǒng)認(rèn)知。5月20日,移遠(yuǎn)通信
    的頭像 發(fā)表于 05-20 19:04 ?871次閱讀
    <b class='flag-5'>從</b>機(jī)械應(yīng)答<b class='flag-5'>到</b>深度交互,移遠(yuǎn)通信如何讓<b class='flag-5'>機(jī)器人</b>“靈魂覺醒”?

    盤點(diǎn)#機(jī)器人開發(fā)平臺

    地瓜機(jī)器人RDK X5開發(fā)套件地瓜機(jī)器人RDK X5開發(fā)套件產(chǎn)品介紹 旭日5芯片10TOPs算力-電子發(fā)燒友網(wǎng)機(jī)器人開發(fā)套件 Kria KR260機(jī)器人開發(fā)套件 Kria KR260-
    發(fā)表于 05-13 15:02

    感知運(yùn)控:具身智能機(jī)器人控制器的雙腦協(xié)同設(shè)計(jì)與場景適配

    ,則是協(xié)調(diào)全身的“大腦”與“小腦”,既要像大腦一樣思考決策,又要像小腦一樣精準(zhǔn)控制運(yùn)動。作為具身智能機(jī)器人的核心樞紐,控制器直接決定了它能否在復(fù)雜場景中“像一樣靈活”,甚至超越人類的精準(zhǔn)
    的頭像 發(fā)表于 05-11 17:42 ?989次閱讀
    <b class='flag-5'>從</b>感知<b class='flag-5'>到</b>運(yùn)控:具身智能<b class='flag-5'>機(jī)器人</b>控制器的雙腦協(xié)同設(shè)計(jì)與場景適配

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】機(jī)器人入門的引路書

    ROS的全稱:Robot Operating System 機(jī)器人操作系統(tǒng) ROS的 目的 :ROS支持通用庫,是通信總線,協(xié)調(diào)多個傳感器 為了解決機(jī)器人里各廠商模塊不通用的問題,讓機(jī)器人快速開發(fā)
    發(fā)表于 04-30 01:05

    單芯片方案多類型傳感,ADI賦能人形機(jī)器人創(chuàng)新

    ” 的關(guān)鍵時期,預(yù)計(jì) 2025 年至 2027 年為行業(yè)發(fā)展的窗口期,2027 年之后將迎來真正的爆發(fā)?!度诵?b class='flag-5'>機(jī)器人產(chǎn)業(yè)研究報(bào)告》預(yù)測, 2035 年,中國人形機(jī)器人市場規(guī)模有望達(dá)到 3000 億元。 ? 在電子發(fā)燒友網(wǎng)《人形
    的頭像 發(fā)表于 04-10 00:11 ?3060次閱讀
    <b class='flag-5'>從</b>單芯片方案<b class='flag-5'>到</b>多類型傳感,ADI賦能人形<b class='flag-5'>機(jī)器人</b>創(chuàng)新

    掃地機(jī)器人割草機(jī)器人,科沃斯再度全平臺搭載地瓜機(jī)器人旭日系列芯片

    定位解決方案。 GOAT全新系列產(chǎn)品全平臺搭載地瓜機(jī)器人全新推出的旭日5智能計(jì)算芯片 ,具備10 TOPs 算力,擁有豐富的異構(gòu)計(jì)算資源,可支持機(jī)器人在本地完成全棧任務(wù)的高效計(jì)算?;诳莆炙诡I(lǐng)先的LELS?定位技術(shù), GOAT全新系列產(chǎn)品進(jìn)一步提升了
    發(fā)表于 02-13 14:23 ?1396次閱讀
    <b class='flag-5'>從</b>掃地<b class='flag-5'>機(jī)器人</b><b class='flag-5'>到</b>割草<b class='flag-5'>機(jī)器人</b>,科沃斯再度全平臺搭載地瓜<b class='flag-5'>機(jī)器人</b>旭日系列芯片