chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

麻省理工學(xué)院新研究:讓機(jī)器人像人一樣有觸覺

天津機(jī)器人 ? 來源:天津機(jī)器人 ? 作者:智東西 ? 2021-01-26 15:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

f1a55330-5f7a-11eb-8b86-12bb97331649.png

智東西1月20日消息,近日,麻省理工學(xué)院(MIT)的研究人員進(jìn)行了一項研究,旨在在機(jī)器人身上,復(fù)制人類觸摸獲取物體位置的能力。

研究人員將他們的論文預(yù)先發(fā)表在arXiv上,強(qiáng)調(diào)他們的研發(fā)成果可以讓機(jī)器人僅通過觸摸,而無需通過視覺和音頻處理,就能與其周圍環(huán)境進(jìn)行交互,甚至可以在第一次接觸物體時對物體進(jìn)行準(zhǔn)確定位。

一、不依賴外部傳感方式,僅通過模擬訓(xùn)練實現(xiàn)物體行為

研究人員之一Maria Bauza 在接受外媒Tech Xplore采訪時說:“我們此次研究的方法相比以往的觸覺定位工作取得了重要飛躍,因為我們可以不依賴?yán)缫曈X等其他任何外部傳感方式,也不依賴以前收集的與被操縱物體相關(guān)的觸覺數(shù)據(jù)。”

“相反,我們的技術(shù)是直接在模擬中訓(xùn)練出來的,機(jī)器人能在第一次觸摸時就定位物體,這在機(jī)器人領(lǐng)域的應(yīng)用中是至關(guān)重要的?!?/p>

在現(xiàn)實情況中,數(shù)據(jù)收集價格高昂,甚至有些數(shù)據(jù)無法被收集。而由于這個新技術(shù)是經(jīng)過模擬訓(xùn)練的,也就是說,無需真實的機(jī)器人訓(xùn)練,只需在計算機(jī)上訓(xùn)練就可完成操作。因此,Bauza和她的同事在設(shè)計的時候就不用進(jìn)行復(fù)雜的數(shù)據(jù)收集工作了。

研究人員最初開發(fā)了一個框架,模擬給定物體和觸覺傳感器之間的接觸,從而假設(shè)機(jī)器人可以訪問與其交互的物體的數(shù)據(jù)(例如,物體的三維形狀、特征等)。這些接觸行為以深度圖像的形式呈現(xiàn),它顯示了物體擠壓觸覺傳感器的程度。

隨后,Bauza和她的同事們使用最先進(jìn)的機(jī)器學(xué)習(xí)技術(shù)進(jìn)行計算機(jī)視覺和表示學(xué)習(xí)(representation learning),觀察機(jī)器人收集的真實觸覺數(shù)據(jù),并將這些數(shù)據(jù)與模擬生成的觸點數(shù)據(jù)集進(jìn)行匹配。

▲研究人員使用的觸覺傳感器

Bauza說:“我們的方法是,將表示為深度圖像的接觸編碼到一個嵌入式空間中,這極大地簡化了計算成本,使任務(wù)能夠?qū)崟r執(zhí)行?!?/p>

“在我們的工作中,我們在多接觸場景中對這一點進(jìn)行了演示,其中在多個觸覺傳感器同時接觸一個物體的情況下,我們必須將所有觀察結(jié)果整合到對物體姿態(tài)的估計中?!?/p>

從本質(zhì)上講,這個研究小組設(shè)計的方法可以簡單基于物體的三維形狀來模擬接觸信息。因此,它不需要在仔細(xì)檢查物體時收集任何以前的觸覺數(shù)據(jù)。這使得該技術(shù)能夠通過機(jī)器人的觸覺傳感器,在它第一次接觸到物體時,就對物體產(chǎn)生姿態(tài)估計。

Bauza說:“我們意識到觸覺傳感具有很強(qiáng)的鑒別力,并可以產(chǎn)生高度精確的姿勢估計。視覺有時候會受到遮擋的影響,但觸覺不會。因此,如果一個機(jī)器人接觸到一個少見且獨特物體的某一部分,那么我們的算法可以輕易識別出機(jī)器人接觸的物體,從而識別物體的姿態(tài)?!?/p>

二、“多手指”感觸提高操作精度,適用工業(yè)領(lǐng)域

許多物體不同側(cè)面的觸感相似,而Bauza和她的同事開發(fā)的方法可以預(yù)測姿勢分布,而不止對單個姿態(tài)進(jìn)行估計。這一特征非常特殊,與此前只收集單一姿態(tài)估計的目標(biāo)姿態(tài)估計方法形成鮮明對比。此外,麻省理工學(xué)院研究小組的框架所預(yù)測的分布可以直接與外部信息整合,以進(jìn)一步減少物體姿態(tài)的不確定性。

Bauza說:“值得注意的是,我們還觀察到,像用幾個手指接觸一個物體一樣同時進(jìn)行多個接觸行為,可以很大程度上減少對物體姿勢判斷的不確定性。這證實了我們的預(yù)測,即在一個對象上添加接觸會限制其姿態(tài)并簡化姿態(tài)檢測過程。”

f36e6c56-5f7a-11eb-8b86-12bb97331649.png

▲方法運作流程:接觸→ 觸覺觀察→觸覺深度→匹配使用研究人員的最佳算法→結(jié)果姿勢

為了輔助人類進(jìn)行日?;顒?,機(jī)器人必須能夠高精度、高可靠性地完成任務(wù)。由于對物體的操縱意味著機(jī)器人需要直接接觸物體,因此開發(fā)能有效使機(jī)器人進(jìn)行觸覺傳感的技術(shù)至關(guān)重要。

另一位參與這一項目的研究人員Alberto Rodriguez在接受媒體采訪時說,觸覺能力最近受到了工業(yè)領(lǐng)域的極大關(guān)注,我們通過對三個因素的結(jié)合實現(xiàn)了觸覺能力技術(shù)的突破:

1、 使用具有高分辨率的小型攝像機(jī),捕捉觸摸表面變形的狀態(tài),這一傳感技術(shù)成本較低。例如:GelSight 傳感。

2、 將上述第一點中提到的傳感技術(shù)與機(jī)器人手指進(jìn)行結(jié)合。例如:GelSlim 手指。

3、 一種基于深度學(xué)習(xí)的計算框架,它可以有效處理高分辨率觸覺圖像,實現(xiàn)已知部位的觸覺定位。例如:本文提到的研究。

Rodriguez說:“這類技術(shù)正在逐漸成熟,行業(yè)正在看到自動化任務(wù)的價值。比如,在裝配自動化領(lǐng)域,觸摸任務(wù)的實施就對精確度有要求。”

這組研究人員設(shè)計的技術(shù),使機(jī)器人能實時估計他們正在操縱的物體的姿態(tài),而且精確度很高。這使工作人員有機(jī)會對機(jī)器人的動作或行為影響做出更準(zhǔn)確的預(yù)測,從而提高機(jī)器人在操作任務(wù)中的表現(xiàn)。

這一研究或許能夠證明其在工業(yè)領(lǐng)域應(yīng)用中的價值。在工業(yè)領(lǐng)域,制造商可以依此根據(jù)產(chǎn)品形狀的清晰模型組裝產(chǎn)品。

未來,研究人員計劃擴(kuò)展他們的框架,使其同時包含有關(guān)物體的視覺信息。他們希望將現(xiàn)有的技術(shù)轉(zhuǎn)化為一個視覺-觸覺傳感系統(tǒng),可以更精準(zhǔn)地估計物體的姿態(tài)。

此外,他們還將研發(fā)讓機(jī)器人進(jìn)行精確拾取和放置操作的技術(shù)。他們的目標(biāo)是,讓機(jī)器人能進(jìn)行穩(wěn)定抓取任務(wù)的同時,還能幫助其進(jìn)行感知,提高其觸覺定位能力。

結(jié)語:為機(jī)器人提供更多感官

視覺、音頻技術(shù)是機(jī)器人定位常用的方式,這次,MIT的研究人員從觸覺方面為機(jī)器人確認(rèn)物體位置的方式提供了一個新的切口。

人類通過各種感官確認(rèn)物體的形狀和位置,未來,機(jī)器人或許也能像人類一樣,通過眼睛鎖定,耳朵聽見,皮膚觸摸,鼻子嗅聞來準(zhǔn)確鎖定物體位置、形狀及狀態(tài)。

責(zé)任編輯:xj

原文標(biāo)題:MIT新研究:讓機(jī)器人像人一樣有觸覺,觸摸可識別姿態(tài)位置

文章出處:【微信公眾號:天津機(jī)器人】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    30892

    瀏覽量

    221163
  • 觸覺
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    9602

原文標(biāo)題:MIT新研究:讓機(jī)器人像人一樣有觸覺,觸摸可識別姿態(tài)位置

文章出處:【微信號:tjrobot,微信公眾號:天津機(jī)器人】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    東莞理工學(xué)院“小眼睛科技杯”第四屆集成電路設(shè)計與創(chuàng)新應(yīng)用競賽圓滿落幕

    BASEDINNOVATION“小眼睛科技杯”集成電路設(shè)計與創(chuàng)新應(yīng)用競賽2025年11月23日,東莞理工學(xué)院第四屆集成電路設(shè)計與創(chuàng)新應(yīng)用競賽于學(xué)術(shù)會議中心圓滿落幕。本屆競賽由校團(tuán)委、學(xué)生工作部
    的頭像 發(fā)表于 12-08 08:03 ?333次閱讀
    東莞<b class='flag-5'>理工學(xué)院</b>“小眼睛科技杯”第四屆集成電路設(shè)計與創(chuàng)新應(yīng)用競賽圓滿落幕

    格羅方德與新加坡理工學(xué)院簽署諒解備忘錄

    2025年10月15日,格羅方德新加坡公司(GlobalFoundries Singapore,簡稱GFS)與新加坡理工學(xué)院(Singapore Polytechnic,簡稱SP)簽署了份諒解備忘錄,旨在就新加坡半導(dǎo)體行業(yè)的數(shù)字人才培養(yǎng)展開合作。
    的頭像 發(fā)表于 10-24 15:10 ?634次閱讀

    蘇黎世聯(lián)邦理工學(xué)院、西南交通大學(xué):關(guān)于研究MXenes-環(huán)境生化傳感平臺新型材料

    近日, 蘇黎世聯(lián)邦理工學(xué)院王京課題組 聯(lián)合 西南交通大學(xué)趙志俊課題組 及 四川大學(xué)張傳芳課題組 ,在 高起點新刊Electron 發(fā)表了題為“MXenes: Emerging Materials
    的頭像 發(fā)表于 10-10 19:02 ?520次閱讀
    蘇黎世聯(lián)邦<b class='flag-5'>理工學(xué)院</b>、西南交通大學(xué):關(guān)于<b class='flag-5'>研究</b>MXenes-環(huán)境生化傳感平臺新型材料

    Wolfspeed與紐約州立大學(xué)理工學(xué)院加強(qiáng)教育研究合作

    紐約州立大學(xué)理工學(xué)院(SUNY Poly)在 近日舉行的新聞發(fā)布會上宣布,任命兩名教職人員為 Wolfspeed 捐贈講席教授(Wolfspeed Endowed Chairs),標(biāo)志著該校研究擴(kuò)展的重要里程碑。
    的頭像 發(fā)表于 07-04 16:12 ?806次閱讀

    【萬字長文】物聯(lián)網(wǎng)的激蕩二十年

    (InternetofThings)”。雖然業(yè)界致認(rèn)為,1999年,麻省理工學(xué)院的KevinAshton首次提出”物聯(lián)網(wǎng)”這術(shù)語,但僅僅只是個理念,沒有成體系的解釋,也無法形成共
    的頭像 發(fā)表于 06-27 13:42 ?1516次閱讀
    【萬字長文】物聯(lián)網(wǎng)的激蕩二十年

    突破麻省理工學(xué)院技術(shù)壟斷,深圳傳感器公司帶來全新機(jī)器人觸覺傳感器技術(shù)

    了 最新發(fā)布的視觸覺傳感器 和五指靈巧手 “ICRA 2025是全球機(jī)器人與自動化領(lǐng)域的頂級國際學(xué)術(shù)會議,我們約了外國客商洽談訂單?!壁s在當(dāng)?shù)貢r間大早,段江嘩擠出時間接受深圳特區(qū)報記者獨家采訪。他說,從實驗室走向產(chǎn)業(yè)化,戴盟
    的頭像 發(fā)表于 06-22 23:21 ?677次閱讀
    突破<b class='flag-5'>麻省理工學(xué)院</b>技術(shù)壟斷,深圳傳感器公司帶來全新<b class='flag-5'>機(jī)器人</b><b class='flag-5'>觸覺</b>傳感器技術(shù)

    南京工業(yè)大學(xué):仿生觸覺傳感系統(tǒng)機(jī)器人擁有“人類指尖”般的細(xì)膩感知

    宏博士,聯(lián)合南開大學(xué)、復(fù)旦大學(xué)、金陵科技學(xué)院等單位眾多合作者,在《Advanced Materials》發(fā)表重磅研究成果,研發(fā)出種仿生紡織觸覺傳感器及系統(tǒng),首次在單
    的頭像 發(fā)表于 06-14 17:32 ?776次閱讀
    南京工業(yè)大學(xué):仿生<b class='flag-5'>觸覺</b>傳感系統(tǒng)<b class='flag-5'>讓</b><b class='flag-5'>機(jī)器人</b>擁有“人類指尖”般的細(xì)膩感知

    偉創(chuàng)力與麻省理工學(xué)院 (MIT) 就其全新的“新制造倡議”(INM) 達(dá)成戰(zhàn)略合作

    行業(yè)巨擘+全球頂級學(xué)府? 近日,偉創(chuàng)力與 麻省理工學(xué)院? (MIT) 就其 全新的“新制造倡議”(INM) 達(dá)成戰(zhàn)略合作 。作為INM行業(yè)聯(lián)盟的 創(chuàng)始成員 ,偉創(chuàng)力將在這項目中與MIT的研究
    的頭像 發(fā)表于 06-10 09:30 ?1117次閱讀

    麻省理工學(xué)院香港校友會代表團(tuán)到訪華沿機(jī)器人

    近日,麻省理工學(xué)院香港校友會(MIT Club of Hong Kong)代表團(tuán)40余人到訪華沿機(jī)器人總部,通過展廳參觀、技術(shù)交流與座談研討,深入了解國產(chǎn)機(jī)器人產(chǎn)業(yè)發(fā)展現(xiàn)狀,并就“機(jī)器人
    的頭像 發(fā)表于 05-30 09:26 ?971次閱讀

    美國加州理工學(xué)院研究量子傳感技術(shù)可實現(xiàn)粒子時空高精度探測

    《儀器儀表期刊》發(fā)表。 ? 答案可能就在量子傳感器中。來自美國能源部費米國家加速器實驗室(費米實驗室)、加州理工學(xué)院、美國國家航空航天局噴氣推進(jìn)實驗室(由加州理工學(xué)院管理)和其他合作機(jī)構(gòu)的研究人員開發(fā)出了
    的頭像 發(fā)表于 05-11 16:33 ?641次閱讀

    佐治亞理工學(xué)院:毛囊級傳感器!研發(fā)可運動無感佩戴的AR控制傳感器

    ? 佐治亞理工學(xué)院研究人員開發(fā)了種幾乎難以察覺的微結(jié)構(gòu)大腦傳感器,有望使腦機(jī)接口(BCI)技術(shù)真正融入日常生活。 傳統(tǒng)BCI系統(tǒng)依賴貼附在頭皮上的電極和凝膠,存在設(shè)備龐大、使用不適等問題,而侵入
    的頭像 發(fā)表于 04-24 18:28 ?735次閱讀
    佐治亞<b class='flag-5'>理工學(xué)院</b>:毛囊級傳感器!研發(fā)可運動無感佩戴的AR控制傳感器

    江蘇理工學(xué)院蒞臨漢得利BESTAR公司考察交流

    2025年2月20日下午,江蘇理工學(xué)院電氣信息工程學(xué)院副院長陶為戈、王琪,管理學(xué)院教授謝德兵以及電氣信息工程學(xué)院梁寶博士等學(xué)術(shù)代表團(tuán)蒞臨漢得利BESTAR公司考察交流。校企雙方圍繞技術(shù)
    的頭像 發(fā)表于 02-21 17:24 ?1217次閱讀

    為什么要費這么大勁機(jī)器人像一樣,而不是更實用的形態(tài)?

    為什么要費這么大勁機(jī)器人像一樣,而不是更實用的形態(tài)? 將機(jī)器人設(shè)計成人形(即仿人機(jī)器人)的意
    的頭像 發(fā)表于 02-10 10:03 ?1446次閱讀

    魔角石墨烯,超流剛度首次測得

    邁出了大步。相關(guān)研究結(jié)果5日發(fā)表在《自然》雜志上。 在超導(dǎo)材料中,電子對(庫珀對)在材料內(nèi)部移動時所遇到的阻力大小取決于多種條件,包括在材料中移動的電子對的密度。2018年,麻省理工學(xué)院物理學(xué)家巴勃羅·賈里洛-埃
    的頭像 發(fā)表于 02-07 11:14 ?761次閱讀
    魔角石墨烯,超流剛度首次測得

    加州理工學(xué)院開發(fā)出超100GHz時鐘速度的全光計算機(jī)

    加州理工學(xué)院研究人員取得重大突破,開發(fā)出款能實現(xiàn)超過100GHz時鐘速度的全光計算機(jī)。 長期以來,電子計算機(jī)時鐘頻率在近20年停滯于5GHz左右。 而此次推出的全光計算機(jī),通過基于端到端和全光學(xué)
    的頭像 發(fā)表于 01-23 10:32 ?842次閱讀