chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DON抓取算法:訓(xùn)練無需標(biāo)注數(shù)據(jù)集,省時(shí)省力

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-09-14 08:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

MIT團(tuán)隊(duì)打造“密集目標(biāo)網(wǎng)絡(luò)”(DON)的機(jī)器人系統(tǒng),能夠讓抓取機(jī)器人真正“讀懂”目標(biāo),該系統(tǒng)將目標(biāo)處理生成三維“視覺路線圖”的點(diǎn)集合,讓機(jī)器人真正在視覺上理解目標(biāo)。利用這一系統(tǒng),科學(xué)家們不必再像過去的計(jì)算機(jī)視覺研究一樣,繁瑣地對大量數(shù)據(jù)集中的數(shù)據(jù)進(jìn)行標(biāo)記了。

長期以來,人類一直以靈巧著稱,這種特點(diǎn)在很大程度上要?dú)w功于我們的眼睛。不過現(xiàn)在,機(jī)器人也逐步迎頭趕上。經(jīng)過幾十年的發(fā)展,現(xiàn)在用于生產(chǎn)線等受控環(huán)境中的機(jī)器人已經(jīng)能夠一次又一次地拾起同一個(gè)目標(biāo)了。

最近在計(jì)算機(jī)視覺方面的突破,讓機(jī)器人也能區(qū)分出不同的目標(biāo)。不過即使這樣,機(jī)器人還是無法真正理解物體的形狀,因此在拾取目標(biāo)后,幾乎無法再做什么別的事。

近日,麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(CSAIL)的研究人員在一篇新論文中表示,他們已在這個(gè)領(lǐng)域取得了一項(xiàng)重要進(jìn)展:他們打造的機(jī)器人系統(tǒng)可以識(shí)別出之前未見過的隨機(jī)目標(biāo),并能夠在視覺上“理解”這些目標(biāo),以完成更豐富的任務(wù)。

研究人員使用KUKA機(jī)器人抓起一只杯子

“密集對象網(wǎng)絡(luò)”:讓機(jī)器人讀懂抓取目標(biāo)

該系統(tǒng)名為“密集對象網(wǎng)絡(luò)”(DON),該網(wǎng)絡(luò)將對象視為點(diǎn)的集合,當(dāng)作“視覺路線圖”來使用。這種方法可以讓機(jī)器人更好地理解和抓取目標(biāo),最重要的是,機(jī)器人能夠在大量類似目標(biāo)中挑出特定的目標(biāo)。亞馬遜和沃爾瑪?shù)裙驹谄鋫}庫中使用的機(jī)器就具備類似的技能。

比如,有人可能會(huì)使用DON系統(tǒng)讓機(jī)器人抓住目標(biāo)上的特定位置,比如鞋舌頭。之后,它就能夠看到之前從未見過的鞋子,并成功抓住鞋舌頭。

參與該研究的博士生Lucas Manuelli說道:“許多控制系統(tǒng)和識(shí)別方法都無法識(shí)別朝多個(gè)方向放置的目標(biāo)的特定部分?!彼c該論文另一作者、博士生Pete Florence和MIT教授Russ Tedrake一起撰寫了該論文。 “比如,現(xiàn)有的算法就無法抓住馬克杯的杯柄,尤其是在馬克杯朝多個(gè)方向放置的情況下,比如直立或側(cè)放?!?/p>

該團(tuán)隊(duì)認(rèn)為,該技術(shù)不僅能用于工業(yè)制造,還能走入家庭的日常生活。比如,給系統(tǒng)展示一座整潔的房子的圖像,讓機(jī)器人在你工作時(shí)打掃房間,或向機(jī)器人展示菜肴的圖像,讓機(jī)器人在你度假時(shí)把你的餐桌上的盤子收拾好。

DON抓取算法:訓(xùn)練無需標(biāo)注數(shù)據(jù)集,省時(shí)省力

值得注意的一點(diǎn)是,沒有任何數(shù)據(jù)事先被人類標(biāo)記過。這個(gè)系統(tǒng)是“自我監(jiān)督的”,因此不需要任何來自人類的數(shù)據(jù)標(biāo)注。

機(jī)器人抓取目標(biāo)的兩種常見方法是,創(chuàng)建特定任務(wù)的機(jī)器學(xué)習(xí),創(chuàng)建通用的抓取算法。這兩種技術(shù)都存在障礙:基于特定任務(wù)的方法很難推廣到其他任務(wù),而通用的抓取算法不夠具體,無法顧及處理特定任務(wù)時(shí)的細(xì)微差別,比如將目標(biāo)放到特定的位置上。

而DON系統(tǒng)基本上是在給定目標(biāo)上創(chuàng)建一系列坐標(biāo),作為基于目標(biāo)的一種“視覺路線圖”,使機(jī)器人更好地理解自己需要抓取哪些目標(biāo),目標(biāo)在何處等。

該團(tuán)隊(duì)訓(xùn)練系統(tǒng)將對象視為構(gòu)成較大坐標(biāo)系的一系列點(diǎn)。然后將不同的點(diǎn)映射到一起,顯示出對象的三維形狀,這種方式和使用多張照片拼接全景照片的方式有些類似。在訓(xùn)練之后,如果指定目標(biāo)上的一個(gè)點(diǎn),機(jī)器人可以拍攝該物體的照片,并一系列的點(diǎn)進(jìn)行識(shí)別和匹配,然后就可以指定點(diǎn)拾取目標(biāo)。

這個(gè)系統(tǒng)與加州大學(xué)伯克利分校的DexNet系統(tǒng)有所不同,伯克利的系統(tǒng)可以抓取許多不同的目標(biāo),但不能滿足抓取特定目標(biāo)的要求。就好比一個(gè)一歲半的嬰兒,他不明白你想要他玩哪個(gè)玩具,但仍然可以抓起很多不同的玩具,而一個(gè)四歲的孩子,就可以準(zhǔn)確地回應(yīng)“去抓住那輛紅色小卡車的車尾”的要求。

在形狀對稱毛絨玩具上進(jìn)行的一組測試中,由DON驅(qū)動(dòng)的Kuka機(jī)器人手臂可以從一系列不同的目標(biāo)位置抓住玩具的右耳。這表明系統(tǒng)具有在對稱物體上區(qū)分左右的能力。

在利用不同棒球帽進(jìn)行測試時(shí),DON可以選擇特定的目標(biāo)帽子,盡管所有的帽子的設(shè)計(jì)都非常相似,機(jī)器人在之前從未在訓(xùn)練數(shù)據(jù)中看到過帽子的照片。

未來,團(tuán)隊(duì)希望將系統(tǒng)進(jìn)行改進(jìn),讓其具備執(zhí)行特定任務(wù)的能力,同時(shí)能夠更深入地了解相應(yīng)的目標(biāo),例如學(xué)習(xí)如何抓住目標(biāo),并將其移動(dòng)到最終位置等。

團(tuán)隊(duì)將于下個(gè)月在瑞士蘇黎世舉行的機(jī)器人學(xué)習(xí)會(huì)議上發(fā)表這一成果。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    31066

    瀏覽量

    222153
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47622
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26187

原文標(biāo)題:MIT識(shí)物機(jī)器人:“秒懂”物體,過目不忘,不用標(biāo)記數(shù)據(jù)!

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    手動(dòng)輸容值太費(fèi)勁?換易控寶自動(dòng)檢測投切更精準(zhǔn)!

    易控寶智能無功補(bǔ)償控制器自動(dòng)檢測電容容值,精準(zhǔn)投切,省時(shí)省力,提升效率與電費(fèi)收益。
    的頭像 發(fā)表于 02-03 12:58 ?107次閱讀
    手動(dòng)輸容值太費(fèi)勁?換易控寶自動(dòng)檢測投切更精準(zhǔn)!

    算法工程師不愿做標(biāo)注工作,怎么辦?

    對于算法而言,圖像標(biāo)注是一項(xiàng)關(guān)鍵性工作,越是大量的新數(shù)據(jù)標(biāo)注,對于算法的性能提升越有幫助。但是
    的頭像 發(fā)表于 12-02 17:56 ?535次閱讀
    <b class='flag-5'>算法</b>工程師不愿做<b class='flag-5'>標(biāo)注</b>工作,怎么辦?

    模板驅(qū)動(dòng) 無需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    算法作為軟實(shí)力,其水平直接影響著目標(biāo)檢測識(shí)別的能力。兩年前,慧視光電推出了零基礎(chǔ)的基于yolo系列算法架構(gòu)的AI算法開發(fā)平臺(tái)SpeedDP,此平臺(tái)能夠通過數(shù)據(jù)驅(qū)動(dòng)模型
    的頭像 發(fā)表于 09-09 17:57 ?1396次閱讀
    模板驅(qū)動(dòng)  <b class='flag-5'>無需</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>  SmartDP解決小樣本AI<b class='flag-5'>算法</b>模型開發(fā)難題

    請問AICube所需的目標(biāo)檢測數(shù)據(jù)標(biāo)注可以使用什么工具?

    請問AICube所需的目標(biāo)檢測數(shù)據(jù)標(biāo)注可以使用什么工具? 我使用labelimg進(jìn)行標(biāo)注,標(biāo)注后的數(shù)據(jù)
    發(fā)表于 08-11 08:07

    自動(dòng)駕駛數(shù)據(jù)標(biāo)注主要是標(biāo)注什么?

    的結(jié)構(gòu)化標(biāo)簽。這些標(biāo)簽不僅構(gòu)成了模型訓(xùn)練與評估的數(shù)據(jù)基礎(chǔ),也直接影響系統(tǒng)在實(shí)際道路環(huán)境中的識(shí)別、理解和決策能力。準(zhǔn)確、系統(tǒng)的數(shù)據(jù)標(biāo)注能夠有效提升感知
    的頭像 發(fā)表于 07-30 11:54 ?1336次閱讀
    自動(dòng)駕駛<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>標(biāo)注</b>主要是<b class='flag-5'>標(biāo)注</b>什么?

    訓(xùn)練平臺(tái)數(shù)據(jù)過大無法下載數(shù)據(jù)至本地怎么解決?

    起因是現(xiàn)在平臺(tái)限制了圖片數(shù)量,想要本地訓(xùn)練下載數(shù)據(jù)時(shí)發(fā)現(xiàn)只會(huì)跳出網(wǎng)絡(luò)異常的錯(cuò)誤,請問這有什么解決辦法?
    發(fā)表于 07-22 06:03

    根據(jù)標(biāo)題利用API實(shí)現(xiàn)電商多平臺(tái)同步:省時(shí)省力生成文章

    結(jié)合內(nèi)容生成工具,還能自動(dòng)創(chuàng)建吸引人的產(chǎn)品文章。本文將一步步解析如何實(shí)現(xiàn)這一過程,幫助您節(jié)省時(shí)間和精力。 1. 電商多平臺(tái)同步的挑戰(zhàn)與API的優(yōu)勢 電商多平臺(tái)運(yùn)營面臨的核心問題是數(shù)據(jù)一致性。例如,庫存更新不及時(shí)可能導(dǎo)致超
    的頭像 發(fā)表于 07-18 10:02 ?651次閱讀
    根據(jù)標(biāo)題利用API實(shí)現(xiàn)電商多平臺(tái)同步:<b class='flag-5'>省時(shí)省力</b>生成文章

    什么是自動(dòng)駕駛數(shù)據(jù)標(biāo)注?如何好做數(shù)據(jù)標(biāo)注

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛系統(tǒng)的開發(fā)過程中,數(shù)據(jù)標(biāo)注是一項(xiàng)至關(guān)重要的工作。它不僅決定了模型訓(xùn)練的質(zhì)量,也直接影響了車輛感知、決策與控制的性能表現(xiàn)。隨著傳感器種類和數(shù)據(jù)量的
    的頭像 發(fā)表于 07-09 09:19 ?1368次閱讀
    什么是自動(dòng)駕駛<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>標(biāo)注</b>?如何好做<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>標(biāo)注</b>?

    OCR識(shí)別訓(xùn)練完成后給的是空壓縮包,為什么?

    OCR識(shí)別 一共弄了26張圖片,都標(biāo)注好了,點(diǎn)擊開始訓(xùn)練,顯示訓(xùn)練成功了,也將壓縮包發(fā)到郵箱了,下載下來后,壓縮包里面是空的 OCR圖片20幾張圖太少了。麻煩您多添加點(diǎn),參考我們的ocr識(shí)別
    發(fā)表于 05-28 06:46

    AI時(shí)代 圖像標(biāo)注不要沒苦硬吃

    識(shí)別算法的性能提升依靠大量的圖像標(biāo)注,傳統(tǒng)模式下,需要人工對同類型數(shù)據(jù)進(jìn)行一步步手動(dòng)拉框,這個(gè)過程的痛苦只有做過的人才知道。越多素材的數(shù)據(jù)
    的頭像 發(fā)表于 05-20 17:54 ?549次閱讀
    AI時(shí)代   圖像<b class='flag-5'>標(biāo)注</b>不要沒苦硬吃

    數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注
    的頭像 發(fā)表于 03-21 10:30 ?3265次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大模型訓(xùn)練數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注
    的頭像 發(fā)表于 03-21 10:27 ?1105次閱讀
    標(biāo)貝<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>標(biāo)注</b>服務(wù):奠定大模型<b class='flag-5'>訓(xùn)練</b>的<b class='flag-5'>數(shù)據(jù)</b>基石

    自動(dòng)化標(biāo)注技術(shù)推動(dòng)AI數(shù)據(jù)訓(xùn)練革新

    結(jié)果的高準(zhǔn)確率,相對純?nèi)斯?b class='flag-5'>標(biāo)注效率可提升70%以上,為用戶提供更性價(jià)比的數(shù)據(jù)方案和服務(wù)。本文將就自動(dòng)化標(biāo)注平臺(tái)是什么以及為AI數(shù)據(jù)訓(xùn)練帶來哪
    的頭像 發(fā)表于 03-14 16:46 ?1356次閱讀

    標(biāo)貝自動(dòng)化數(shù)據(jù)標(biāo)注平臺(tái)推動(dòng)AI數(shù)據(jù)訓(xùn)練革新

    結(jié)果的高準(zhǔn)確率,相對純?nèi)斯?b class='flag-5'>標(biāo)注效率可提升70%以上,為用戶提供更性價(jià)比的數(shù)據(jù)方案和服務(wù)。本文將就自動(dòng)化標(biāo)注平臺(tái)是什么以及為AI數(shù)據(jù)訓(xùn)練帶來哪
    的頭像 發(fā)表于 03-14 16:42 ?1640次閱讀
    標(biāo)貝自動(dòng)化<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>標(biāo)注</b>平臺(tái)推動(dòng)AI<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>訓(xùn)練</b>革新

    是否可以輸入隨機(jī)數(shù)據(jù)來生成INT8訓(xùn)練后量化模型?

    無法確定是否可以輸入隨機(jī)數(shù)據(jù)來生成 INT8 訓(xùn)練后量化模型。
    發(fā)表于 03-06 06:45