曰本美女∴一区二区特级A级黄色大片, 国产亚洲精品美女久久久久久2025, 页岩实心砖-高密市宏伟建材有限公司, 午夜小视频在线观看欧美日韩手机在线,国产人妻奶水一区二区,国产玉足,妺妺窝人体色WWW网站孕妇,色综合天天综合网中文伊,成人在线麻豆网观看

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于深度神經(jīng)網(wǎng)絡(luò)的迭代6D姿態(tài)匹配的新方法

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-09-28 10:23 ? 次閱讀

基于圖像信息對目標(biāo)進(jìn)行三維空間定位具有十分重要的作用。例如,在機器人操作中,抓握和運動規(guī)劃等任務(wù)就需要對物體的6D姿態(tài)(3D位置和3D方向)信息進(jìn)行準(zhǔn)確的估計;在虛擬現(xiàn)實應(yīng)用中,人與物體之間的友好流暢的虛擬交互需要對目標(biāo)進(jìn)行準(zhǔn)確的6D姿態(tài)估計。

雖然最新的技術(shù)已經(jīng)在使用深度相機進(jìn)行物體姿態(tài)估計,但這種相機在幀速率、視場、分辨率和深度范圍等方面還存在相當(dāng)大的局限性,一些小的、薄的、透明的或快速移動的物體檢測起來還非常困難。目前,基于RGB的6D目標(biāo)姿態(tài)估計問題仍然具有挑戰(zhàn),因為圖像中目標(biāo)的表觀會受到一系列因素的影響,如光照、姿態(tài)變化、遮擋等。此外,魯棒的6D姿態(tài)估計方法還需要能處理有紋理和無紋理的目標(biāo)。

傳統(tǒng)方法往往通過將2D圖像中提取的局部特征與待檢測目標(biāo)3D模型中的特征相匹配來求解6D姿態(tài)估計問題,也就是基于2D-3D對應(yīng)關(guān)系求解PnP問題。但是,這種方法對局部特征依賴性太強,不能很好地處理無紋理目標(biāo)。為了處理無紋理目標(biāo),目前的文獻(xiàn)中有兩類方法:一類是,學(xué)習(xí)估計輸入圖像中的目標(biāo)關(guān)鍵點或像素的3D模型坐標(biāo);還有一類是,通過離散化姿態(tài)空間將6D姿態(tài)估計問題轉(zhuǎn)化為姿態(tài)分類問題,或轉(zhuǎn)化為姿態(tài)回歸問題。

這些方法雖然能夠處理無紋理目標(biāo),但是精度不夠高。為了提高精度,往往還需要進(jìn)一步的姿態(tài)優(yōu)化:給定初始姿態(tài)估計,對合成RGB圖像進(jìn)行渲染來和目標(biāo)輸入圖像進(jìn)行匹配,然后再計算出新的更準(zhǔn)的姿態(tài)估計?,F(xiàn)有的姿態(tài)優(yōu)化方法通常使用手工制作的圖像特征或匹配得分函數(shù)。

在本文工作中,作者提出了DeepIM——一種基于深度神經(jīng)網(wǎng)絡(luò)的迭代6D姿態(tài)匹配的新方法。給定測試圖像中目標(biāo)的初始6D姿態(tài)估計,DeepIM能夠給出相對SE(3)變換符合目標(biāo)渲染視圖與觀測圖像之間的匹配關(guān)系。提高精度后的姿態(tài)估計迭代地對目標(biāo)重新渲染,使得網(wǎng)絡(luò)的兩個輸入圖像會變得越來越相似,從而網(wǎng)絡(luò)能夠輸出越來越精確的姿勢估計。上圖展示了作者提出網(wǎng)絡(luò)用于姿態(tài)優(yōu)化的迭代匹配過程。

這項工作主要有以下貢獻(xiàn):

首先,將深度網(wǎng)絡(luò)引入到基于圖像的迭代姿態(tài)優(yōu)化問題,而無需任何手工制作的圖像特征,其能夠自動學(xué)習(xí)內(nèi)部優(yōu)化機制;

其次,提出了一種旋轉(zhuǎn)和平移解耦的SE(3)變換表示方法,能夠?qū)崿F(xiàn)精確的姿態(tài)估計,并且能使提出的方法適用于目標(biāo)不在訓(xùn)練集時的姿態(tài)估計問題。

最后,作者在LINEMOD和Occlusion數(shù)據(jù)集上進(jìn)行了大量實驗,以評估DeepIM的準(zhǔn)確性和各種性能。

兩個數(shù)據(jù)集上的實驗結(jié)果表明,作者提出的方法都比當(dāng)前最先進(jìn)的基于RGB的方法性能提高了很多。此外,初步的實驗表明,DeepIM還能夠在對一些訓(xùn)練集中未出現(xiàn)的物體的姿態(tài)進(jìn)行準(zhǔn)確估計。

下面讓我們看看一些算法流程的細(xì)節(jié)。如上圖所示,作者為了獲得足夠的信息進(jìn)行姿態(tài)匹配,對觀測圖像進(jìn)行放大,并在輸入網(wǎng)絡(luò)前進(jìn)行渲染。要注意的是,在每次迭代過程中,都會根據(jù)上一次得到的姿態(tài)估計來重新渲染,這樣才能夠通過迭代來增加姿態(tài)估計的準(zhǔn)確度。DeepIM的網(wǎng)絡(luò)結(jié)構(gòu)圖如下圖所示,輸入觀測圖像、渲染圖像以及對應(yīng)的掩膜。使用FlowNetSimple網(wǎng)絡(luò)第11個卷積層輸出的特征圖作為輸入,然后連接兩個全連接層FC256,最后旋轉(zhuǎn)和平移的估計分別用兩個全連接層FC3和FC4作為輸入。

通常目標(biāo)從初始位置到新位置的旋轉(zhuǎn)與平移變換關(guān)系如上顯示。

一般來說旋轉(zhuǎn)變換會影響最后的平移變換,即兩者是耦合在一起的。如果將旋轉(zhuǎn)中心從相機坐標(biāo)系的原點轉(zhuǎn)移到目標(biāo)中心,就能解耦旋轉(zhuǎn)和平移。但這樣就需要能夠識別每個目標(biāo)并單獨存儲對應(yīng)的坐標(biāo)系,這會使得訓(xùn)練變得復(fù)雜且不能對未知目標(biāo)進(jìn)行姿態(tài)匹配。

在本文的工作中,作者讓坐標(biāo)軸平行于當(dāng)前相機坐標(biāo)軸,這樣可以算得相對旋轉(zhuǎn),后續(xù)實驗證明這樣效果更好。剩下的還要解決相對平移估計問題,一般的方法是直接在三維空間中計算原位置與新位置的xyz距離,但是這種方式既不利于網(wǎng)絡(luò)訓(xùn)練,也不利于處理大小不一、表觀相似的目標(biāo)或未經(jīng)訓(xùn)練的新目標(biāo)。

本文作者采用在二維圖像空間中進(jìn)行回歸估計平移變換,vx和vy分別是圖像水平方向和垂直方向上像素移動的距離,vz表示目標(biāo)尺度變化。其中,fx和fy是相機焦距,由于是常數(shù),在實際訓(xùn)練中作者將其設(shè)為1。

這樣一來,旋轉(zhuǎn)和平移解耦了,這種表示方法不需要目標(biāo)的任何先驗知識,并且能處理一些特殊情況,比如兩個外觀相似的物體,唯一的區(qū)別就是大小不一樣。

關(guān)于模型訓(xùn)練的損失函數(shù),通常直接的方法是將旋轉(zhuǎn)和平移分開計算,比如用角度距離表示旋轉(zhuǎn)誤差,L1距離表示平移誤差,但這種分離的方法很容易讓旋轉(zhuǎn)和平移兩種損失在訓(xùn)練時失衡。本文作者提出了一種同時計算旋轉(zhuǎn)和平移的Point Matching Loss函數(shù),來表達(dá)姿態(tài)真值和估計值之間的損失。其中,xj表示目標(biāo)模型上的三維點,n是總共用來計算損失函數(shù)的點個數(shù),本文中n=3000。

最后總的損失函數(shù)由L=αLpose +βLflow+γLmask組成,其中(α,β,γ)分別為(0.1,0.25,0.03)

實驗部分,作者主要使用了LINEMOD和OCCLUSION數(shù)據(jù)集。如下表顯示,在LINEMOD數(shù)據(jù)集上作者分別用PoseCNN和Faster R-CNN初始化DeepIM網(wǎng)絡(luò),發(fā)現(xiàn)即便兩個網(wǎng)絡(luò)性能差異很大,但是經(jīng)過DeepIM之后仍能得到差不多的結(jié)果。

LINEMOD數(shù)據(jù)集上的方法對比結(jié)果如下表顯示,作者提出的方法是最好的。

在目標(biāo)有遮擋的數(shù)據(jù)集上的實驗,本文提出的方法效果也相當(dāng)不錯哦。

除此之外,本文方法在ModelNet數(shù)據(jù)集上的表現(xiàn)也相當(dāng)驚艷,要注意的是,這些物體都不曾出現(xiàn)在訓(xùn)練集中哦。

利用這種方法實現(xiàn)6D位姿估計是十分有效的,希望能為小伙伴們的研究應(yīng)用帶來啟發(fā)和幫助~

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4798

    瀏覽量

    102472
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1091

    瀏覽量

    40950
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4365

    瀏覽量

    63952

原文標(biāo)題:DeepIM:基于深度網(wǎng)絡(luò)的6D位姿迭代新方法

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    基于LabVIEW8.2提取ECG特征點的新方法

    閾值的方法[4]、差分閾值法[5]、模板匹配法[6]、小波變換法[7,8]、神經(jīng)網(wǎng)絡(luò)法[8]等。這些方法各有所長,但還沒有
    發(fā)表于 11-30 16:52

    一種標(biāo)定陀螺儀的新方法

    一種標(biāo)定陀螺儀的新方法
    發(fā)表于 08-17 12:17

    人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決些非線性,非平穩(wěn),復(fù)雜的實際問題。那有哪些辦法能實現(xiàn)
    發(fā)表于 08-01 08:06

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反
    發(fā)表于 07-12 08:02

    傳感器故障檢測的Powell神經(jīng)網(wǎng)絡(luò)方法

    大型熱力控制系統(tǒng)必須能夠檢測傳感器故障,并采取相應(yīng)的措施,保證控制過程的順利進(jìn)行。提出了一種基于Powell 神經(jīng)網(wǎng)絡(luò)的故障檢測新方法,為系統(tǒng)中每個傳感器構(gòu)造
    發(fā)表于 07-07 09:21 ?6次下載

    基于GA優(yōu)化T_S模糊神經(jīng)網(wǎng)絡(luò)的小電流接地故障選線新方法_王磊

    基于GA優(yōu)化T_S模糊神經(jīng)網(wǎng)絡(luò)的小電流接地故障選線新方法_王磊
    發(fā)表于 12-31 14:45 ?0次下載

    一種基于深度神經(jīng)網(wǎng)絡(luò)的基音檢測算法

    一種基于深度神經(jīng)網(wǎng)絡(luò)的基音檢測算法_曹猛
    發(fā)表于 01-07 19:08 ?0次下載

    一種改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測方法

    為了在行人檢測任務(wù)中使卷積神經(jīng)網(wǎng)絡(luò)(CNN)選擇出更優(yōu)模型并獲得定位更準(zhǔn)確的檢測框,提出一種改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測方法。改進(jìn)主要涉及兩個方面:如何決定CNN樣本
    發(fā)表于 12-01 15:23 ?0次下載
    <b class='flag-5'>一種</b>改進(jìn)的基于卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的行人檢測<b class='flag-5'>方法</b>

    DENSER是一種用進(jìn)化算法自動設(shè)計人工神經(jīng)網(wǎng)絡(luò)(ANNs)的新方法

    深度進(jìn)化網(wǎng)絡(luò)結(jié)構(gòu)表示(DENSER)是一種用進(jìn)化算法自動設(shè)計人工神經(jīng)網(wǎng)絡(luò)(ANNs)的新方法。該算法不僅能搜索最佳
    的頭像 發(fā)表于 01-10 15:49 ?7033次閱讀
    DENSER是<b class='flag-5'>一種</b>用進(jìn)化算法自動設(shè)計人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(ANNs)的<b class='flag-5'>新方法</b>

    一種改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索方法

    為提升網(wǎng)絡(luò)結(jié)構(gòu)的尋優(yōu)能力,提岀一種改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索方法。針對網(wǎng)絡(luò)結(jié)構(gòu)間距難以度量的問題
    發(fā)表于 03-16 14:05 ?3次下載
    <b class='flag-5'>一種</b>改進(jìn)的<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>結(jié)構(gòu)搜索<b class='flag-5'>方法</b>

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)一種基于神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)算法,其主要特點是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整神經(jīng)
    發(fā)表于 08-21 17:07 ?4505次閱讀

    一種基于MCU的神經(jīng)網(wǎng)絡(luò)模型在線更新方案之?dāng)?shù)據(jù)處理篇

    一種基于MCU的神經(jīng)網(wǎng)絡(luò)模型在線更新方案之?dāng)?shù)據(jù)處理篇
    的頭像 發(fā)表于 10-17 18:06 ?693次閱讀
    <b class='flag-5'>一種</b>基于MCU的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型在線更<b class='flag-5'>新方</b>案之?dāng)?shù)據(jù)處理篇

    一種基于MCU的神經(jīng)網(wǎng)絡(luò)模型靈活更新方案之先行篇

    一種基于MCU的神經(jīng)網(wǎng)絡(luò)模型靈活更新方案之先行篇
    的頭像 發(fā)表于 10-17 17:48 ?742次閱讀

    淺析深度神經(jīng)網(wǎng)絡(luò)壓縮與加速技術(shù)

    深度神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的一種框架,它是一種具備至少個隱層的
    的頭像 發(fā)表于 10-11 09:14 ?961次閱讀
    淺析<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>壓縮與加速技術(shù)