chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

融合3D場(chǎng)景幾何信息的視覺(jué)定位算法

機(jī)器人創(chuàng)新生態(tài) ? 來(lái)源:機(jī)器人創(chuàng)新生態(tài) ? 作者:機(jī)器人創(chuàng)新生態(tài) ? 2020-11-13 10:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

視覺(jué)定位是自動(dòng)駕駛和移動(dòng)機(jī)器人領(lǐng)域的核心技術(shù)之一,旨在估計(jì)移動(dòng)平臺(tái)當(dāng)前的全局位姿,為環(huán)境感知和路徑規(guī)劃等其他環(huán)節(jié)提供參考和指導(dǎo)。國(guó)內(nèi)知名互聯(lián)網(wǎng)公司-美團(tuán)無(wú)人配送團(tuán)隊(duì)長(zhǎng)期在該方面進(jìn)行深入探索,積累了大量創(chuàng)新性工作。不久前,視覺(jué)定位組提出的融合3D場(chǎng)景幾何信息的視覺(jué)定位算法被ICRA2020收錄,本文將對(duì)該方法進(jìn)行介紹。

背景

1. 視覺(jué)定位算法介紹1.1 傳統(tǒng)視覺(jué)定位算法 傳統(tǒng)的視覺(jué)定位方法通常需要預(yù)先構(gòu)建視覺(jué)地圖,然后在定位階段,根據(jù)當(dāng)前圖像和地圖的匹配關(guān)系來(lái)估計(jì)相機(jī)的位姿(位置和方向)。在這種定位框架中,視覺(jué)地圖通常用帶有三維信息和特征描述子的稀疏關(guān)鍵點(diǎn)表示。然后,通過(guò)當(dāng)前圖像與地圖之間的關(guān)鍵點(diǎn)匹配獲取2D-3D對(duì)應(yīng)關(guān)系,利用PnP結(jié)合RANSAC的策略來(lái)估計(jì)相機(jī)位姿。其中,獲得準(zhǔn)確的2D-3D對(duì)應(yīng)關(guān)系對(duì)定位結(jié)果至關(guān)重要。近年來(lái),許多工作為提高2D-3D的匹配精度進(jìn)行了各方面的探索,但大多傳統(tǒng)方法[1,3,4]還是基于SIFT、SURF、ORB等底層特征,很難處理具有挑戰(zhàn)性(光照改變或季節(jié)改變)的情況。

1.2 深度學(xué)習(xí)視覺(jué)定位算法 最近幾年,融合神經(jīng)網(wǎng)絡(luò)的視覺(jué)定位算法被廣泛研究,大家希望用神經(jīng)網(wǎng)絡(luò)取代傳統(tǒng)方法中的部分模塊(例如關(guān)鍵點(diǎn)和描述子生成)或者直接端到端的估計(jì)相機(jī)位姿。本論文研究?jī)?nèi)容屬于對(duì)后面這種類(lèi)型算法的優(yōu)化。端到端視覺(jué)定位算法用神經(jīng)網(wǎng)絡(luò)的權(quán)值來(lái)表征場(chǎng)景信息,網(wǎng)絡(luò)的訓(xùn)練過(guò)程實(shí)現(xiàn)建圖,定位由網(wǎng)絡(luò)的推理過(guò)程實(shí)現(xiàn)。PoseNet[2]是第一個(gè)基于神經(jīng)網(wǎng)絡(luò)的端到端視覺(jué)定位算法,它利用GoogLeNet的基礎(chǔ)架構(gòu)直接對(duì)輸入的RGB圖像進(jìn)行6DoF相機(jī)位姿回歸。在該思路的基礎(chǔ)上,后續(xù)的改進(jìn)包括加深網(wǎng)絡(luò)結(jié)構(gòu)、增加約束關(guān)系、融合時(shí)序信息和多任務(wù)聯(lián)合建模等,例如,[5]加入貝葉斯CNN來(lái)建模精度不確定性;[6]將網(wǎng)絡(luò)改為encoder-decoder結(jié)構(gòu);[7]和[8]引入了LSTM,利用視頻流的時(shí)間和運(yùn)動(dòng)平滑性約束網(wǎng)絡(luò)學(xué)習(xí);[9]和[10]提出了多任務(wù)學(xué)習(xí)框架,聯(lián)合建模視覺(jué)定位、里程計(jì)估計(jì)和語(yǔ)義分割三個(gè)任務(wù),以上的工作都取得了定位精度的提升。

1.3 研究目的及意義 在上述提到的優(yōu)化方法中,雖然[9]和[10]在定位精度上表現(xiàn)的更有優(yōu)勢(shì),但是往往需要語(yǔ)義分割等大量的標(biāo)注信息,在大規(guī)模的場(chǎng)景下代價(jià)太大。對(duì)于加深網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化方法,又可能帶來(lái)訓(xùn)練的難度,因此,我們認(rèn)為合理利用容易獲取的信息來(lái)優(yōu)化約束關(guān)系,具有更好的普適性和靈活性,這也是本研究的動(dòng)機(jī)之一。一些其他研究者也在這方面開(kāi)展了工作,例如受傳統(tǒng)方法的啟發(fā),幾何一致性誤差、重投影誤差、相對(duì)變換誤差等被構(gòu)建為正則化項(xiàng)加入損失函數(shù)中。這些改進(jìn)比僅公式化預(yù)測(cè)位姿和真值位姿之間歐式距離的效果更好,并且不受網(wǎng)絡(luò)結(jié)構(gòu)的約束,可以靈活的適用于各種網(wǎng)絡(luò)做進(jìn)一步的性能提升。

在此基礎(chǔ)上,我們進(jìn)一步探索以更好的方式用幾何信息來(lái)約束網(wǎng)絡(luò)權(quán)重的更新。在SLAM應(yīng)用和無(wú)人車(chē)平臺(tái)中,深度信息是不可或缺的。例如,室內(nèi)情況,利用現(xiàn)有的深度估計(jì)算法,可以直接從結(jié)構(gòu)光相機(jī)、ToF相機(jī)或立體相機(jī)中獲取深度信息;室外環(huán)境,通常采用三維激光雷達(dá)來(lái)獲取深度/距離信息。因此,我們的改進(jìn)也對(duì)深度信息加以利用。此外,我們使用了光度一致性的假設(shè),也就是說(shuō),根據(jù)三維幾何知識(shí),當(dāng)在多個(gè)圖像中觀察三維場(chǎng)景中的同一個(gè)點(diǎn)時(shí),我們認(rèn)為其對(duì)應(yīng)的像素強(qiáng)度應(yīng)該是相同的,這也被用于許多視覺(jué)里程計(jì)或光流算法。受此啟發(fā),我們構(gòu)建了光度差損失項(xiàng),并自然而然地搭配結(jié)構(gòu)相似性(SSIM)損失項(xiàng)。前者為像素級(jí)約束,后者為圖像級(jí)約束,和常用的歐式距離一起作為網(wǎng)絡(luò)的損失函數(shù),訓(xùn)練過(guò)程中約束網(wǎng)絡(luò)權(quán)重的更新。我們優(yōu)化后的損失函數(shù)融合了運(yùn)動(dòng)信息、3D場(chǎng)景幾何信息和圖像內(nèi)容,幫助訓(xùn)練過(guò)程更高效、定位效果更準(zhǔn)確。

2. 相關(guān)工作介紹2.1 幾何一致性約束 幾何一致性約束最近被用來(lái)幫助提高位姿回歸的準(zhǔn)確性,并被證明比單獨(dú)使用歐氏距離約束更有效。[9]和[10]通過(guò)懲罰與相對(duì)運(yùn)動(dòng)相矛盾的位姿預(yù)測(cè),將幾何一致性引入到損失函數(shù)中。[11]利用圖像對(duì)之間的相對(duì)運(yùn)動(dòng)一致性來(lái)約束絕對(duì)位姿的預(yù)測(cè)。[12]引入了重投影誤差,使用真值和預(yù)測(cè)位姿分別將3D點(diǎn)投影到2D圖像平面上,將像素點(diǎn)位置的偏差作為約束項(xiàng)。這些方法都被認(rèn)為是當(dāng)時(shí)使用幾何一致性損失的最先進(jìn)方法。在本研究中,我們探索了一個(gè)3D場(chǎng)景幾何約束即光度差約束,通過(guò)聚合三維場(chǎng)景幾何結(jié)構(gòu)信息,使得網(wǎng)絡(luò)不僅能將預(yù)測(cè)的位姿與相機(jī)運(yùn)動(dòng)對(duì)齊,還能利用圖像內(nèi)容的光度一致性。

2.2 光度差約束 光度差約束通常用于處理帶監(jiān)督或無(wú)監(jiān)督學(xué)習(xí)的相對(duì)位姿回歸、光流估計(jì)和深度預(yù)測(cè)。例如,[13]研究了視頻序列的時(shí)間關(guān)系,為深度補(bǔ)全網(wǎng)絡(luò)提供額外的監(jiān)督。[14]利用無(wú)監(jiān)督學(xué)習(xí)的稠密深度和帶有光度差損失的相機(jī)位姿構(gòu)建了神經(jīng)網(wǎng)絡(luò),以學(xué)習(xí)場(chǎng)景級(jí)一致性運(yùn)動(dòng)。[15]提出了一種多任務(wù)無(wú)監(jiān)督學(xué)習(xí)稠密深度、光流和ego-motion的方法,其中光度差約束對(duì)不同任務(wù)之間的一致性起著重要作用。由于光度差約束在相對(duì)位姿回歸和深度預(yù)測(cè)中被證明是有效的,我們引入并驗(yàn)證了它在絕對(duì)位姿預(yù)測(cè)中的有效性。 與上述工作相比,我們的研究擴(kuò)展了以下幾點(diǎn)工作:

搭建了一個(gè)深度神經(jīng)網(wǎng)絡(luò)模型,可以直接從輸入圖像估計(jì)相應(yīng)的相機(jī)絕對(duì)位姿。

利用深度傳感器信息,構(gòu)建了 3D 場(chǎng)景幾何約束來(lái)提高位姿預(yù)測(cè)精度。并且,稀疏深度信息足以獲得顯著的定位精度提升,這意味著我們的方法可以適用于任何類(lèi)型的深度傳感器(稀疏或稠密)。

在室內(nèi)和室外數(shù)據(jù)集上進(jìn)行了廣泛的實(shí)驗(yàn)評(píng)估,證明了加入 3D 場(chǎng)景幾何約束后,可以提高網(wǎng)絡(luò)的定位精度,并且這一約束可以靈活地加入到其他網(wǎng)絡(luò)中,幫助進(jìn)一步提高算法性能。

算法介紹

1. 算法框架

本研究提出的算法框架和數(shù)據(jù)流如圖a所示,藍(lán)色部分是算法中的神經(jīng)網(wǎng)絡(luò)部分(圖b),綠色部分是warping計(jì)算過(guò)程,黃色部分是網(wǎng)絡(luò)的損失函數(shù)項(xiàng),只有藍(lán)色部分包含可訓(xùn)練的權(quán)重。 藍(lán)色部分的網(wǎng)絡(luò)模型采用主流的ResNet-50網(wǎng)絡(luò),保留原來(lái)的block設(shè)置,并在最后一個(gè)block后加入3個(gè)全連接層,分別預(yù)測(cè)3維的translation(x)和3維的rotation(q)。網(wǎng)絡(luò)的訓(xùn)練過(guò)程需要輸入兩張連續(xù)的有共視的圖像以及其中一張圖像的深度圖,建立真值位姿和預(yù)測(cè)位姿之間的歐式距離約束作為損失項(xiàng)。大部分先前文獻(xiàn)中的工作僅以這個(gè)損失項(xiàng)作為損失函數(shù),我們的工作則進(jìn)一步融入了3D場(chǎng)景幾何信息,通過(guò)利用比較容易獲取的深度信息將這個(gè)約束公式化為光度差和SSIM。相比之下,3D場(chǎng)景幾何約束是像素級(jí)的,可以利用更多的信息包括相機(jī)運(yùn)動(dòng),場(chǎng)景的三維結(jié)構(gòu)信息和圖像內(nèi)容相關(guān)的光度信息,從而使網(wǎng)絡(luò)的學(xué)習(xí)更加高效,更好地朝著全局極小值的方向收斂。

2.Warping計(jì)算 綠色部分的warping計(jì)算利用連續(xù)兩張圖像之間的相對(duì)位姿變換和其中一張圖像的深度圖,將本張圖像上的像素投影到另一張圖像的視角上,生成視warping后的圖像,計(jì)算公式如下所示。

在warping計(jì)算中,從二維圖像像素重建三維結(jié)構(gòu)需要深度信息,實(shí)際應(yīng)用中我們可以從深度傳感器(結(jié)構(gòu)光相機(jī)、ToF相機(jī)和三維激光雷達(dá))獲取深度信息或通過(guò)相關(guān)算法回歸深度,例如從兩個(gè)重疊的圖像中提取匹配點(diǎn)的三角測(cè)量方法。為了不引入誤差,我們更傾向于選擇來(lái)自深度傳感器的比較魯棒的深度信息。為了方便反向傳播的梯度計(jì)算,我們采用雙線(xiàn)性插值作為采樣機(jī)制,生成與當(dāng)前圖像格式相同的合成圖像。此外,這部分計(jì)算不含可訓(xùn)練的參數(shù),并且inference過(guò)程不需要進(jìn)行這部分的計(jì)算,因此不會(huì)帶來(lái)額外的時(shí)間或者資源開(kāi)銷(xiāo)。 3. 損失函數(shù) 在訓(xùn)練過(guò)程中,應(yīng)用了三個(gè)約束條件來(lái)幫助訓(xùn)練收斂:一個(gè)經(jīng)典的歐式距離損失項(xiàng)來(lái)約束預(yù)測(cè)位姿和真值位姿的距離,歐式距離損失項(xiàng)此處不再贅述,直接給出公式如下:

? 當(dāng)視角變化較小且環(huán)境光不變時(shí),同一個(gè)三維點(diǎn)在不同圖像中的光強(qiáng)應(yīng)該相同。這種光度一致性用于解決許多問(wèn)題,如光流估計(jì)、深度估計(jì)、視覺(jué)里程計(jì)等。在這里,我們使用它來(lái)進(jìn)行絕對(duì)位姿估計(jì),并光度差損失項(xiàng)公式化為warping計(jì)算后的圖像與原始圖像對(duì)應(yīng)像素點(diǎn)的光度差值: ?

其中,M是用來(lái)過(guò)濾沒(méi)有深度信息或者不服從光度一致性的像素。在我們的實(shí)驗(yàn)中,主要用它來(lái)屏蔽兩種類(lèi)型的像素:移動(dòng)目標(biāo)對(duì)應(yīng)的像素和帶有無(wú)效深度信息的像素。光度差損失項(xiàng)會(huì)約束預(yù)測(cè)的位姿離真值位姿不遠(yuǎn),以保證在相鄰圖像間進(jìn)行warping計(jì)算后重建的圖像與原始圖像對(duì)應(yīng)像素的光度值一致??紤]到warping計(jì)算后,獲得了視角重建后的圖像,自然而然的引入結(jié)構(gòu)相似性約束作為損失項(xiàng)。這個(gè)約束反映了場(chǎng)景結(jié)構(gòu)的一致性,計(jì)算公式如下所示:

網(wǎng)絡(luò)的損失函數(shù)定義為三個(gè)損失項(xiàng)的加權(quán)和,用三個(gè)加權(quán)系數(shù)進(jìn)行尺度均衡。

實(shí)驗(yàn)結(jié)果

為了驗(yàn)證我們提出的算法的性能,進(jìn)行了以下實(shí)驗(yàn): 1. 與其他算法定位結(jié)果對(duì)比 在7Scene數(shù)據(jù)集中,除了MapNet[11]在chess場(chǎng)景中的表現(xiàn)稍好之外,我們的方法在其他場(chǎng)景都取得了最優(yōu)的結(jié)果(見(jiàn)table 1)。在所需的訓(xùn)練時(shí)間上,MapNet 需要300個(gè)epochs和PoseNet[2]需要多于120個(gè)epochs,我們的方法只需要50個(gè)epochs。同時(shí),在室外的Oxford robotcar數(shù)據(jù)集上,我們的方法也取得了較大的定位精度提升。Figure2顯示了在7Scene中隨機(jī)挑選的場(chǎng)景的測(cè)試結(jié)果。很明顯,PoseNet的預(yù)測(cè)位姿噪聲較大,MapNet表現(xiàn)的更穩(wěn)定,但預(yù)測(cè)精度欠佳,我們的定位結(jié)果更為精確。

2. 損失項(xiàng)的消融實(shí)驗(yàn) 為了充分驗(yàn)證我們提出的光度差損失和SSIM損失對(duì)視覺(jué)定位算法性能提升的貢獻(xiàn),分別進(jìn)行兩個(gè)訓(xùn)練:在PoseNet網(wǎng)絡(luò)的損失函數(shù)中加入光度差損失和SSIM損失后訓(xùn)練網(wǎng)絡(luò)。在我們的算法中去掉這兩項(xiàng)損失項(xiàng),只在歐式距離的約束下訓(xùn)練網(wǎng)絡(luò)。結(jié)果表明加入光度差和SSIM損失項(xiàng)總是能提高網(wǎng)絡(luò)的定位性能(詳細(xì)結(jié)果見(jiàn)論文)。同時(shí),也表明新的損失項(xiàng)可以靈活的加入其他網(wǎng)絡(luò),用于進(jìn)一步提高定位精度。

3. 深度稀疏實(shí)驗(yàn) 實(shí)際視覺(jué)定位應(yīng)用中,并不總是有可靠的稠密深度可用,如果我們的算法在稀疏深度上依然可以表現(xiàn)的很好,則可以證明我們的方法具有較廣泛的適用性。我們把可用的深度隨機(jī)稀疏至原來(lái)的20%和60%后,重新訓(xùn)練網(wǎng)絡(luò),最終的結(jié)果如Table3所示,定位精度并沒(méi)有被嚴(yán)重惡化。

4. 自監(jiān)督方法的實(shí)驗(yàn) 在進(jìn)行warping計(jì)算時(shí),我們用了輸入兩幀圖像的位姿預(yù)測(cè)結(jié)果來(lái)計(jì)算相對(duì)位姿變換,進(jìn)而做warping計(jì)算,單就光度差和SSIM損失項(xiàng)來(lái)說(shuō),這是一種自監(jiān)督的學(xué)習(xí)方法,那么,也可以一幀圖像用預(yù)測(cè)結(jié)果,另一幀用真值來(lái)計(jì)算相對(duì)位姿變換。通過(guò)實(shí)驗(yàn)對(duì)比這兩種方法,實(shí)驗(yàn)結(jié)果(詳細(xì)結(jié)果見(jiàn)論文)表明,自監(jiān)督策略的結(jié)果更優(yōu)。除了網(wǎng)絡(luò)被訓(xùn)練的次數(shù)更多這一原因外,它有助于網(wǎng)絡(luò)以一種更自然的方式學(xué)習(xí)相機(jī)位姿的連續(xù)性和一致性,因?yàn)閷?duì)于共視的圖像,其相應(yīng)的位姿應(yīng)該是高度相關(guān)的。

結(jié)論與展望

本文提出了一種新的視覺(jué)定位算法,搭建一個(gè)新的網(wǎng)絡(luò)框架端到端的估計(jì)相機(jī)位姿,在對(duì)網(wǎng)絡(luò)約束關(guān)系的優(yōu)化中,通過(guò)融合3D場(chǎng)景幾何結(jié)構(gòu)、相機(jī)運(yùn)動(dòng)和圖像信息,引入了3D場(chǎng)景幾何約束,幫助監(jiān)督網(wǎng)絡(luò)訓(xùn)練,提高網(wǎng)絡(luò)的定位精度。實(shí)驗(yàn)結(jié)果表明,我們的方法優(yōu)于以往的同類(lèi)型工作。并且,在不同的網(wǎng)絡(luò)中加入新的約束關(guān)系后可以進(jìn)一步提高定位精度。

基于深度學(xué)習(xí)的視覺(jué)定位算法正在被廣泛而又深入的研究,無(wú)論是提升算法的精度還是增強(qiáng)實(shí)際場(chǎng)景的適用性,各方面的嘗試和努力都是迫切需要的。希望在未來(lái)的工作中,能夠通過(guò)融入語(yǔ)義信息或者采用從粗到精多階段級(jí)連的方法,在室內(nèi)外場(chǎng)景上實(shí)現(xiàn)更高精度更加魯棒的位姿估計(jì),更多細(xì)節(jié)見(jiàn)論文.

論文原文:3D Scene Geometry-Aware Constraint for Camera Localization with Deep Learning 鏈接:https://arxiv.org/abs/2005.06147 參考文獻(xiàn) [1] Ke, Yan and R. Sukthankar. “PCA-SIFT: a more distinctive representation for local image descriptors.” Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2004. [2] A. Kendall, M. Grimes, and R. Cipolla, “Posenet: A convolutional network for real-time 6-dof camera relocalization,” in ICCV, 2015. [3] Bay, Herbert, et al. “Speeded-up robust features (SURF).” Computer vision and image understanding 110.3 (2008): 346-359.

[4] Rublee, Ethan, et al. “ORB:An efficient alternative to SIFT or SURF.” ICCV. Vol. 11. No. 1. 2011. [5] A. Kendall and R. Cipolla,“Modelling uncertainty in deep learning for camera relocalization,” ICRA, 2016. [6] I. Melekhov, J. Ylioinas, J. Kannala, and E. Rahtu, “Image-based localization using hourglass networks,” arXiv:1703.07971, 2017. [7] F. Walch, C. Hazirbas, et al.,“Image-based localization using lstms for structured feature correlation,” in ICCV, 2017. [8] Xue, Fei, et al. “Beyond Tracking: Selecting Memory and RefiningPoses for Deep Visual Odometry.” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019

[9] A. Valada, N. Radwan, and W. Burgard, “Deep auxiliary learning for visual localization and odometry,” in ICRA, 2018. [10] N. Radwan, A. Valada, W. Burgard, “VLocNet++: Deep MultitaskLearning for Semantic Visual Localization and Odometry”, IEEE Robotics and Automation Letters (RA-L), 3(4): 4407-4414, 2018. [11] Brahmbhatt, Samarth, et al. “Geometry-aware learning of maps for camera localization.” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018. [12] A. Kendall and R. Cipolla, “Geometric loss functions for camera pose regression with deep learning,” CVPR, 2017. [13] Ma, Fang chang, Guilherme Venturelli Cavalheiro, and Sertac Karaman.“Self-supervised sparse-to-dense: Self-supervised depth completion from lidar and monocular camera.” 2019 International Conference on Robotics and Automation (ICRA). IEEE, 2019. [14] Zhou, Tinghui, et al. “Unsupervised Learning of Depth and Ego-Motion from Video.” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017. [15] Yin, Zhichao, and Jianping Shi. “Geonet: Unsupervised learning of dense depth, optical flow and camera pose.” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.

責(zé)任編輯:xj

原文標(biāo)題:機(jī)器視覺(jué)干貨 | 場(chǎng)景幾何約束在視覺(jué)定位中的探索

文章出處:【微信公眾號(hào):機(jī)器人創(chuàng)新生態(tài)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    30240

    瀏覽量

    217710
  • 機(jī)器視覺(jué)
    +關(guān)注

    關(guān)注

    163

    文章

    4670

    瀏覽量

    124419
  • 視覺(jué)定位
    +關(guān)注

    關(guān)注

    5

    文章

    57

    瀏覽量

    12841

原文標(biāo)題:機(jī)器視覺(jué)干貨 | 場(chǎng)景幾何約束在視覺(jué)定位中的探索

文章出處:【微信號(hào):robotplaces,微信公眾號(hào):機(jī)器人創(chuàng)新生態(tài)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人形機(jī)器人 3D 視覺(jué)路線(xiàn)之爭(zhēng):激光雷達(dá)、雙目和 3D - ToF 誰(shuí)更勝一籌?

    任務(wù),顯著提升人形機(jī)器人的安全性與魯棒性。 ? 相較于其他類(lèi)型的傳感器,3D 視覺(jué)傳感器具有精度高、信息量大、集成度高等諸多優(yōu)勢(shì)。浙商證券的研究指出,機(jī)器人視覺(jué)承擔(dān)了 80% 的
    的頭像 發(fā)表于 04-15 00:14 ?3196次閱讀

    使用NVIDIA AI Blueprint打造3D世界

    在傳統(tǒng)工作流中,建模師必須構(gòu)建占位模型、低精度資產(chǎn)來(lái)填充 3D 場(chǎng)景,優(yōu)化核心資產(chǎn)以完成場(chǎng)景。之后,可以?xún)?yōu)化、細(xì)化并最終完成視覺(jué)效果。
    的頭像 發(fā)表于 09-23 14:35 ?594次閱讀

    季豐電子邀您相約2025國(guó)際3D視覺(jué)感知與應(yīng)用大會(huì)

    9月20日 - 21日,國(guó)際3D視覺(jué)感知與應(yīng)用大會(huì)將在蘇州太湖國(guó)際會(huì)議中心盛大啟幕,大會(huì)議題涵蓋3D成像與測(cè)量、3D視覺(jué)、
    的頭像 發(fā)表于 09-08 15:03 ?592次閱讀

    iTOF技術(shù),多樣化的3D視覺(jué)應(yīng)用

    視覺(jué)傳感器對(duì)于機(jī)器信息獲取至關(guān)重要,正在從二維(2D)發(fā)展到三維(3D),在某些方面模仿并超越人類(lèi)的視覺(jué)能力,從而推動(dòng)創(chuàng)新應(yīng)用。
    發(fā)表于 09-05 07:24

    翌視科技3D視覺(jué)再升級(jí)

    近日,2025翌視科技LVM3000系列新品發(fā)布會(huì)以線(xiàn)上直播形式舉行,超萬(wàn)名合作伙伴共同見(jiàn)證國(guó)產(chǎn)3D視覺(jué)技術(shù)的突破性進(jìn)展。此次發(fā)布的LVM3000系列不僅展現(xiàn)了其“超規(guī)格” 實(shí)力,更宣告了國(guó)產(chǎn)3D
    的頭像 發(fā)表于 08-12 14:44 ?1357次閱讀

    3D視覺(jué)引領(lǐng)工業(yè)變革

    隨著工業(yè)智能化的推進(jìn),3D視覺(jué)技術(shù)正為制造業(yè)帶來(lái)變革。市場(chǎng)規(guī)模逐年擴(kuò)大,技術(shù)應(yīng)用與市場(chǎng)競(jìng)爭(zhēng)日益激烈。
    的頭像 發(fā)表于 07-07 11:08 ?324次閱讀
    <b class='flag-5'>3D</b><b class='flag-5'>視覺(jué)</b>引領(lǐng)工業(yè)變革

    海伯森3D閃測(cè)傳感器,工業(yè)檢測(cè)領(lǐng)域的高精度利器

    隨著信息技術(shù)的飛速進(jìn)步,第四次視覺(jué)革命深度融合“人”“機(jī)”“物”,基于光學(xué)原理的3D視覺(jué)檢測(cè)技術(shù)迎來(lái)爆發(fā)式發(fā)展,成為工業(yè)生產(chǎn)中更高效的檢測(cè)利
    的頭像 發(fā)表于 06-20 17:46 ?1151次閱讀
    海伯森<b class='flag-5'>3D</b>閃測(cè)傳感器,工業(yè)檢測(cè)領(lǐng)域的高精度利器

    黑芝麻智能視覺(jué)與4D毫米波雷達(dá)前融合算法介紹

    本文介紹了黑芝麻智能視覺(jué)與4D毫米波雷達(dá)前融合算法,通過(guò)多模態(tài)特征對(duì)齊和時(shí)序建模,顯著提升逆光、遮擋等復(fù)雜場(chǎng)景下的目標(biāo)檢測(cè)精度,增強(qiáng)輔助駕駛安全性。
    的頭像 發(fā)表于 05-08 09:27 ?1392次閱讀
    黑芝麻智能<b class='flag-5'>視覺(jué)</b>與4<b class='flag-5'>D</b>毫米波雷達(dá)前<b class='flag-5'>融合算法</b>介紹

    一種以圖像為中心的3D感知模型BIP3D

    在具身智能系統(tǒng)中,3D感知算法是一個(gè)關(guān)鍵組件,它在端側(cè)幫助可以幫助智能體理解環(huán)境信息,在云端可以用來(lái)輔助生成3D場(chǎng)景
    的頭像 發(fā)表于 03-17 13:44 ?751次閱讀
    一種以圖像為中心的<b class='flag-5'>3D</b>感知模型BIP<b class='flag-5'>3D</b>

    對(duì)于結(jié)構(gòu)光測(cè)量、3D視覺(jué)的應(yīng)用,使用100%offset的lightcrafter是否能用于點(diǎn)云生成的應(yīng)用?

    offset的設(shè)備有區(qū)別嗎,能用zero offset的算法來(lái)用于100% offset的投影場(chǎng)景嗎?100%offset成像模型滿(mǎn)足和相機(jī)一樣的小孔成像原理嗎? 對(duì)于3D視覺(jué)的應(yīng)用
    發(fā)表于 02-28 06:20

    英倫科技裸眼3D便攜屏有哪些特點(diǎn)?

    英倫科技裸眼3D便攜屏采用了領(lǐng)先的光場(chǎng)裸眼3D技術(shù),無(wú)需佩戴3D眼鏡即可觀看,給用戶(hù)帶來(lái)裸眼看3D視頻的體驗(yàn),為用戶(hù)帶來(lái)更加便捷和自由的視覺(jué)
    的頭像 發(fā)表于 02-06 14:20 ?679次閱讀
    英倫科技裸眼<b class='flag-5'>3D</b>便攜屏有哪些特點(diǎn)?

    從2D走向3D視覺(jué)傳感器

    ,視覺(jué)傳感器開(kāi)始向3D發(fā)展,帶給家用場(chǎng)景下更豐富和完善的功能。 ? 視覺(jué)傳感器的發(fā)展 ? 視覺(jué)傳感器的概念最早在20世紀(jì)50年代后期開(kāi)始形成
    的頭像 發(fā)表于 12-27 00:22 ?3119次閱讀

    激光錫焊視覺(jué)定位技術(shù)的應(yīng)用場(chǎng)景

    本文主要介紹視覺(jué)定位概念、一種基于視覺(jué)定位的激光焊接系統(tǒng)的結(jié)構(gòu)和組成,及該焊接系統(tǒng)在某些特定場(chǎng)景的具體應(yīng)用。
    的頭像 發(fā)表于 12-13 09:10 ?613次閱讀
    激光錫焊<b class='flag-5'>視覺(jué)</b><b class='flag-5'>定位</b>技術(shù)的應(yīng)用<b class='flag-5'>場(chǎng)景</b>

    3D 視覺(jué)定位技術(shù):汽車(chē)零部件制造的智能變革引擎

    在汽車(chē)零部件制造領(lǐng)域,傳統(tǒng)工藝正面臨著前所未有的挑戰(zhàn)。市場(chǎng)對(duì)于零部件精度與生產(chǎn)效率近乎苛刻的要求,促使企業(yè)尋求突破之道。而 3D 視覺(jué)定位技術(shù),為汽車(chē)零部件制造開(kāi)啟了精準(zhǔn)定位與智能化生
    的頭像 發(fā)表于 12-10 17:28 ?1205次閱讀
    <b class='flag-5'>3D</b> <b class='flag-5'>視覺(jué)</b><b class='flag-5'>定位</b>技術(shù):汽車(chē)零部件制造的智能變革引擎

    一種全新開(kāi)源SfM框架MASt3R

    運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SfM)是計(jì)算機(jī)視覺(jué)領(lǐng)域一個(gè)長(zhǎng)期存在的問(wèn)題,旨在根據(jù)每個(gè)相機(jī)拍攝的圖像來(lái)估計(jì)場(chǎng)景3D幾何結(jié)構(gòu)以及觀測(cè)該場(chǎng)景的相機(jī)的參數(shù)。由于
    的頭像 發(fā)表于 10-28 14:13 ?2369次閱讀
    一種全新開(kāi)源SfM框架MASt<b class='flag-5'>3</b>R