chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的視覺SLAM綜述

INDEMIND ? 來源:INDEMIND ? 作者:INDEMIND ? 2022-12-02 15:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著計算機視覺機器人技術(shù)的發(fā)展,視覺同時定位與地圖創(chuàng)建已成為無人系統(tǒng)領(lǐng)域的研究焦點,深度學(xué)習(xí)在圖像處理方面展現(xiàn)出的強大優(yōu)勢,為二者的廣泛結(jié)合創(chuàng)造了機會。總結(jié)了深度學(xué)習(xí)與視覺里程計、閉環(huán)檢測和語義同時定位與地圖創(chuàng)建結(jié)合的突出研究成果,對傳統(tǒng)算法與基于深度學(xué)習(xí)的方法做了對比,展望了基于深度學(xué)習(xí)的視覺同時定位與地圖創(chuàng)建發(fā)展方向。

01引言

同時定位與地圖創(chuàng)建(Simultaneous Localization and Mapping,SLAM),是指在陌生環(huán)境中,機器實現(xiàn)環(huán)境感知、理解和完成自身定位,以及路徑規(guī)劃[1-2]。在某些特殊場合可以代替人工,比如軍事,交通,服務(wù)業(yè)等領(lǐng)域。長期以來,定位是實現(xiàn)路徑規(guī)劃的前提,在定位時,機器的首要任務(wù)是對周圍環(huán)境的感知,然后對其刻畫?,F(xiàn)有許多針對已知先驗環(huán)境信息的機器自主定位和地圖創(chuàng)建的解決方法[1]。但是在大多情況下,事先獲取環(huán)境先驗信息很困難,因此,需要機器在陌生環(huán)境中,移動時一邊計算自身位置,一邊創(chuàng)建環(huán)境地圖[3]。這也促進了SLAM的研究,隨著算法和傳感器的發(fā)展,SLAM研究近些年來取得了巨大突破。

SLAM本質(zhì)上是一個狀態(tài)估計問題,根據(jù)傳感器做劃分,主要是激光、視覺兩大類。激光SLAM的研究在理論和工程上都比較成熟,現(xiàn)有的很多行業(yè)已經(jīng)開始使用激光SLAM完成工業(yè)工作;而視覺SLAM (Visual SLAM,VSLAM)是將圖像作為主要環(huán)境感知信息源的SLAM系統(tǒng),VSLAM以計算相機位姿為主要目標(biāo),通過多視幾何方法構(gòu)建3D地圖[4],視覺SLAM還處于實驗室研究階段,實際應(yīng)用較少。SLAM系統(tǒng)的處理過程一般都是分為2個階段:幀間估計和后端優(yōu)化[5],這種處理方式是由PTAM[6]首先提出并實現(xiàn)的,它區(qū)分出前后端完成特征點跟蹤和建圖的并行化,前端跟蹤需要實時響應(yīng)圖像數(shù)據(jù),地圖優(yōu)化放在后端進行,后續(xù)許多視覺SLAM系統(tǒng)設(shè)計也采取類似的結(jié)構(gòu)[5]。另外,PTAM也是第一個在后端優(yōu)化使用非線性優(yōu)化的系統(tǒng),提出了關(guān)鍵幀(keyframes)機制,不用精細(xì)處理每一幅圖像,而是把幾個關(guān)鍵圖像串起來優(yōu)化其軌跡和地圖。在整個SLAM系統(tǒng)中,幀間估計是根據(jù)相鄰兩幀間的傳感器信息獲取該時間間隔內(nèi)的運動估計,后端優(yōu)化指對之前幀間估計產(chǎn)生的路徑累積漂移誤差做優(yōu)化,解決機器檢測到路徑閉環(huán)后歷史軌跡的優(yōu)化問題。與激光SLAM相比,視覺SLAM對色彩和紋理等信息更敏感,在提高幀間的估計精度和閉環(huán)檢測方面有巨大潛力。

傳統(tǒng)的VSLAM分為特征點法和直接法。特征點法從每幀圖片中提取分布均勻的角點和周圍的描述子,通過這些角點周圍的描述子的不變性完成幀間匹配,接下來使用對極幾何恢復(fù)相機姿態(tài)并確定地圖坐標(biāo),最終根據(jù)最小化重投影誤差完成相機位姿和地圖的微調(diào)[7]。而直接法是根據(jù)光度誤差確定相機位姿和地圖的,不用提取角點和描述子,正因為這樣,直接法不能表征一張圖像的全局特征,直接法的閉環(huán)檢測面臨的累積漂移的消除問題一直沒有得到很好的解決[8]。

傳統(tǒng)的VSLAM方法仍面對以下幾個問題:

(1) 對光照較為敏感,在光照條件惡劣或者光照情況復(fù)雜的環(huán)境中魯棒性不高;

(2) 相機運動幅度較大時,傳統(tǒng)方法的特征點追蹤容易丟失;

(3) 對于場景中的動態(tài)對象的處理不夠理想;

(4) 計算量大,系統(tǒng)響應(yīng)較慢。

近些年,計算機視覺與深度學(xué)習(xí)相互結(jié)合,促使視覺相關(guān)任務(wù)的準(zhǔn)確率、執(zhí)行效率以及魯棒性等實際表現(xiàn)得到了巨大提升,比如實例分類[9]、對象檢測[10]、行為識別[11]等領(lǐng)域的表現(xiàn)。VSLAM系統(tǒng)以計算機視覺為基礎(chǔ),這為神經(jīng)網(wǎng)絡(luò)在該領(lǐng)域的應(yīng)用提供了很大的發(fā)揮空間。將深度學(xué)習(xí)與VSLAM結(jié)合,有以下優(yōu)勢:

(1) 基于深度學(xué)習(xí)的VSLAM系統(tǒng)有很強的泛化能力,可以在光線復(fù)雜的環(huán)境中工作;

(2) 對于動態(tài)物體的識別和處理更加有效;

(3) 采用數(shù)據(jù)驅(qū)動的方式,對模型進行訓(xùn)練,更符合人類與環(huán)境交互的規(guī)律。有很大的研究和發(fā)展空間;

(4) 采用神經(jīng)網(wǎng)絡(luò)可以更好地將圖像信息與其他傳感器地數(shù)據(jù)融合,優(yōu)化幀間漂移;

(5) 更高效地提取語義信息,有益于語義SLAM[12]的構(gòu)建和場景語義的理解;

(6) 端到端的VSLAM,舍去前端點跟蹤、后端優(yōu)化求解的一系列過程,直接輸入圖像給出位姿估計。

深度學(xué)習(xí)一般用在VSLAM系統(tǒng)的一個或多個環(huán)節(jié),基于前述分析,本文對基于深度學(xué)習(xí)的VSLAM方法做了廣泛調(diào)研。主要針對基于深度學(xué)習(xí)的視覺里程計[13-14]、閉環(huán)檢測[15-16]和語義SLAM做出了綜述,并討論了基于深度學(xué)習(xí)的VSLAM的研究方向和發(fā)展趨勢。

02VSLAM與深度學(xué)習(xí)的相關(guān)結(jié)合

VSLAM可以構(gòu)建周圍環(huán)境的3D地圖,并計算相機的位置和方向。深度學(xué)習(xí)和SLAM的結(jié)合是近幾年比較熱的一個研究方向,常用深度學(xué)習(xí)方法替換傳統(tǒng)SLAM中的一個或幾個模塊。

2.1深度學(xué)習(xí)與視覺里程計

移動機器人完成自主導(dǎo)航,首先需要確定自身的位置和姿態(tài),即定位。視覺里程計(Visual Odometry,VO)通過跟蹤相鄰圖像幀間的特征點估計相機的運動,并對環(huán)境進行重建。VO大多借助計算幀間的運動估計當(dāng)前幀的位姿。基于深度學(xué)習(xí)的視覺里程計,無需復(fù)雜的幾何運算,端到端的運算形式使得基于深度學(xué)習(xí)的方法更簡潔。

Daniel和Malisiewicz[17]提出的網(wǎng)絡(luò)架構(gòu)完成點跟蹤,得到相鄰幀間的單應(yīng)性。如圖1所示,該模型主要特點是利用2個CNN[18]的協(xié)作生成單應(yīng)性矩陣,完成相機位姿的估計。第一個稱為MagicPoint網(wǎng)絡(luò),提取單張圖像的顯著點,網(wǎng)絡(luò)采用類似VGG[9]風(fēng)格的結(jié)構(gòu),對灰度圖進行運算,并為每個像素輸出一個“點”概率,在最后生成的張量中每個空間位置代表分布在一個局部8×8區(qū)域的概率,加上一個沒有被檢測點的垃圾通道,再通過上采樣生成帶特征點標(biāo)記的熱圖。第二個名為MagicWarp,對MagicPoint的輸出進行操作,結(jié)構(gòu)與第一個網(wǎng)絡(luò)類似,將卷積后的兩幀圖片對應(yīng)的張量連接起來,通過特征點的匹配來獲取單應(yīng)性矩陣,然后估計跟輸入有關(guān)的單應(yīng)性。系統(tǒng)速度快且規(guī)模小,可以在單核CPU達到每秒處理30幀的速度。模型在訓(xùn)練之前,手工標(biāo)定了一個包含各種特征點的數(shù)據(jù)集,比如:角,邊,以及幾何特征不明顯的曲線等特征,用于訓(xùn)練MagicPoint,為了MagicWarp參數(shù)的學(xué)習(xí),設(shè)計了一個基于點云的三維相機運動軌跡的數(shù)據(jù)集,實現(xiàn)從三維向二維空間的映射,找到相鄰幀間相機位姿的變化矩陣,發(fā)現(xiàn)特征點的單應(yīng)性,這樣也更符合人類的感知。但是該模型不得不面對的一個問題是它只能追蹤相鄰兩幀圖像的低級特征點,完成位姿估計,由于對上下文環(huán)境信息沒有記憶,所以得到結(jié)果精度還有待提高。

b936ecf4-71f5-11ed-8abf-dac502259ad0.jpg

圖1MagicPoint和MagicWarp結(jié)構(gòu)[17]Fig. 1MagicPoint and MagicWarp[17]

雖然深度學(xué)習(xí)已經(jīng)成為解決很多計算機視覺問題的主流方法,并取得了不錯的效果,但是關(guān)于VO的研究非常有限,尤其在三維幾何問題上。因為現(xiàn)有的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和預(yù)訓(xùn)練模型大多是為了解決識別和分類問題而設(shè)計的,這也就驅(qū)使深度卷積神經(jīng)網(wǎng)絡(luò)(CNNs)從圖像中提取更高層次的外觀信息。學(xué)習(xí)圖像的表象特征,限制了VO只在經(jīng)過訓(xùn)練的環(huán)境中發(fā)揮作用,這也是傳統(tǒng)VO算法嚴(yán)重依賴幾何特征而不是外觀特征的原因。同時,運動是一個連續(xù)的變化過程,理想的VO算法應(yīng)該針對一系列圖像的變化和連接來建模,而不是處理單個圖像,這也意味著我們要對圖像序列學(xué)習(xí)。

相較于MagicPoint和MagicWarp僅針對兩幀圖像的基礎(chǔ)幾何特征完成單應(yīng)性估計,Wang等[19]針對圖像序列提出了一種基于深度學(xué)習(xí)的單目VO的DeepVO算法,如圖2所示,直接從原始RGB圖像提取實例表征完成姿態(tài)估計。證明了單目VO問題可以通過基于深度學(xué)習(xí)端到端的方式高效解決,提出了一個RCNN[20]架構(gòu),利用CNN學(xué)習(xí)到的實例表征表示,使基于深度學(xué)習(xí)的VO算法能夠適應(yīng)全新的環(huán)境,對于圖像序列的序列依賴性和復(fù)雜運動,利用深度遞歸神經(jīng)網(wǎng)絡(luò)實現(xiàn)隱式封裝和自動學(xué)習(xí)。DeepVO由基于CNN的特征提取和基于RNN[21]的特征序列模型兩部分組成。提出端到端的VO系統(tǒng)架構(gòu),如圖2所示,以視頻剪輯或單目圖像序列作為輸入,每個時間戳內(nèi),通過RGB圖像幀減去訓(xùn)練集的平均RGB值進行預(yù)處理,將2幅連續(xù)的圖像疊加在一起,形成一個張量,訓(xùn)練深度RCNN提取運動信息和估計姿態(tài)。采用長短時記憶(LSTM[22])作為RNN,它通過引入記憶門和記憶單元來學(xué)習(xí)上下文依賴關(guān)系。具體來說,將圖像張量輸入CNN,生成一個有效的單目VO特征,然后通過LSTM進行序列學(xué)習(xí),每個圖像對在通過網(wǎng)絡(luò)的每個時間戳產(chǎn)生一個位姿估計。CNN部分使用非線性單元(ReLU)激活,獲取顯著特征,使用0-padding保留卷積后張量的空間維數(shù)。每個時刻使用LSTM更新狀態(tài)狀態(tài),為了學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的超參θ,損失函數(shù)由位置向量p和角度變量φ組成的均方誤差構(gòu)成:

b9637c74-71f5-11ed-8abf-dac502259ad0.jpg

(1)

式中:||·||為2范數(shù);κ是一個比例因子用來平衡位置和角度的權(quán)重;N為樣本數(shù)量;角度φ用歐拉角定義。他們采用的這種VO方法它不依賴于位姿估計的傳統(tǒng)VO,通過將CNN和RNN相結(jié)合,實現(xiàn)了VO的特征提取和序列建模的同時進行,無需對VO系統(tǒng)的參數(shù)進行仔細(xì)調(diào)整。

b97859b4-71f5-11ed-8abf-dac502259ad0.jpg

圖2DeepVO網(wǎng)絡(luò)結(jié)構(gòu)[19]Fig. 2Architecture of DeepVO[19]

針對DeepVO這類數(shù)據(jù)驅(qū)動的網(wǎng)絡(luò),常對于隱藏在數(shù)據(jù)背后的規(guī)律比較敏感,所以對于類似標(biāo)簽誤差這種信息干擾,DeepVO具備良好的魯棒性及擬合能力,體現(xiàn)了數(shù)據(jù)驅(qū)動模型的一個顯著優(yōu)勢。雖然基于深度學(xué)習(xí)的VO方法在相機的位姿估計方面得到了一些結(jié)果,但是目前還不能取代基于幾何的方法,深度學(xué)習(xí)方法是一個可行的補充,把幾何用深度神經(jīng)網(wǎng)絡(luò)的特征表示、知識以及模型做有機結(jié)合,進一步提高VO的準(zhǔn)確性和魯棒性是目前可以預(yù)見的發(fā)展方向。

2.2深度學(xué)習(xí)與閉環(huán)檢測

閉環(huán)檢測應(yīng)用在機器人建圖環(huán)節(jié),新采集到一張圖像,判斷它是否在圖像序列中出現(xiàn)過,即確定機器人是否進入某同一歷史地點,或者在特征點配準(zhǔn)丟失后重新獲取一個初始位置。高效的閉環(huán)檢測是SLAM精確求解的基礎(chǔ),幀間匹配主要集中在誤差累積的消除,圖優(yōu)化算法能夠有效地降低累計誤差。閉環(huán)檢測實質(zhì)上是場景的識別問題,傳統(tǒng)SLAM的閉環(huán)檢測通過手工提取的稀疏特征或者像素稠密的特征完成匹配,深度學(xué)習(xí)則采用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)圖片深層次特征的方法,場景識別率的表現(xiàn)更好。所以,基于深度學(xué)習(xí)的場景識別方法能夠有效提升閉環(huán)檢測的準(zhǔn)確率[23]。

許多研究人員針對閉環(huán)檢測問題在網(wǎng)絡(luò)訓(xùn)練和數(shù)據(jù)處理方面做了部分優(yōu)化。比如文獻[24]提出的方法不是直接對整幅圖像做特征提取,而是根據(jù)預(yù)訓(xùn)練的網(wǎng)絡(luò)提取圖像中的路標(biāo)區(qū)域,然后通過ConvNet[27]計算每塊區(qū)域的特征并將其壓縮,完成路標(biāo)區(qū)域的特征匹配之后,利用各個路標(biāo)區(qū)域的相似性來計算全局圖像之間的相似性,為了降低假陽性出現(xiàn)的概率,模型把路標(biāo)區(qū)域框的范圍作為監(jiān)督條件。該方法顯著提升了面對場景中視點變化或局部遮擋的魯棒性。

為了提高閉環(huán)檢測的準(zhǔn)確率和效率,Yi等[25]提出了一種BoCNF的特征詞袋匹配方法,該方法以視覺詞袋法為基礎(chǔ),將CNN提取到的特征建立視覺詞袋,通過Hash隨機映射[26]將降維的視覺詞和詞袋特征關(guān)聯(lián),實現(xiàn)快速準(zhǔn)確的場景識別。

BoCNF基于BoW (Bag of Visual Word)的想法將提取的視覺特征量化為離線的視覺詞匯的視覺詞,然后構(gòu)建用于在線檢索匹配圖像的倒排索引,如圖3所示。與其他基于BoW的算法類似,他們的框架包括離線階段和在線階段,每個階段包括2個部分。在離線和在線階段的開始,數(shù)據(jù)庫圖像或查詢圖像的ConvNet功能分兩步提?。旱貥?biāo)檢測和ConvNet特征提取[23]。離線階段,將數(shù)據(jù)庫圖像的ConvNet特征提取并把它們量化為視覺詞之后,執(zhí)行倒排索引構(gòu)建,將視覺詞鏈接到數(shù)據(jù)庫圖像。在線階段,在將查詢圖像的ConvNet特征提取并將其量化為視覺詞之后,在稱為粗略匹配的階段中,首先使用倒排索引檢索前K候選數(shù)據(jù)庫圖像,隨后精細(xì)匹配執(zhí)行通過基于Hash的投票方案在前K個候選者中找到與查詢圖像的最終匹配。

b99e1ba4-71f5-11ed-8abf-dac502259ad0.jpg

圖3BoCNF特征匹配流程[25]Fig. 3Generation process of node-link graph[25]

深度VSLAM采用學(xué)習(xí)的方式,以后的發(fā)展與人類的感知和思考方式會更加相似。文獻[28]構(gòu)建的模型的輸入為圖像序列,第一步根據(jù)Local Pose Estimation Network[29]計算圖像間的相對位姿,然后通過位姿聚合方法壓縮相對位姿信息,把計算結(jié)果輸入到Neural Graph Optimization網(wǎng)絡(luò),輸出相對位姿的全局絕對位姿信息,通過Soft Attention模型提取關(guān)鍵信息,生成各幀之間的相似性矩陣,利用相似性矩陣完成SLAM中的閉環(huán)檢測,輸出整個的路徑地圖,把模型的輸出與真實路徑的差異作為損失函數(shù)。該方法在模擬環(huán)境中表現(xiàn)優(yōu)秀,證明了Soft Attention[30]模型在閉環(huán)檢測環(huán)節(jié)的作用。根據(jù)觀察該模型的實驗表現(xiàn),在實際環(huán)境中沒有達到預(yù)期的效果,但是端到端的學(xué)習(xí)模式,和整個模型的數(shù)據(jù)處理過程,符合人類的感知過程,未來有很大的發(fā)展空間。

2.3深度學(xué)習(xí)與語義SLAM

語義SLAM在建圖過程中獲取環(huán)境幾何信息的同時,識別環(huán)境里的獨立對象,獲取其位置、姿態(tài)和個體輪廓等語義信息擴展了傳統(tǒng)SLAM問題的研究內(nèi)容,將一些語義信息集成到SLAM的研究中,以應(yīng)對復(fù)雜場景的要求[31]。其實語義特征,本質(zhì)上把局部特征進一步歸納,達到人類可以理解的分類層面。

在深度學(xué)習(xí)算法流行之前,物體識別方向評價最好的Bag of Visual Word算法將之前數(shù)據(jù)處理提取的SIFT[32]等特征融合成復(fù)雜且全面的特征,再送到分類器進行分類。其實對于深度學(xué)習(xí)方法,圖像的語義表征也是一層層抽象的,根據(jù)對神經(jīng)網(wǎng)絡(luò)各層輸出進行可視化的結(jié)果,我們發(fā)現(xiàn)底層網(wǎng)絡(luò)中提取出的特征大部分是點線等的低層語義,中間層的網(wǎng)絡(luò)將圖像特征抽象為一些標(biāo)識物的局部部件,而在頂層的圖像特征上升到了物體的級別,逐層特征提取抽象,這是神經(jīng)網(wǎng)絡(luò)的又一突出優(yōu)勢。

Lei等[33]以對象分類、語義分割為基準(zhǔn),提出了基于八叉樹的球形卷積核CNN,用于處理3D點云數(shù)據(jù)。將圖片轉(zhuǎn)換成原始點云,并基于八叉樹的結(jié)構(gòu)做空間劃分,把球形卷積核作用到網(wǎng)絡(luò)的每一層,對特征實現(xiàn)分層下采樣,球形卷積核把點xi附近的空間劃分為多個體積小塊。針對第j個鄰接點xj,卷積核首先確定其對應(yīng)的體積小塊,并通過該小塊的權(quán)重矩陣Wk來計算激活值。該模型對特征分層下采樣并根據(jù)空間分區(qū)構(gòu)建3D鄰域,代替常用的K-NN[34]范圍搜索,一定程度上減少了計算和存儲成本,適合高分辨率輸入。通過神經(jīng)元和3D點空間位置的對應(yīng)關(guān)系確定該點需要使用的球形卷積核,根據(jù)這種關(guān)聯(lián)避免訓(xùn)練過程中生成動態(tài)卷積核,達到高效、高分辨率的點云學(xué)習(xí)。

目前的語義SLAM研究還處于初級階段,但其前景廣闊。語義SLAM的難點在于誤差函數(shù)的設(shè)定,將深度學(xué)習(xí)的檢測或分割結(jié)果作為一個觀測值,融入SLAM的優(yōu)化問題中一起聯(lián)合優(yōu)化,同時還需要做到GPU的實時[35]。

Girisha等[36]針對無人機航拍視頻提出了一種語義解析的方法。如圖4所示,鏡頭邊界檢測算法首先用于識別關(guān)鍵幀,隨后,通過使用U-Net[37],對這些關(guān)鍵幀執(zhí)行語義分割,航拍數(shù)據(jù)頻率為29 fps,每個連續(xù)幀之間變化是微小的,因此,使用鏡頭邊界檢測算法來識別關(guān)鍵幀,以便于單幀和幀與幀之間的分析。而關(guān)鍵幀識別的過程,目的是從連續(xù)幀中識別出鏡頭邊界,并且將整個模塊用關(guān)鍵幀表示。通過將每一幀劃分為16×16大小的非重疊網(wǎng)格來識別每一幀的鏡頭邊界。采用卡方距離計算相鄰兩幀之間相應(yīng)的網(wǎng)格直方圖差:

b9c510d8-71f5-11ed-8abf-dac502259ad0.jpg

(2)


式中:Hi為第i幀直方圖;Hi+1為第(i+1+幀直方圖;I為兩幀中同一位置的圖像塊。連續(xù)兩幀之間的直方圖平均差計算如下:

b9db8c96-71f5-11ed-8abf-dac502259ad0.jpg

(3)

式中:D為連續(xù)兩幀的平均直方圖差;dk為第k個圖像塊之間的卡方差;N為圖像中圖像塊的總數(shù)。在直方圖差異大于閾值Tshot的幀上識別鏡頭邊界,利用語義分割算法對識別出的關(guān)鍵幀進行進一步處理,識別出場景中出現(xiàn)的各種對象(綠化、道路)。U-Net利用contracting path中提取的特征進行反卷積完成區(qū)域定位,在contracting path實現(xiàn)卷積運算,然后再通過ReLU激活函數(shù)提取特征。改進后的網(wǎng)絡(luò)可以處理256×256大小的彩色圖像(RGB),而不僅僅是灰度圖像,這是通過在每一層使用3D卷積操作來實現(xiàn)的。除了最大池化操作,每個層還考慮填充,以保留最相關(guān)的特性,以便進一步處理。另外,Bowman等[38]提出了一種將尺度信息和語義信息融合的理論框架,在語義SLAM的概率數(shù)據(jù)融合上做的工作具有創(chuàng)新性,引入EM估計[39]把語義SLAM轉(zhuǎn)換成概率問題,優(yōu)化目標(biāo)仍然是常用的重投影誤差。

b9f10184-71f5-11ed-8abf-dac502259ad0.jpg

圖4修改后的U-Net結(jié)構(gòu)[37]Fig. 4Modified U-Net structure[37]

03深度學(xué)習(xí)方法與傳統(tǒng)VSLAM對比

用深度學(xué)習(xí)做端到端的VSLAM非常直接,能夠繞開許多傳統(tǒng)VSLAM系統(tǒng)中極為麻煩的環(huán)節(jié),如外參標(biāo)定、多傳感器頻率的匹配,同時可以避開前后端算法中一些棘手的問題。結(jié)合深度學(xué)習(xí)作為一種新的VSLAM實現(xiàn)方法有很強的理論意義,但是端到端VSLAM的問題也非常明顯,如表1所示。

表1VSLAM算法與基于深度學(xué)習(xí)的VSLAM方法的對比Tab. 1Comparison between traditional VSLAM algorithm and VSLAM method based on deep learning

ba39ee76-71f5-11ed-8abf-dac502259ad0.jpg

VSLAM這樣一個包含很多幾何模型數(shù)學(xué)的問題,通過深度學(xué)習(xí)去端到端解決,使用數(shù)據(jù)驅(qū)動的形式去學(xué)習(xí),在原理上是完全沒有依據(jù)的,而且也沒理由能得到高精度解。另一個很大的問題是模型的泛化性很難得到保證,傳統(tǒng)的VSLAM系統(tǒng)通常是一個很復(fù)雜的結(jié)構(gòu),從前端到后端每一步操作都有明確的目的,傳統(tǒng)方法每個環(huán)節(jié)都有詳細(xì)的數(shù)學(xué)理論作支撐,具備很強的可解釋性,但是需要仔細(xì)挑選參數(shù)。而用高度依賴數(shù)據(jù)的深度學(xué)習(xí)去近似VSLAM系統(tǒng),對于某些數(shù)據(jù)集可能產(chǎn)生不錯的效果,換個場景可能就不那么敏感了,但是如果數(shù)據(jù)集足夠大的話,神經(jīng)網(wǎng)絡(luò)還是能夠展現(xiàn)其在數(shù)據(jù)上極強的適應(yīng)性,所以數(shù)據(jù)集的體積對神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率是一個重要的影響因子。

傳統(tǒng)的VSLAM仍然面臨著對環(huán)境的適應(yīng)性問題,深度學(xué)習(xí)有望在這方面發(fā)揮較大的作用。目前,深度學(xué)習(xí)已經(jīng)在語義地圖、重定位、回環(huán)檢測、特征點提取與匹配以及端到端的視覺里程計等問題上完成了相關(guān)工作,但對于某些特殊場景的應(yīng)用需求,還需要進一步的發(fā)展。

為了更詳細(xì)的表現(xiàn)深度VSLAM對數(shù)據(jù)的適應(yīng)性,這里我們使用KITTI數(shù)據(jù)集的單目序列對幾種現(xiàn)有計算VSLAM的VO解的結(jié)果做了簡要對比,如表2所示。

表2傳統(tǒng)VSLAM算法與基于深度學(xué)習(xí)VSLAM方法關(guān)于VO的準(zhǔn)確度在KITTI數(shù)據(jù)集上的對比Tab. 2Comparison of accuracy of VO in KITTI dataset between traditional VSLAM algorithm and VSLAM method based on deep learning

ba5a97ac-71f5-11ed-8abf-dac502259ad0.jpg

VO作為VSLAM系統(tǒng)中必不可少的一環(huán),目的是為了獲取局部穩(wěn)定的運動軌跡,從而減輕后端優(yōu)化以及閉環(huán)檢測的壓力。我們將深度學(xué)習(xí)的方法,如DF-VO、SfM-Learner、CNN-SVO和基于幾何的方法,如ORB-SLAM2、DSO、VISO2進行對比,然而,對于深度學(xué)習(xí)方法,一個有趣的結(jié)果是,除了深度模型外,參與測試的基于幾何方法在序列01上特征點跟蹤的表現(xiàn)并不好,這表明深度模型可以作為幾何方法的補充,在未來的設(shè)計中,可以通過深度學(xué)習(xí)與幾何方法的結(jié)合來克服幾何方法的失敗情形。此外,與幾何方法相比,深度VSLAM方法具有更好的相對姿態(tài)估計。在長序列評價中,針對尺度漂移問題,ORB-SLAM2表現(xiàn)出較少的旋轉(zhuǎn)漂移,但產(chǎn)生較高的平移漂移,尺度漂移問題,有時這個問題可以通過閉環(huán)檢測來解決。使用尺度一致的深度預(yù)測進行尺度恢復(fù),這在大多數(shù)單目VO/SLAM系統(tǒng)中緩解了這個問題。結(jié)果表明,該方法在長序列上具有較小的平移漂移。更重要的是,深度學(xué)習(xí)VO表現(xiàn)出更小的相對位姿誤差,這使深度VO方法成為幀到幀跟蹤的健壯模塊。

傳統(tǒng)VSLAM方法過于依賴低級別幾何特征,例如點、邊和平面,僅憑低級特征很難對環(huán)境中觀察到的標(biāo)志物作語義表征。而深度學(xué)習(xí)方法的輸入可以是原始的RGB圖像,不像光流或者深度圖像這種經(jīng)過預(yù)處理的數(shù)據(jù)輸入,因為網(wǎng)絡(luò)可以學(xué)習(xí)一種有效的特征表示方法,這種學(xué)習(xí)后的特征表示不僅將原始的高維圖像壓縮成一個緊湊的表征,還促進了后續(xù)環(huán)節(jié)的計算過程。另外,低級特征往往使閉環(huán)檢測過于依賴相機視角,這就導(dǎo)致在模糊或重復(fù)性較高的紋理環(huán)境中失敗率較高?;谏疃葘W(xué)習(xí)的目標(biāo)識別能夠估計出標(biāo)志物的大小,生成一組便于區(qū)分的語義表征,適和與視角無關(guān)的閉環(huán)檢測。在特征地圖中識別到多個同類物體時,需要進行關(guān)鍵數(shù)據(jù)的關(guān)聯(lián)。數(shù)據(jù)關(guān)聯(lián)和識別一般采用離散方法解決離散性問題,但是傳統(tǒng)VSLAM解決的是尺度信息的連續(xù)優(yōu)化問題,相比之下,基于深度學(xué)習(xí)的VSLAM可以把傳感器數(shù)據(jù)和語義表征的位置信息融合為一個優(yōu)化問題,結(jié)合尺度信息,語義信息和數(shù)據(jù)關(guān)聯(lián)。隨后再把它拆分成兩個相互關(guān)聯(lián)的問題:首先是離散數(shù)據(jù)的關(guān)聯(lián)和語義表征的種類估計,另外是尺度信息的連續(xù)優(yōu)化問題。推測出的語義表征和傳感器姿態(tài)影響著關(guān)聯(lián)數(shù)據(jù)和表征種類的分布,而這反過來又影響傳感器-標(biāo)志物姿態(tài)的優(yōu)化[37],這也是結(jié)合深度學(xué)習(xí)的VSLAM較傳統(tǒng)方法的一個明顯的優(yōu)勢。

04展望

就人類的感知方式來說,在面對場景中的對象時,除了可以獲取位置信息(三維)外,還可以確定顏色數(shù)據(jù)(三維),此外,能夠獲取語義信息比如表面硬度、實例輪廓、是否可以觸摸等信息。但是,若僅憑深度VSLAM構(gòu)建三維點云,還是遠(yuǎn)遠(yuǎn)不夠的,因此,需要在更高維度上構(gòu)建內(nèi)容更為豐富的高階地圖,從而滿足各種需求。定位與感知不是VSLAM的最終目標(biāo),VSLAM是以精確的定位和感知為前提,完成復(fù)雜的任務(wù)。這對深度學(xué)習(xí)和VSLAM的結(jié)合提出了更高的要求,對深度VSLAM訓(xùn)練時,以任務(wù)的完成情況為標(biāo)準(zhǔn)進行訓(xùn)練。

4.1分布式的VSLAM建圖

分布式的VSLAM可以在絕對定位不可用的情況下,適用于多視覺傳感器應(yīng)用的強大工具。在傳感器分散情況下,它不依賴于與中央實體的通信??梢詫⒎植际缴疃葘W(xué)習(xí)SLAM集成到一個完整的VSLAM系統(tǒng)中。為了實現(xiàn)數(shù)據(jù)關(guān)聯(lián)和優(yōu)化,現(xiàn)有的分布式VSLAM系統(tǒng)在所有傳感器之間交換完整的地圖數(shù)據(jù),從而以與傳感器數(shù)量平方成正比的復(fù)雜性進行大規(guī)模數(shù)據(jù)傳輸。與之相比,文獻[45]提出的方法在兩個階段中實現(xiàn)有效的數(shù)據(jù)關(guān)聯(lián):首先,將密集的全局描述符定向地發(fā)送到一個傳感器,只有當(dāng)這一階段成功后,才會把實現(xiàn)相對位姿估計需要的數(shù)據(jù)再次發(fā)送給傳感器。所以,數(shù)據(jù)關(guān)聯(lián)可以通過傳感器計數(shù)擴展,針對緊湊的場所表現(xiàn)更突出。使用分散式的位姿圖優(yōu)化方法,交換最小量的數(shù)據(jù),這些數(shù)據(jù)與軌跡重疊是線性的,最后對整個系統(tǒng)的輸出做描述,并確定每個組件中的瓶頸。但是,二維圖像、三維點云數(shù)據(jù)隨著場景規(guī)模的增大,信息規(guī)模也會越來越大,存儲大量的圖片或者點云是不可取的,因此對數(shù)據(jù)的壓縮和存儲方式的選擇是必要的,比如八叉樹的存儲方式和網(wǎng)格數(shù)據(jù)劃分等。人類對于場景的記憶是基于城市、街道等先驗知識的掌握,通過對關(guān)鍵信息有選擇的記憶,不是存儲見到的每一幀圖像,只用記住去過哪個地點、哪個街區(qū),當(dāng)再次經(jīng)過同一地點時,就能夠做到場景的對應(yīng),這也是未來分布式深度VSLAM所面臨的問題,即固定存儲空間下對非關(guān)鍵信息的剔除,對不同傳感器間的聯(lián)合節(jié)點的識別,傳感器數(shù)據(jù)的存儲,實現(xiàn)快速的匹配問題。

4.2高維多傳感器數(shù)據(jù)處理與融合

深度學(xué)習(xí)的發(fā)展為傳感器大數(shù)據(jù)的特征提取與操作提供了新方法。激光測距傳感器是傳統(tǒng)SLAM的傳感器,具有高精度,數(shù)據(jù)采集不受時間限制等優(yōu)勢。Li等[46]提出Recurrent-OctoMap,從長期的3D激光雷達數(shù)據(jù)中學(xué)習(xí),對語義建圖實現(xiàn)3D細(xì)化,是一種融合語義特征的學(xué)習(xí)方法,不僅僅是簡單地融合分類器地預(yù)測。在他們的方法中,將創(chuàng)建的3D地圖用八叉樹[47]表示,并參與后面的計算,將每個節(jié)點建模為RNN,從而獲得Recurrent-OctoMap。在這種情形下,語義建圖過程被表達成序列到序列的編碼-解碼問題。另外,為了延長Recurrent-OctoMap觀察到的數(shù)據(jù)持續(xù)周期,他們開發(fā)了一個強大的3D定位和建圖的SLAM系統(tǒng),并實現(xiàn)對兩周以上的雷達動態(tài)數(shù)據(jù)持續(xù)建圖。通常用于3D語義地圖細(xì)化廣泛的方法是貝葉斯估計,其融合了馬爾可夫鏈之后連續(xù)預(yù)測概率,但是傳統(tǒng)的貝葉斯方法被證實不如Recurrent-OctoMap的實驗室表現(xiàn)。

機器人在環(huán)境變化比較復(fù)雜的場景中實現(xiàn)建圖時,單一傳感器實現(xiàn)的特征檢測往往不夠全面,可能會有漏檢的情況發(fā)生,并且單一類型傳感器在復(fù)雜的環(huán)境中實現(xiàn)數(shù)據(jù)關(guān)聯(lián)成本過高,準(zhǔn)確性較低,不能滿足SLAM在部分特殊場景下的應(yīng)用需求。VSLAM對數(shù)據(jù)關(guān)聯(lián)非常敏感,數(shù)據(jù)關(guān)聯(lián)可以建立多傳感器數(shù)據(jù)與其他測量數(shù)據(jù)之間的關(guān)系,以確定它們是否有一個公共源。VSLAM中數(shù)據(jù)關(guān)聯(lián)用來確定測量數(shù)據(jù)與地圖特征的關(guān)系,機器人位姿的不確定性、特征密度的變化、環(huán)境中動態(tài)特征的干擾以及觀測誤差的存在使得數(shù)據(jù)關(guān)聯(lián)的數(shù)據(jù)處理過程變得很復(fù)雜。錯誤的關(guān)聯(lián)不但會使機器人的定位產(chǎn)生偏差,還會影響到已創(chuàng)建的地圖,導(dǎo)致算法發(fā)散。Zhang和Singh[48]提出的一個利用3D激光掃描儀數(shù)據(jù)、影像數(shù)據(jù)和IMU數(shù)據(jù)進行運動估計和地圖創(chuàng)建的方法,使用一個有序多層的從粗濾配準(zhǔn)到精確優(yōu)化的處理流程。首先使用IMU數(shù)據(jù)做運動預(yù)測,然后使用IMU和視覺結(jié)合的方法估計運動,之后再使用激光雷達進行幀與幀的匹配做更深一步的優(yōu)化和地圖創(chuàng)建,這樣,VSLAM就可以在高動態(tài)的運動環(huán)境中使用,也可以在黑暗、無紋理、無顯著結(jié)構(gòu)的復(fù)雜環(huán)境里運行。多傳感器的數(shù)據(jù)融合能夠確定各傳感器測量數(shù)據(jù)和特征源的對應(yīng)關(guān)系,并確保這些對應(yīng)關(guān)系在復(fù)雜環(huán)境中能發(fā)揮最優(yōu)性能,而深度神經(jīng)網(wǎng)絡(luò)在匹配多類型數(shù)據(jù),處理不同頻率的數(shù)據(jù)方面表現(xiàn)出強大的能力,多傳感器融合的VSLAM是未來的一個重要發(fā)展方向。

4.3自適應(yīng)的VSLAM

隨著機器人技術(shù)的高速發(fā)展,VSLAM也具有更多的實際應(yīng)用意義。VSLAM需要相機視野的三維環(huán)境信息和相應(yīng)的軌跡信息,所以VSLAM對相機定位的實時以及精度的依賴性較高[49]。隨著稀疏矩陣和非線性優(yōu)化理論在VSLAM中廣泛的應(yīng)用,逐漸提出了許多VSLAM實現(xiàn)方案,比如傳統(tǒng)的LSD-SLAM[50]、ORB-SLAM、RGBD-SLAM[51]等方案,基于深度學(xué)習(xí)的VSLAM如DeepVO、SFM-Net[52]等算法,然而,現(xiàn)存大部分VSLAM的實現(xiàn)方案在視覺里程計環(huán)節(jié)精度不夠,或者過于依賴硬件性能。因此,以幀到地圖的特征匹配為基礎(chǔ),面對特征地圖數(shù)據(jù)體積大、計算資源消耗過多等問題,實現(xiàn)特征地圖的自適應(yīng)是必要的。張峻寧等[53]提出了一種自適應(yīng)特征地圖匹配的VSLAM方法,首先進行數(shù)據(jù)初始化,將當(dāng)前幀轉(zhuǎn)化成對應(yīng)點云,把特征地圖劃分為多個子區(qū)域作為計算單位,利用角點的響應(yīng)程度提取少量顯著的特征點,然后進行各幀特征點匹配。接下來,為解決局部地圖角點匹配消失問題,提出子區(qū)域特征點補充和局部地圖擴建的方法,實現(xiàn)當(dāng)前幀特征點的快速再匹配。最后,為了進一步提高VO環(huán)節(jié)相機位姿估計精度,增加了特征地圖局部優(yōu)化環(huán)節(jié),提出幀到幀、幀到特征地圖的局部地圖優(yōu)化模型,并通過加入g2o[54]算法實現(xiàn)了相機位姿和地圖特征點的同時優(yōu)化。通過子區(qū)域分塊、特征點補充與地圖擴建的方式自適應(yīng)維護特征地圖規(guī)模,使得幀到特征地圖的位姿估計兼顧了實時性和精度,另一方面提出的幀到幀、幀到模型的g2o特征地圖更新方式,該方法在位姿估計的精度、累計誤差的消除等方面表現(xiàn)顯著[53]。鑒于深度學(xué)習(xí)在前端的優(yōu)異表現(xiàn),可以將深度VSLAM的結(jié)果與自適應(yīng)優(yōu)化結(jié)合,可以有效的降低VO相鄰幀間的漂移誤差,在保證實時性前提下,達到較好的定位精度和建圖能力。

05結(jié)論

本文以VSLAM和深度學(xué)習(xí)的結(jié)合為線索展開論述,描述了深度學(xué)習(xí)與視覺里程計、閉環(huán)檢測和語義SLAM的結(jié)合現(xiàn)狀,敘述了算法的可行性和高效性。接下來把傳統(tǒng)VSLAM和深度VSLAM做了簡要對比,如魯棒性、訓(xùn)練周期、泛化能力等方面。最后根據(jù)二者的發(fā)展現(xiàn)狀以及實際應(yīng)用需求,從分布式的VLSAM建圖、多傳感器數(shù)據(jù)融合以及自適應(yīng)3個方面做了展望。

自從深度學(xué)習(xí)在許多領(lǐng)域展現(xiàn)出強大的優(yōu)勢后,很多研究人員試圖將深度學(xué)習(xí)端到端的理念整個應(yīng)用到VSLAM中。但是,截止到目前,效果不夠理想,大多深度學(xué)習(xí)的方法用來代替VSLAM部分環(huán)節(jié),傳統(tǒng)的基于幾何的方法現(xiàn)在仍是主流。但是隨著深度學(xué)習(xí)和多傳感器的發(fā)展,VSLAM會逐漸吸收深度學(xué)習(xí)帶來的優(yōu)勢,提升其準(zhǔn)確性和泛化能力。相信在不遠(yuǎn)的將來,VSLAM的整個系統(tǒng)都會被深度學(xué)習(xí)取代,而不僅僅作為其中某個環(huán)節(jié)的實現(xiàn)方法,實現(xiàn)精確的基于深度學(xué)習(xí)的VSLAM方法。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2566

    文章

    53008

    瀏覽量

    767581
  • SLAM
    +關(guān)注

    關(guān)注

    24

    文章

    441

    瀏覽量

    32507
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122801

原文標(biāo)題:前沿丨基于深度學(xué)習(xí)的視覺SLAM綜述

文章出處:【微信號:gh_c87a2bc99401,微信公眾號:INDEMIND】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于深度學(xué)習(xí)的增強版ORB-SLAM3詳解

    ORB-SLAM3雖是當(dāng)前最先進的SLAM之一,但由于使用傳統(tǒng)的ORB(定向FAST和旋轉(zhuǎn)BRIEF)特征,在尺度、旋轉(zhuǎn)和光照發(fā)生顯著變化時可能會表現(xiàn)出局限性。
    的頭像 發(fā)表于 07-14 17:21 ?215次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的增強版ORB-<b class='flag-5'>SLAM</b>3詳解

    三維高斯?jié)姙R大規(guī)模視覺SLAM系統(tǒng)解析

    近期興起的神經(jīng)輻射場(NeRF)與三維高斯?jié)姙R(3DGS)技術(shù)在視覺SLAM中展現(xiàn)出令人鼓舞的突破性成果。然而,當(dāng)前主流方法多依賴RGBD傳感器,并且僅適用于室內(nèi)環(huán)境。在大規(guī)模室外場景中的重建魯棒性
    的頭像 發(fā)表于 05-27 14:13 ?347次閱讀
    三維高斯?jié)姙R大規(guī)模<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)解析

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    視覺巡線,展示了如何從數(shù)據(jù)采集、模型訓(xùn)練到機器人部署的完整流程。 值得注意的是,深度學(xué)習(xí)模型的實時性對機器人計算資源提出了較高要求,優(yōu)化模型(如TensorRT加速)是實際部署的關(guān)鍵。 二、
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+ROS2應(yīng)用案例

    深度學(xué)習(xí)視覺巡線、相機標(biāo)定、OpenCV圖像處理等。這些內(nèi)容雖然在本次閱讀體驗中沒有詳細(xì)展開,但它們同樣對于機器人的視覺感知和環(huán)境理解具有重要作用。
    發(fā)表于 04-27 11:42

    行業(yè)首創(chuàng):基于深度學(xué)習(xí)視覺平臺的AI驅(qū)動輪胎檢測自動化

    全球領(lǐng)先的輪胎制造商 NEXEN TIRE 在其輪胎生產(chǎn)檢測過程中使用了基于友思特伙伴Neurocle開發(fā)的AI深度學(xué)習(xí)視覺平臺,實現(xiàn)缺陷檢測率高達99.96%,是該行業(yè)首個使用AI平臺技術(shù)推動缺陷檢測自動化流程的企業(yè)。
    的頭像 發(fā)表于 03-19 16:51 ?452次閱讀
    行業(yè)首創(chuàng):基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>視覺</b>平臺的AI驅(qū)動輪胎檢測自動化

    SLAMTEC Aurora:把深度學(xué)習(xí)“卷”進機器人日常

    在人工智能和機器人技術(shù)飛速發(fā)展的今天,深度學(xué)習(xí)SLAM(同步定位與地圖構(gòu)建)技術(shù)的結(jié)合,正引領(lǐng)著智能機器人行業(yè)邁向新的高度。最近科技圈頂流DeepSeek簡直殺瘋了!靠著逆天的深度
    的頭像 發(fā)表于 02-19 15:49 ?461次閱讀

    利用VLM和MLLMs實現(xiàn)SLAM語義增強

    語義同步定位與建圖(SLAM)系統(tǒng)在對鄰近的語義相似物體進行建圖時面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向?qū)ο?b class='flag-5'>SLAM的語義增強(SEO-SLAM)的新型SLAM系統(tǒng),借
    的頭像 發(fā)表于 12-05 10:00 ?1395次閱讀
    利用VLM和MLLMs實現(xiàn)<b class='flag-5'>SLAM</b>語義增強

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1922次閱讀

    激光雷達在SLAM算法中的應(yīng)用綜述

    一、文章概述 1.1 摘 要 即時定位與地圖構(gòu)建(simultaneous localization and mapping,SLAM)是自主移動機器人和自動駕駛的關(guān)鍵 技術(shù)之一,而激光雷達則是支撐
    的頭像 發(fā)表于 11-12 10:30 ?2563次閱讀
    激光雷達在<b class='flag-5'>SLAM</b>算法中的應(yīng)用<b class='flag-5'>綜述</b>

    MG-SLAM:融合結(jié)構(gòu)化線特征優(yōu)化高斯SLAM算法

    同步定位與地圖構(gòu)建 (SLAM) 是計算機視覺中的一個基本問題,旨在在同時跟蹤相機姿勢的同時對環(huán)境進行地圖構(gòu)建?;?b class='flag-5'>學(xué)習(xí)的密集 SLAM 方法,尤其是神經(jīng)輻射場 (NeRF) 方法,在
    的頭像 發(fā)表于 11-11 16:17 ?880次閱讀
    MG-<b class='flag-5'>SLAM</b>:融合結(jié)構(gòu)化線特征優(yōu)化高斯<b class='flag-5'>SLAM</b>算法

    AI干貨補給站 | 深度學(xué)習(xí)與機器視覺的融合探索

    ,幫助從業(yè)者積累行業(yè)知識,推動工業(yè)視覺應(yīng)用的快速落地。本期亮點預(yù)告本期將以“深度學(xué)習(xí)與機器視覺的融合探索”為主題,通過講解深度
    的頭像 發(fā)表于 10-29 08:04 ?579次閱讀
    AI干貨補給站 | <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與機器<b class='flag-5'>視覺</b>的融合探索

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    從算法角度看 SLAM(第 2 部分)

    ,分別是基于濾波器的 SLAM、基于圖形的 SLAM 和基于深度學(xué)習(xí)SLAM。 基于濾波器的 SLA
    的頭像 發(fā)表于 10-02 16:39 ?795次閱讀
    從算法角度看 <b class='flag-5'>SLAM</b>(第 2 部分)

    一種適用于動態(tài)環(huán)境的實時視覺SLAM系統(tǒng)

    既能保證效率和精度,又無需GPU,行業(yè)第一個達到此目標(biāo)的視覺動態(tài)SLAM系統(tǒng)。
    的頭像 發(fā)表于 09-30 14:35 ?1346次閱讀
    一種適用于動態(tài)環(huán)境的實時<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)