chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于多模態(tài)語義SLAM框架

lhl545545 ? 來源:3D視覺工坊 ? 作者:3D視覺工坊 ? 2022-08-31 09:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

4963fc12-28b9-11ed-ba43-dac502259ad0.png ? 大家好,今天為大家?guī)淼奈恼率?Multi-modal Semantic SLAM for Complex Dynamic Environments 同時定位和建圖(SLAM)是許多現(xiàn)實世界機器人應用中最重要的技術之一。靜態(tài)環(huán)境的假設在大多數(shù) SLAM 算法中很常見,但是對于大多數(shù)應用程序來說并非如此。最近關于語義 SLAM 的工作旨在通過執(zhí)行基于圖像的分割來理解環(huán)境中的對象并從場景上下文中區(qū)分動態(tài)信息。然而,分割結果往往不完善或不完整,這會降低映射的質量和定位的準確性。在本文中,我們提出了一個強大的多模態(tài)語義框架來解決復雜和高度動態(tài)環(huán)境中的 SLAM 問題。我們建議學習更強大的對象特征表示,并將三思而后行的機制部署到主干網(wǎng)絡,從而為我們的基線實例分割模型帶來更好的識別結果。此外,將純幾何聚類和視覺語義信息相結合,以減少由于小尺度物體、遮擋和運動模糊造成的分割誤差的影響。已經(jīng)進行了徹底的實驗來評估所提出方法的性能。結果表明,我們的方法可以在識別缺陷和運動模糊下精確識別動態(tài)對象。此外,所提出的 SLAM 框架能夠以超過 10 Hz 的處理速率有效地構建靜態(tài)密集地圖,這可以在許多實際應用中實現(xiàn)。訓練數(shù)據(jù)和建議的方法都是開源的。?

主要工作與貢獻

4963fc12-28b9-11ed-ba43-dac502259ad0.png ? 1. 本文提出了一個魯棒且快速的多模態(tài)語義 SLAM 框架,旨在解決復雜和動態(tài)環(huán)境中的 SLAM 問題。具體來說,將僅幾何聚類和視覺語義信息相結合,以減少由于小尺度對象、遮擋和運動模糊導致的分割誤差的影響。 2. 本文提出學習更強大的對象特征表示,并將三思機制部署到主干網(wǎng)絡,從而為基線實例分割模型帶來更好的識別結果。 3. 對所提出的方法進行了全面的評估。結果表明,本文的方法能夠提供可靠的定位和語義密集的地圖

算法流程

4963fc12-28b9-11ed-ba43-dac502259ad0.png ? 499cabc0-28b9-11ed-ba43-dac502259ad0.png 圖 2 是框架的概述。它主要由四個模塊組成,分別是實例分割模塊、多模態(tài)融合模塊、定位模塊和全局優(yōu)化與映射模塊。 1.實例分割和語義學習 使用2D實例分割網(wǎng)絡,一張圖像的實例分割結果: 49b12a50-28b9-11ed-ba43-dac502259ad0.png C代表類別,M是物體的掩碼信息,n代表當前圖像中存在物體數(shù)量。 圖像在空間上被分成 N × N 個網(wǎng)格單元。如果一個對象的中心落入一個網(wǎng)格單元,該網(wǎng)格單元負責分別預測類別分支Bc和掩碼分支P m 中對象的語義類別Cij和語義掩碼Mij: 49bfaaee-28b9-11ed-ba43-dac502259ad0.png λ 是類的數(shù)量。φ 是網(wǎng)格單元的總數(shù)。 為了滿足實時性的要求:采用SOLOv2 的輕量級版本,但精度較低,可實現(xiàn)實時實例分割。 為了提高分割精度:實施了多種方法來在骨干網(wǎng)絡中構建更有效和更健壯的特征表示鑒別器。 輸出是每個動態(tài)對象的像素級實例掩碼,以及它們對應的邊界框和類類型。為了更好地將動態(tài)信息集成到 SLAM 算法中,輸出二進制掩碼被轉換為包含場景中所有像素級實例掩碼的單個圖像。蒙版落在其上的像素被認為是“動態(tài)狀態(tài)”,否則被認為是“靜態(tài)”。然后將二進制掩碼應用于語義融合模塊以生成 3D 動態(tài)掩碼。 2.多模態(tài)融合 1.移動模糊補償: 目前實例分割的性能已經(jīng)是不錯的,但是移動的物體會出現(xiàn)物體識別不完整 導致物體的邊界不明確 最終影響定位精度。因此,本文首先實現(xiàn)形態(tài)膨脹,將 2D 像素級掩模圖像與結構元素進行卷積,以逐漸擴展動態(tài)對象的區(qū)域邊界。形態(tài)膨脹結果標志著動態(tài)對象周圍的模糊邊界。我們將動態(tài)對象及其邊界作為動態(tài)信息,將在多模態(tài)融合部分進一步細化。 2.幾何聚類和語義融合: 通過歐幾里得空間的連通性分析進行補償也在本文的工作中實現(xiàn)。實例分割網(wǎng)絡在大多數(shù)實際情況下都具有出色的識別能力,但是由于區(qū)域之間的模糊像素,運動模糊限制了分割性能,導致了不希望的分割錯誤。因此,將點云聚類結果和分割結果結合起來,以更好地細化動態(tài)對象。特別是,對幾何信息進行連通性分析,并與基于視覺的分割結果合并。 為了提高工作效率,首先將 3D 點云縮小以減少數(shù)據(jù)規(guī)模,并將其用作點云聚類的輸入。然后將實例分割結果投影到點云坐標上,對每個點進行標注。當大多數(shù)點(90%)是動態(tài)標記點時,點云簇將被視為動態(tài)簇。當靜態(tài)點靠近動態(tài)點簇時,它會被重新標記為動態(tài)標簽。并且當附近沒有動態(tài)點聚類時,動態(tài)點將被重新標記。 3.定位與位姿估計 1.特征提?。?/strong> 多模態(tài)動態(tài)分割后,點云分為動態(tài)點云PD和靜態(tài)點云PS?;谠戎暗墓ぷ鳎o態(tài)點云隨后用于定位和建圖模塊。與現(xiàn)有的 SLAM 方法(如 LOAM )相比,原先之前的工作中提出的框架能夠支持 30 Hz 的實時性能,速度要快幾倍。與 ORB-SLAM2和 VINS-MONO 等視覺 SLAM 相比,它還可以抵抗光照變化。對于每個靜態(tài)點 pk ∈ PS ,可以在歐幾里得空間中通過半徑搜索來搜索其附近的靜態(tài)點集 Sk。讓 |S|是集合 S 的基數(shù),因此局部平滑度定義為: 49d33d52-28b9-11ed-ba43-dac502259ad0.png 邊緣特征由 σk 大的點定義,平面特征由 σk 小的點定義。 2.數(shù)據(jù)關聯(lián): 通過最小化點到邊緣和點到平面的距離來計算最終的機器人位姿。對于邊緣特征點 pE ∈ PE ,可以通過 p^E = T·pE 將其轉換為局部地圖坐標,其中 T ∈ SE(3) 是當前位姿。從局部邊緣特征圖中搜索 2 個最近的邊緣特征 p 1 E 和 p 2 E,點到邊緣殘差定義: 49e770b0-28b9-11ed-ba43-dac502259ad0.png 類似地,給定一個平面特征點 pL ∈ PL 及其變換點 p^L = T·pL,我們可以從局部平面圖中搜索 3 個最近點 。點到平面殘差定義為: 4a078d28-28b9-11ed-ba43-dac502259ad0.png3.位姿估計: 通過最小化點到平面和點到邊緣殘差的總和來計算最終的機器人位姿: 4a2eef30-28b9-11ed-ba43-dac502259ad0.png4.特征地圖更新和關鍵幀選擇: 一旦位姿優(yōu)化解決,特征點將被更新到局部地圖和平面地圖當中。這些點將被用于一下幀的數(shù)據(jù)關聯(lián)。當平移或者旋轉的值大于閾值時候,該幀將被選作關鍵幀。 4.全局地圖構建 全局語義地圖由靜態(tài)地圖和動態(tài)地圖構成。視覺信息用于構建測色密集靜態(tài)地圖。視覺信息能夠反投影3D點到圖像平面。為防止內存溢出的問題采用3d is here: Point cloud library (pcl)。

實驗結果

4963fc12-28b9-11ed-ba43-dac502259ad0.png ? 1.數(shù)據(jù)獲取 4a60bc7c-28b9-11ed-ba43-dac502259ad0.png 在自動駕駛、智能倉儲物流等諸多場景中,人往往被視為動態(tài)對象。因此,本文從 COCO 數(shù)據(jù)集中選擇了 5,000 張人體圖像。在實驗中,所提出的方法在倉庫環(huán)境中進行評估,如圖 4 所示。除了將人視為動態(tài)對象之外,先進的工廠還需要人與機器人和機器人與機器人之間的協(xié)作,因此自動導引車 ( AGV)也是潛在的動態(tài)對象。因此,總共收集了 3,000 張 AGV 圖像來訓練實例分割網(wǎng)絡,其中一些 AGV 如圖 4 所示。 2.評估實例分割性能 評估 COCO 數(shù)據(jù)集上關于分割損失和平均精度(mAP)的分割性能。該評估的目的是將我們采用的實例分割網(wǎng)絡 SOLOv2 與所提出的方法進行比較。結果如表I所示。 4a9239b4-28b9-11ed-ba43-dac502259ad0.png 分割結果在圖 3 中進一步可視化: 4aa6706e-28b9-11ed-ba43-dac502259ad0.png3. 稠密建圖和動態(tài)跟蹤 建圖如 圖5所示,能夠識別潛在移動的物體并且從靜態(tài)地圖中將其分離開來。 4abe60de-28b9-11ed-ba43-dac502259ad0.png 定位結果 如圖6所示: 4ae70836-28b9-11ed-ba43-dac502259ad0.png 4.定位漂移的消融實驗 4b0780fc-28b9-11ed-ba43-dac502259ad0.png

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2959

    瀏覽量

    110781
  • 應用程序
    +關注

    關注

    38

    文章

    3337

    瀏覽量

    59041
  • SLAM算法
    +關注

    關注

    0

    文章

    11

    瀏覽量

    2616

原文標題:復雜動態(tài)環(huán)境的多模態(tài)語義 SLAM(arxiv 2022)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    體驗MiniCPM-V 2.6 模態(tài)能力

    模態(tài)組網(wǎng)
    jf_23871869
    發(fā)布于 :2025年01月20日 13:40:48

    采用ANSYS的三浮陀螺儀框架模態(tài)分析

    本帖最后由 richthoffen 于 2020-5-14 09:35 編輯 采用ANSYS的三浮陀螺儀框架模態(tài)分析
    發(fā)表于 05-14 09:31

    HOOFR-SLAM的系統(tǒng)框架及其特征提取

    Intelligent Vehicles Applications1. 介紹2. HOOFR-SLAM2.1 系統(tǒng)框架2.2 HOOFR特征提取2.3 映射線程2.3.1 特征匹配1. 介紹提出一種HOOFR-...
    發(fā)表于 12-21 06:35

    模態(tài)生物特征識別系統(tǒng)框架

    針對模態(tài)生物特征識別系統(tǒng)并行融合模式中使用方便性和使用效率方面的問題,在現(xiàn)有序列化模態(tài)生物特征識別系統(tǒng)的基礎上,提出了一種結合并行融合和序列化融合的
    發(fā)表于 01-02 18:47 ?0次下載
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>生物特征識別系統(tǒng)<b class='flag-5'>框架</b>

    高仙SLAM具體的技術是什么?SLAM2.0有哪些優(yōu)勢?

    高仙的SLAM2.0技術體系核心,是基于傳感器融合+深度學習的架構,即語義SLAM。高仙SLAM2.0技術方案以
    的頭像 發(fā)表于 05-15 16:48 ?9339次閱讀

    基于語義耦合相關的判別式跨模態(tài)哈希特征表示學習算法

    基于哈希的跨模態(tài)檢索以其存儲消耗低、査詢速度快等優(yōu)點受到廣泛的關注???b class='flag-5'>模態(tài)哈希學習的核心問題是如何對不同模態(tài)數(shù)據(jù)進行有效地共享語義空間嵌入學習。大多數(shù)算法在對
    發(fā)表于 03-31 11:28 ?12次下載
    基于<b class='flag-5'>語義</b>耦合相關的判別式跨<b class='flag-5'>模態(tài)</b>哈希特征表示學習算法

    基于語義耦合相關的判別式跨模態(tài)哈希學習算法

    基于語義耦合相關的判別式跨模態(tài)哈希學習算法
    發(fā)表于 06-07 16:36 ?7次下載

    自動駕駛深度模態(tài)目標檢測和語義分割:數(shù)據(jù)集、方法和挑戰(zhàn)

    了許多解決深度模態(tài)感知問題的方法。 然而,對于網(wǎng)絡架構的設計,并沒有通用的指導方針,關于“融合什么”、“何時融合”和“如何融合”的問題仍然沒有定論。本文系統(tǒng)地總結了自動駕駛 中深度模態(tài)
    發(fā)表于 06-06 10:37 ?0次下載
    自動駕駛深度<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>目標檢測和<b class='flag-5'>語義</b>分割:數(shù)據(jù)集、方法和挑戰(zhàn)

    TRO新文:用于數(shù)據(jù)關聯(lián)、建圖和高級任務的對象級SLAM框架

    總的來說,框架實現(xiàn)穩(wěn)健的數(shù)據(jù)關聯(lián)、精確的物體參數(shù)化以及基于語義對象地圖的高層應用,解決了對象SLAM涉及的主要挑戰(zhàn)。語義對象地圖能為機器人抓取、導航、規(guī)劃等復雜任務提供必要信息,有助于
    的頭像 發(fā)表于 07-14 16:49 ?986次閱讀
    TRO新文:用于數(shù)據(jù)關聯(lián)、建圖和高級任務的對象級<b class='flag-5'>SLAM</b><b class='flag-5'>框架</b>

    中科大&amp;字節(jié)提出UniDoc:統(tǒng)一的面向文字場景的模態(tài)大模型

    如上圖所示,UniDoc基于預訓練的視覺大模型及大語言模型,將文字的檢測、識別、spotting(圖中未畫出)、模態(tài)理解等四個任務,通過多模態(tài)指令微調的方式,統(tǒng)一到一個框架中。具體地
    的頭像 發(fā)表于 08-31 15:29 ?1934次閱讀
    中科大&amp;字節(jié)提出UniDoc:統(tǒng)一的面向文字場景的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型

    DreamLLM:多功能模態(tài)大型語言模型,你的DreamLLM~

    由于固有的模態(tài)缺口,如CLIP語義主要關注模態(tài)共享信息,往往忽略了可以增強多模態(tài)理解的模態(tài)特定知識。因此,這些研究并沒有充分認識到
    的頭像 發(fā)表于 09-25 17:26 ?1117次閱讀
    DreamLLM:多功能<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大型語言模型,你的DreamLLM~

    用語言對齊模態(tài)信息,北大騰訊等提出LanguageBind,刷新多個榜單

    目前的 VL 預訓練方法通常僅適用于視覺和語言模態(tài),而現(xiàn)實世界中的應用場景往往包含更多的模態(tài)信息,如深度圖、熱圖像等。如何整合和分析不同模態(tài)的信息,并且能夠在多個模態(tài)之間建立準確的
    的頭像 發(fā)表于 11-23 15:46 ?1022次閱讀
    用語言對齊<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>信息,北大騰訊等提出LanguageBind,刷新多個榜單

    OneLLM:對齊所有模態(tài)框架!

    OneLLM 是第一個在單個模型中集成八種不同模態(tài)的MLLM。通過統(tǒng)一的框架和漸進式模態(tài)對齊pipelines,可以很容易地擴展OneLLM以包含更多數(shù)據(jù)模式。
    的頭像 發(fā)表于 01-04 11:27 ?1492次閱讀
    OneLLM:對齊所有<b class='flag-5'>模態(tài)</b>的<b class='flag-5'>框架</b>!

    利用VLM和MLLMs實現(xiàn)SLAM語義增強

    (VLM)和模態(tài)大語言模型(MLLMs)來強化此類環(huán)境中的對象級語義映射。 ? 文章: Learning from Feedback: Semantic Enhancement for Object
    的頭像 發(fā)表于 12-05 10:00 ?1395次閱讀
    利用VLM和MLLMs實現(xiàn)<b class='flag-5'>SLAM</b><b class='flag-5'>語義</b>增強

    字節(jié)跳動發(fā)布OmniHuman 模態(tài)框架

    2 月 6 日消息,字節(jié)跳動近日發(fā)布了一項重大成果 ——OmniHuman 模態(tài)框架,其優(yōu)勢在于其強大的視頻生成能力。用戶只需提供一張任意尺寸和人物占比的單張圖片,再結合一段輸入音頻,就能生成
    的頭像 發(fā)表于 02-07 17:50 ?797次閱讀