chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

雙目視覺是如何實現(xiàn)深度估計的?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2025-12-31 09:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]自動駕駛的純視覺方案中,單目攝像頭因無法直接感知深度,在環(huán)境理解上存在根本局限,雙目視覺技術(shù)在此需求下應(yīng)運而生。它通過模擬人眼,利用雙攝像頭的視差來推算距離,將二維圖像轉(zhuǎn)化為三維信息,從而為車輛決策提供關(guān)鍵的深度感知能力。

wKgZPGlUgEmAKvFWAAAQo00DEvw541.jpg

什么是雙目深度估計?

平時我們用眼睛看東西其實就是一種最自然的深度估計。人的兩只眼睛有一定的間距,大腦通過融合兩只眼睛看到的略有不同的圖像來判斷遠(yuǎn)近。計算機視覺里“雙目深度估計”就是借鑒這個原理,將兩個相機并排排列,并拍下同一場景,然后分析兩幅圖像的差異來推算距離。

單目攝像頭拍攝的二維圖像,僅包含色彩與亮度信息,無法直接提供場景中物體的距離數(shù)據(jù)。要獲取“距離”這一關(guān)鍵的深度信息,關(guān)鍵在于利用視差,也就是在另一個位置放置第二個相機,同時對同一場景成像。此時,物體在兩個視角的圖像中會產(chǎn)生位置偏移,通過計算這一偏移量,便可以精確推算出物體的三維距離。

wKgZO2lUgEqAGQMvAAA24pg8z-g051.jpg

圖片源自:網(wǎng)絡(luò)

如果我們知道了兩個攝像頭之間的距離(基線)和攝像機的焦距,當(dāng)我們找到兩個圖像里同一個物體對應(yīng)點的位置差(視差)時,就能用一個非常簡單的公式計算出這個點的真實深度,即:

深度=焦距×基線/視差。

從公式中我們可以看到,視差越大,物體越近;視差越小,物體越遠(yuǎn)。

wKgZPGlUgEqAf93jAAAR42n7O-I885.jpg

雙目深度估計的主要步驟

既然說到了視差,那么關(guān)鍵問題來了,怎么從一對左右圖像里找到這些對應(yīng)點?這中間其實涉及到多個流程。

wKgZO2lUgEqAKapUAABKhNTX3Gc934.jpg

圖片源自:網(wǎng)絡(luò)

兩個攝像頭從出廠到裝在一起時,會有一些位置和角度誤差,所以我們需要先做幾何標(biāo)定,確定每個攝像頭的內(nèi)部參數(shù)(比如焦距、主點位置)和它們之間的外部關(guān)系(位置和朝向)。只有這樣才能讓后面比較兩個圖像時的像素位置是準(zhǔn)確對應(yīng)的。

在完成雙目系統(tǒng)的校準(zhǔn)后,接下來要做的就是立體矯正。這一過程的目的是把兩個圖像都調(diào)整成在同一條水平線上,這樣同一場景點在左右圖像里的對應(yīng)關(guān)系只會在水平方向上變化,這極大簡化了后面的匹配難度。

立體匹配的核心任務(wù),就是在左右兩幅圖像中為同一物體找到相互對應(yīng)的像素點。由于之前已經(jīng)做了立體矯正,這個搜索被大大簡化了,只需要在右圖中沿著與左圖像素點對應(yīng)的同一水平線去掃描,找出看起來最相似的那個區(qū)域即可。盡管如此,要為圖像中每一個像素找到對應(yīng)點,計算量依然會非常龐大。因此可借助如經(jīng)典的塊匹配(Block Matching)或效果更優(yōu)的半全局匹配(Semi-Global Matching,SGM)來實現(xiàn)高效的匹配。

當(dāng)我們找到每個像素的對應(yīng)關(guān)系之后,就可以算出視差值。視差是同一個點在左右圖像中水平方向坐標(biāo)差的數(shù)量,這個差值越大代表這個點離相機越近。最后,把視差值帶入我們前面提到的公式,就能得到每一個像素對應(yīng)的深度值。這樣我們就生成了一張“深度圖”,每個像素不再只是顏色信息,還可以是一個距離值。

wKgZPGlUgEuASa8jAAASG3BOmsQ766.jpg

深度學(xué)習(xí)方法對雙目深度估計有何作用?

通過傳統(tǒng)計算機視覺方法完成上面的這些步驟,其實就可以做好雙目深度估計了,但是傳統(tǒng)方法主要依賴手工設(shè)計的特征和匹配算法,如比較左右圖像里像素塊的相似度,然后決定它們是不是對應(yīng)的點。這樣一來在一些紋理稀少的區(qū)域、光照變化大的情況下,這種匹配就很容易出錯,而且計算量也不小。

近年來,深度學(xué)習(xí)也被引入雙目深度估計領(lǐng)域。其核心目標(biāo)與傳統(tǒng)方法一致,仍是尋找左右圖像間的對應(yīng)關(guān)系并計算視差,但實現(xiàn)方式發(fā)生了根本改變。深度學(xué)習(xí)不再依賴人工設(shè)計的匹配代價與規(guī)則,而是通過卷積神經(jīng)網(wǎng)絡(luò)自動從數(shù)據(jù)中學(xué)習(xí)匹配特征。

wKgZO2lUgEuAMCBhAGWxt35A574746.jpg

圖片源自:網(wǎng)絡(luò)

該網(wǎng)絡(luò)以左右視圖作為輸入,直接輸出視差圖或深度圖。在大量立體圖像數(shù)據(jù)訓(xùn)練下,網(wǎng)絡(luò)能夠自主掌握哪些圖像特征利于匹配、哪些場景容易產(chǎn)生歧義,從而顯著提升匹配的魯棒性。因此,在遮擋區(qū)域、重復(fù)紋理或缺乏紋理的環(huán)境等傳統(tǒng)方法容易失效的場景下,基于深度學(xué)習(xí)的方法會表現(xiàn)出更高的準(zhǔn)確度和穩(wěn)定性。

深度學(xué)習(xí)方法的處理流程是先用神經(jīng)網(wǎng)絡(luò)提取左右圖像的特征,然后構(gòu)建一個“代價體”,表示在不同視差值下左右特征的匹配代價。接著再讓網(wǎng)絡(luò)學(xué)習(xí)從代價體里回歸出最終的視差值。整個過程可以端到端訓(xùn)練,不需要手工調(diào)各種參數(shù)。

當(dāng)然,端到端的深度學(xué)習(xí)系統(tǒng)需要大量帶真實深度標(biāo)注的數(shù)據(jù)來訓(xùn)練模型,而且在訓(xùn)練數(shù)據(jù)和真實應(yīng)用場景不一致時表現(xiàn)可能下降。這就需要一些自監(jiān)督、數(shù)據(jù)增強等策略來提升魯棒性。

wKgZPGlUgE2AKAIEAAASAJELks8096.jpg

雙目深度估計會遇到什么問題?

雙目深度估計一個常見的問題是像素匹配不準(zhǔn)確。如果物體表面沒什么紋理,兩個視角的圖像看起來就會一模一樣,這就讓系統(tǒng)難以判斷哪個點是對應(yīng)到哪個點。有些算法為了彌補這個問題,會用更復(fù)雜的特征或者上下文信息來輔助匹配,但仍不是萬無一失的。

wKgZO2lUgE6AKPLmAAadZZ1MXyI284.jpg

圖片源自:網(wǎng)絡(luò)

我們講的匹配過程是假設(shè)兩個圖像在同一時間點拍的。如果場景里有如行人、車輛等移動的物體,而兩個攝像頭抓拍的時間有微小差異,這就會讓匹配變得更難。深度學(xué)習(xí)方法可以用時序信息來緩解,但這本質(zhì)上還是一個復(fù)雜問題。

在雙目立體系統(tǒng)的設(shè)計中,基線長度的選取,本質(zhì)上是在測量精度和工程落地之間做選擇?;€越長,同一物體在左右圖像中產(chǎn)生的視差就越大,這不僅使匹配更容易,也能有效提高深度估計的精度。過長的基線會帶來安裝空間、機械穩(wěn)定性以及視野重疊區(qū)域減少等問題。但基線過短,遠(yuǎn)處物體的視差將變得極其微小,在像素級的計算中很容易被圖像噪聲、量化誤差等因素所淹沒,從而導(dǎo)致深度估計失效。

最后,還有像光照變化、遮擋、反射表面這些現(xiàn)實場景都會讓匹配變得不穩(wěn)定。這也是為什么在雙目系統(tǒng)設(shè)計中,需要花費大量精力在圖像預(yù)處理、匹配優(yōu)化、后處理濾波等步驟上。

wKgZPGlUgE6APePuAAARwcz1hbg184.jpg

最后的話

雙目深度估計的應(yīng)用場景十分廣泛,除了自動駕駛,它在工業(yè)檢測、無人機測繪、實時三維建模等領(lǐng)域也發(fā)揮著重要作用。在需要快速感知和重建三維空間的場景中,雙目視覺結(jié)合點云生成等技術(shù),能夠?qū)崿F(xiàn)高效的實時環(huán)境建模。雖然激光雷達(dá)等主動式傳感器在精度上更具優(yōu)勢,但雙目方案以其顯著的成本優(yōu)勢,成為許多對成本敏感應(yīng)用的理想選擇。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 雙目視覺
    +關(guān)注

    關(guān)注

    2

    文章

    38

    瀏覽量

    14506
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于SD3589高精度雙目立體視覺相機:助力三維感知與智能化應(yīng)用

    的單獨相機模塊組成,固定基線60mm,內(nèi)置高性能雙目光學(xué)采集卡與立體匹配算法,實現(xiàn)毫秒級數(shù)據(jù)同步采集,可直接輸出高精度深度圖、點云數(shù)據(jù)及校正后RGB圖像,為自動化產(chǎn)
    的頭像 發(fā)表于 01-05 15:29 ?159次閱讀
    基于SD3589高精度<b class='flag-5'>雙目</b>立體<b class='flag-5'>視覺</b>相機:助力三維感知與智能化應(yīng)用

    自動駕駛既然有雙目攝像頭了,為什么還要三目攝像頭?

    視覺系統(tǒng)中。 但在實地落地時,有些廠商并未止步于雙目,而是選擇了三目攝像頭的方案。為什么有了雙目,還要選擇三目攝像頭? 雙目攝像頭怎么“看出”深度
    的頭像 發(fā)表于 12-09 08:59 ?818次閱讀
    自動駕駛既然有<b class='flag-5'>雙目</b>攝像頭了,為什么還要三目攝像頭?

    車載雙目攝像頭如何“看見”世界?

    源自:網(wǎng)絡(luò) 車載雙目攝像頭(也稱立體視覺攝像頭,Stereo Camera)模仿人眼的視覺機制,通過兩個略有間距的攝像頭同時拍攝同一場景,比較兩幅圖像之間的差異,從而計算出深度信息。
    的頭像 發(fā)表于 11-13 09:17 ?1213次閱讀
    車載<b class='flag-5'>雙目</b>攝像頭如何“看見”世界?

    歐菲光與廣和通聯(lián)合首發(fā)ToF+雙目感知定位模塊

    11月,歐菲光與廣和通共研共創(chuàng),首發(fā)ToF+雙目感知定位模塊,即將批量交付,將機器視覺感知與端側(cè)AI模型進(jìn)行融合,實現(xiàn)新一代智能割草機在深度估算與定位感知性能的全面躍升,為其智能化升級
    的頭像 發(fā)表于 11-07 15:43 ?408次閱讀

    雙目環(huán)視立體視覺系統(tǒng)在智能駕駛行業(yè)的應(yīng)用

    在智能駕駛技術(shù)飛速發(fā)展的當(dāng)下,雙目立體視覺憑借其獨特的感知優(yōu)勢,在 360 環(huán)視產(chǎn)品方案以及各類輔助駕駛功能中發(fā)揮著關(guān)鍵作用,在最新法規(guī)要求與復(fù)雜場景下表現(xiàn)突出,為汽車在AEB、NOA、自動泊車等核心場景中重構(gòu)了安全與效率的邊界。
    的頭像 發(fā)表于 09-23 11:35 ?1030次閱讀

    奧比中光發(fā)布最新一代3D激光雷達(dá)及雙目深度相機

    近日,世界機器人大會現(xiàn)場,奧比中光發(fā)布最新一代3D激光雷達(dá)及雙目深度相機,以“場景拓展”與“極限感知”為核心優(yōu)勢,進(jìn)階全領(lǐng)域能力矩陣,刷新機器人性能上限,為各類機器人帶來更靈活可靠的視覺解決方案。
    的頭像 發(fā)表于 08-15 15:05 ?1328次閱讀

    基于凌智視覺識別模塊的基于單目視覺的目標(biāo)物測量裝置

    1.視覺測量整體方案本視覺測量系統(tǒng)采用單目視覺技術(shù)實現(xiàn)目標(biāo)物距離
    的頭像 發(fā)表于 07-31 15:35 ?874次閱讀
    基于凌智<b class='flag-5'>視覺</b>識別模塊的基于單<b class='flag-5'>目視覺</b>的目標(biāo)物測量裝置

    光子精密雙目3D線激光輪廓測量儀,擺脫視覺盲區(qū),1臺更比2臺強!

    光子精密雙目3D線激光輪廓測量儀(GL-8160D),在GL-8000系列的基礎(chǔ)上創(chuàng)新升級。GL-8160D采用全新雙目單線設(shè)計,突破傳統(tǒng)3D視覺檢測限制,而且不受外部拼接標(biāo)定誤差影響,有效消除單目盲區(qū),抗光干擾能力更強,可
    的頭像 發(fā)表于 07-16 17:21 ?1259次閱讀
    光子精密<b class='flag-5'>雙目</b>3D線激光輪廓測量儀,擺脫<b class='flag-5'>視覺</b>盲區(qū),1臺更比2臺強!

    雙目視覺在智能駕駛領(lǐng)域的應(yīng)用

    圍繞“雙目智駕應(yīng)用”,我們將推出系列文章深入解析雙目視覺如何跨越技術(shù)鴻溝,在中國智駕的沃土上生根發(fā)芽,探索其賦能未來出行的無限可能。
    的頭像 發(fā)表于 07-09 16:21 ?1177次閱讀

    大模型推理顯存和計算量估計方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過程對顯存和計算資源的需求較高,給實際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文將探討大模型推理顯存和計算量的估計
    發(fā)表于 07-03 19:43

    打破室外全域工作“盲區(qū)”!廣和通雙目視覺算法將成就云深處科技機器狗“慧眼”

    雙目視覺模塊RV-BOT為云深處科技四足機器人打通室外工作鏈路。通過深度融合廣和通自主研發(fā)的雙目視覺算法,RV-BOT將顯著提升了室外場景中的定位精度,為國產(chǎn)足式機器人的自主導(dǎo)航與智能化應(yīng)用開辟了新路徑。 ? ? 四足機器人在偵
    發(fā)表于 05-15 14:26 ?1604次閱讀
    打破室外全域工作“盲區(qū)”!廣和通<b class='flag-5'>雙目視覺</b>算法將成就云深處科技機器狗“慧眼”

    奧比中光發(fā)布新一代雙目3D相機Gemini 435Le

    近日,奧比中光在美國底特律舉辦的Automate 2025展會上發(fā)布Gemini 435Le,獲得眾多機器人專業(yè)人士的關(guān)注。作為最新一代工業(yè)級雙目視覺解決方案,Gemini 435Le雙目3D相機在前作基礎(chǔ)上針對智能機器人的工業(yè)自動化應(yīng)用場景進(jìn)行了大幅提升,目前具備業(yè)界領(lǐng)
    的頭像 發(fā)表于 05-14 17:15 ?1011次閱讀

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    : 一、機器人視覺:從理論到實踐 第7章詳細(xì)介紹了ROS2在機器視覺領(lǐng)域的應(yīng)用,涵蓋了相機標(biāo)定、OpenCV集成、視覺巡線、二維碼識別以及深度學(xué)習(xí)目標(biāo)檢測等內(nèi)容。通過學(xué)習(xí),我認(rèn)識到:
    發(fā)表于 05-03 19:41

    【AIBOX 應(yīng)用案例】單目深度估計

    ?Firefly所推出的NVIDIA系列的AIBOX可實現(xiàn)深度估計,該技術(shù)是一種從單張或者多張圖像預(yù)測場景深度信息的技術(shù),廣泛應(yīng)用于計算機視覺
    的頭像 發(fā)表于 03-19 16:33 ?1011次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b><b class='flag-5'>估計</b>

    雙目視覺處理系統(tǒng)開發(fā)實例-基于米爾安路國產(chǎn)DR1M90開發(fā)板

    以太網(wǎng),RAM模塊,PL DMA和VTC。圖二 FPGA底層架構(gòu)框圖 2.2 雙目視覺處理流水線 2.2.1 傳感器配置層為實現(xiàn)高效的傳感器配置,本系統(tǒng)采用混合式I2C配置引擎,通過PL端硬件I2C
    發(fā)表于 02-21 14:20