chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛中提到的“深度相機”是個啥?

智駕最前沿 ? 來源:智駕最前沿 ? 2025-12-13 13:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]自動駕駛的實現(xiàn)離不開各類傳感器的支持,其中純視覺方案成為很多技術方案的選擇,但由于攝像頭無法感知到環(huán)境深度信息,因此有部分技術方案提到了“深度相機”的技術。深度相機,指的是那些除了拍顏色(RGB)以外,還能直接或間接給出“每個像素到攝像頭距離”信息的傳感器。簡單理解就是,普通相機告訴你“這像素看起來是什么顏色、有什么紋理”,而深度相機還會告訴你“這點離車有多遠”。正因為在自動駕駛里,知道距離比知道顏色更重要,車輛要判斷碰不碰得上、要多早剎車、怎樣規(guī)規(guī)劃路徑等都要依賴深度信息或與其它傳感器融合后的三維感知結(jié)果。

深度相機常見的三種工作原理

深度相機的形式很多,常見的有基于兩個鏡頭的立體相機(stereo camera)、投影結(jié)構(gòu)光或編碼光的相機、以及飛行時間(Time-of-Flight,ToF)相機。它們產(chǎn)生的深度表示通常是一張“深度圖”(depth map)或者稀疏的點云,與激光雷達(LiDAR)產(chǎn)生的點云在用途上有交集,但在原理、精度、成本和適用場景上都有明顯差別。

1)立體視覺(Stereo)

立體視覺的思路就是模仿人眼。把兩臺同類的彩色或黑白相機同框安裝,它們之間有一個固定的“基線”(baseline,兩個鏡頭中心之間的距離)。當看到同一場景時,圖像中的同一個物體點在兩幅圖像上的橫向位置會有差異,這個差異叫做視差(disparity)。通過已知的基線長度和攝像頭的內(nèi)外參,視差可以反算成深度(距離)。

車載攝像頭 圖片源自網(wǎng)絡

立體法的關鍵在于“匹配”,算法要在左右圖像里準確找到同一像素對應的點;匹配困難的地方包括無紋理表面、重復紋理、強反光或遮擋區(qū)域等場景。立體視覺的優(yōu)勢是可以用普通相機硬件實現(xiàn),成本低、像素高,理論上分辨率和范圍可以通過更大基線、更高分辨率相機提升;但其劣勢就是對光照、紋理和計算資源敏感,長距離深度精度退化較快。

2)結(jié)構(gòu)光與編碼光

這類方法在場景中投射已知的光學圖案(例如條紋、點陣或其他編碼圖形),然后用相機觀察圖案在物體表面的變形,從變形情況反推出深度。結(jié)構(gòu)光在如人體建模、人臉識別設備(早期的結(jié)構(gòu)光人臉識別器)等近距離應用里非常常見。其優(yōu)點是近距離精度高,且因為系統(tǒng)自己提供“紋理”,因此對紋理依賴小。其缺點是對環(huán)境光敏感,在強陽光下投影圖案容易被淹沒,導致深度失敗。結(jié)構(gòu)光僅適合短到中距離(幾厘米到幾米)的應用場景,若擴展到行車所需的幾十米就會遇到功率、可見性和安全性的問題。

3)飛行時間(ToF)

ToF相機通過測量光從傳感器發(fā)出、到物體反射、再返回傳感器所需的時間來算距離。常見實現(xiàn)有脈沖ToF和相位ToF兩類。脈沖ToF直接測量脈沖往返時間,原理簡單但要求高速電子。相位ToF發(fā)出連續(xù)調(diào)制的光信號,測量發(fā)射與接收信號之間的相位差來估算距離,這在短至中距離里更常見。

ToF的優(yōu)點是能直接得到每個像素的深度,實時性好、算法復雜度低于立體匹配;缺點包括多徑干擾(光在場景中多次反射導致的誤讀)、對強光敏感(陽光含大量紅外會提升噪聲)、以及范圍和分辨率受限。工業(yè)級ToF可以做到幾十米的量級,但在車用場景里,要兼顧分辨率、幀率和抗日照能力仍然需要工程折中。

除了這三種之外,還有一些混合方案和更靠近LiDAR的固態(tài)“閃光式”測距設備。但單純依靠單目RGB相機做“深度估計”的方法(基于學習的單目深度估計)嚴格來說不是深度相機,而是用算法從單張圖像推斷深度的技術;這樣的深度通常是相對的、帶有尺度不確定性或需要額外約束校準,只能將它當作補充而不是可信賴的主深度源。

深度相機與普通相機的關鍵區(qū)別

普通相機輸出的是亮度和顏色信息,也就是每個像素的RGB值;深度相機除了這些(有時深度相機本身也能輸出RGB)之外,還輸出與攝像頭之間的距離信息。深度數(shù)據(jù)直接給出三維幾何信息,使得后續(xù)的檢測、跟蹤、避障和定位變得更直接;普通相機則需要依賴視覺算法(比如通過特征匹配、結(jié)構(gòu)從運動或單目深度估計)來間接獲得距離。

圖片源自網(wǎng)絡

普通相機的設計追求高分辨率、寬動態(tài)范圍和低噪聲的圖像采集,傳感器以記錄光子數(shù)為主。深度相機的硬件則要額外設計光源(結(jié)構(gòu)光、ToF)或雙攝同步與高精度時鐘(ToF)以及在某些系統(tǒng)中更嚴格的機械安裝精度(立體需要精確的基線和標定)。這意味著深度相機往往在功耗、復雜度和成本上高于單純的普通相機,雖然基于兩個普通相機的立體系統(tǒng)可以在成本上有優(yōu)勢,但對計算和標定提出了更高要求。

深度圖通常也是單通道的浮點或整數(shù)距離數(shù)據(jù),需要與相機內(nèi)參轉(zhuǎn)換成三維點云或用于后續(xù)的感知模塊。普通相機的數(shù)據(jù)更適合直接送入目標檢測、語義分割等視覺網(wǎng)絡。深度數(shù)據(jù)和RGB數(shù)據(jù)各有長處,RGB擅長識別類別和外觀,深度擅長提供幾何信息,因此在自動駕駛系統(tǒng)里,常見做法是把兩者融合,用RGB做識別,用深度做定位與幾何推理。

此外,立體視覺在暗光或無紋理時會失效;結(jié)構(gòu)光在強光下會被淹沒;ToF在直射陽光或存在強紅外光源時噪聲會上升。普通相機在寬動態(tài)場景下也有挑戰(zhàn),但可以通過曝光控制、HDR等手段改善??傊?,不同傳感器在不同環(huán)境下各有盲區(qū),這正是為什么自動駕駛系統(tǒng)要用相機、雷達、激光雷達等多傳感器融合的原因。

深度相機的缺點有哪些

由于深度相機能讓機器直接看到三維世界,很多人感覺其可以直接替代激光雷達,但事實并非如此。深度相機的確能帶來如立體感知、精準測距、三維建模等很多好處,但它也有不少短板,尤其是在車載這種復雜場景下,更是要各種“妥協(xié)”和“取舍”。

先說最典型的一個問題,那就是距離和精度的矛盾。立體視覺靠的是“視差”原理,簡單來說就是兩個攝像頭看到同一個物體的角度差來計算深度。問題是,距離越遠,角度差就越小,計算的誤差就越明顯。你想要讓遠處也測得準,就得拉大兩個攝像頭之間的距離,或者提高圖像分辨率。但拉太開安裝位置受限,還容易被遮擋;分辨率太高又增加算力負擔和成本。ToF(飛行時間)相機在近距離表現(xiàn)不錯,但想讓它測得遠、看得清,就得用更復雜的光源和接收器,功耗、熱量、成本全都往上飆。至于結(jié)構(gòu)光,在汽車這種強光、遠距離的環(huán)境里幾乎“吃不開”,更多是短距應用。

還有就是環(huán)境光和物體表面的問題。不管是哪種原理的深度相機,本質(zhì)上都要依賴光線的反射。現(xiàn)實世界里的光照條件可比實驗室復雜多了。陽光太強會把信號淹沒,雪地的反光能“晃瞎”傳感器,金屬表面、玻璃、濕滑路面這些都能讓測量結(jié)果亂成一團。ToF可能會被多次反射的光干擾,導致算出錯誤的距離;結(jié)構(gòu)光在透明或鏡面物體上會出現(xiàn)形變;立體相機在一大片沒有紋理的區(qū)域,如在光滑車門或者天窗上,根本找不到對應點。更別提下雨、下雪、起霧、夜間燈光這些情況了,都是深度相機的“敵人”。

深度圖的分辨率也是一個老大難問題。很多車用深度相機輸出的深度圖其實挺“糙”的,點比較稀疏,還容易帶噪聲。相比清晰的RGB圖像,深度圖往往細節(jié)不足,這在識別細小物體或復雜邊緣時會出麻煩。雖然可以用算法補全或者把深度和RGB結(jié)合來提升效果,但那也意味著要消耗更多算力。

立體視覺需要大量計算來匹配圖像,尤其是高分辨率、高幀率的時候,對處理器的壓力特別大。ToF雖然直接輸出深度信息,但為了讓結(jié)果更干凈,還要做多頻信號解碼、噪聲過濾、多路徑校正,這些都比較耗費資源。車載系統(tǒng)的算力和功耗都有限,所以必須在精度、幀率和實時性之間找平衡。

還有一個很現(xiàn)實的問題,那就是標定和穩(wěn)定性。深度相機其實特別“嬌氣”,尤其是立體視覺那種。兩個攝像頭的角度、位置稍微有點偏差,測出來的深度就會跑偏。汽車在行駛過程中會有震動、溫度變化、甚至輕微碰撞,這些都會影響標定結(jié)果。ToF相機也怕溫漂,需要做溫度補償,否則數(shù)據(jù)會飄。為了保持準確,就得設計堅固的支架、加上定期標定,甚至用算法實時校準。

此外,深度相機還有個天然的限制,它只能“看見”眼前的東西。被擋住的物體,它完全無能為力。比如車旁邊的低矮障礙物、角落里的行人,只要被遮擋了,深度相機就測不到,這也是為什么自動駕駛技術上從來不會只靠深度相機。它更像是輔助感知的一環(huán),用來填補其他傳感器的空白。

理論上,立體相機用兩顆普通鏡頭就能實現(xiàn)深度感知,看起來挺劃算。但要真正上車,事情就變復雜了。你得考慮它的防塵、防水、抗震,還得通過車規(guī)認證、EMC測試、熱設計驗證……這些都要花錢。而且深度相機出來的數(shù)據(jù)量大,對后端處理單元要求也高,算力芯片、數(shù)據(jù)傳輸、冗余設計全都得配齊。ToF和結(jié)構(gòu)光更貴,還涉及主動光源、安全認證等問題。要在整車上集成好,不僅費錢,還費腦。

所以說,深度相機確實有它的厲害之處,但也沒那么“完美”。它能提供直觀的空間信息,是視覺體系的重要補充,但想讓它單獨承擔自動駕駛的感知任務,還遠遠不夠。真正成熟的方案,都是多傳感器融合,讓深度相機、雷達、激光雷達、普通相機各司其職,互相補短。只有這樣,車輛才能在復雜環(huán)境里既“看得清”,又“看得穩(wěn)”。

什么時候用深度相機,怎樣組合其它傳感器

在自動駕駛系統(tǒng)設計中,選擇深度相機還是其他傳感器,取決于任務、場景和成本。近距離低速場景(比如自動泊車、駕駛員監(jiān)控、車內(nèi)交互)非常適合ToF或結(jié)構(gòu)光,因為這些場景對短距精度要求高,環(huán)境相對可控。需要高分辨率幾何信息以做精細定位或障礙物邊界判斷時,立體視覺搭配高分辨率相機是個劃算的選擇,但必須配合強大的視差計算和可靠的在線校準。

對于高速公路或遠距感知,激光雷達和毫米波雷達仍然是主力。激光雷達的遠距分辨率和精度,以及毫米波雷達對惡劣天氣的魯棒性,都是光學深度相機難以完全替代的。此時深度相機作為幾何感知的補充,把RGB相機、深度相機、雷達與激光雷達的數(shù)據(jù)融合在一起,取各自的強項來覆蓋彼此的弱點。比如用深度圖快速篩選近距障礙物,用RGB做語義識別,用雷達做速度估計和惡劣天氣下的穩(wěn)定探測,用激光雷達做遠距精確定位。深度相機還能降低某些計算負擔:在已知深度的區(qū)域,很多視覺算法可以避開昂貴的三維重建步驟,直接在深度空間做決策。

當然,還有很多實際細節(jié)要考慮,傳感器放置位置與視場覆蓋、傳感器同步與時間戳精度、數(shù)據(jù)帶寬與壓縮策略、在線去噪與異常檢測、在不同光照/天氣下的退化檢測與降級策略、以及冗余與故障切換機制。這些都是把深度相機從實驗室?guī)У杰囈?guī)產(chǎn)品化時必須解決的問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自動駕駛
    +關注

    關注

    793

    文章

    14819

    瀏覽量

    178668
  • 深度相機
    +關注

    關注

    0

    文章

    25

    瀏覽量

    3157
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    自動駕駛中常提的“強化學習”是?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學習(Reinforcement Learning,簡稱RL)”,強化學習是一類讓機器通過試錯來學會做決策的技術。簡單理解
    的頭像 發(fā)表于 10-23 09:00 ?573次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的“強化學習”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常提的“專家數(shù)據(jù)”是

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,經(jīng)常會聽到一概念,那便是“專家數(shù)據(jù)”。專家數(shù)據(jù),說白了就是“按理應該這么做”的那類示范數(shù)據(jù)。它不是隨機抓來的日志,也不是隨便標注的標簽,而是來源可靠
    的頭像 發(fā)表于 10-09 09:33 ?463次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的“專家數(shù)據(jù)”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常提的ODD是

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛中,經(jīng)常會聽到一概念,那就是ODD。所謂ODD,全稱為Operational Design Domain,中文常譯為“運行設計域”或者“作業(yè)域”。直觀一點
    的頭像 發(fā)表于 09-22 09:04 ?825次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的ODD是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常提的硬件在環(huán)是?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛技術時,經(jīng)常會提及一技術,那就是硬件在環(huán),所謂的硬件在環(huán)是?對于自動駕駛來說有
    的頭像 發(fā)表于 08-14 08:54 ?1141次閱讀

    自動駕駛中常提的RTK是

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛關鍵技術時,經(jīng)常會聽到一技術,那就是RTK,很多人看到RTK后一定會想,這到底是技術?為啥這個技術很少在發(fā)布會上看到,但對于
    的頭像 發(fā)表于 08-10 10:35 ?989次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的RTK是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常提的慣性導航系統(tǒng)是?可以不用嗎?

    每次提到自動駕駛硬件時,大家可能第一反應想到的是激光雷達、車載攝像頭、毫米波雷達等,但想要讓自動駕駛車輛實際落地,有一硬件也非常重要,那就是慣性導航系統(tǒng)。在很多討論
    的頭像 發(fā)表于 07-24 18:12 ?1829次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的慣性導航系統(tǒng)是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?可以不用嗎?

    自動駕駛中常提的高精度地圖是?有何審查要求?

    不僅在空間分辨率和數(shù)據(jù)豐富度上有質(zhì)的飛躍,還在數(shù)據(jù)處理與安全管理方面提出了更嚴格的規(guī)范。那高精度地圖到底是?是否有什么具體需求? 高精度地圖,顧名思義,是一種面向自動駕駛的高分辨率、結(jié)構(gòu)化道路環(huán)境數(shù)據(jù)集。它不僅包含道路的幾何
    的頭像 發(fā)表于 07-03 19:29 ?786次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的高精度地圖是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?有何審查要求?

    自動駕駛中常提的世界模型是?

    對外部環(huán)境進行抽象和建模的技術,讓自動駕駛系統(tǒng)在一簡潔的內(nèi)部“縮影”里,對真實世界進行描述與預測,從而為感知、決策和規(guī)劃等關鍵環(huán)節(jié)提供有力支持。 什么是世界模型? 我們不妨先把“世界模型”想象成一種“數(shù)字化的地
    的頭像 發(fā)表于 06-24 08:53 ?1049次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的世界模型是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常提的HMI是?

    控”的過程中,人機交互界面擔負著承上啟下、溝通信息與建立信任的重任。此外,這一領域也是可以給駕駛員和乘客帶來最直觀感知的一項技術,因此對于很多車企來說,這也是最值得深度研究的一部分。那HMI到底是
    的頭像 發(fā)表于 06-22 13:21 ?2295次閱讀

    自動駕駛中常提的“點云”是

    ?對自動駕駛有何影響? 點云是? 點云(Point Cloud)是一種在三維空間中由大量離散點組成的數(shù)據(jù)集合,每個點包含自身的笛卡爾坐標(X、Y、Z),并可附帶顏色、強度、時間戳
    的頭像 發(fā)表于 05-21 09:04 ?1030次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的“點云”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    的潛在風險增加,尤其是在自動駕駛等安全關鍵系統(tǒng)中。根據(jù)ISO 26262標準,自動駕駛系統(tǒng)的安全完整性等級(ASIL-D)要求單點故障率必須低于10^-8/小時,這意味著每小時的故障概率需控制在億
    發(fā)表于 05-12 15:59

    自動駕駛行業(yè)常提的高階智駕是?

    的調(diào)整,也見證了這個行業(yè)的技術演進。“高階智駕”作為現(xiàn)階段在各大車企發(fā)布會經(jīng)常提到的一詞,也預示著自動駕駛行業(yè)正加速走入下半場。高階智駕不僅在功能上遠超傳統(tǒng)的高級輔助駕駛系統(tǒng),更在核
    的頭像 發(fā)表于 04-18 12:24 ?1014次閱讀
    <b class='flag-5'>自動駕駛</b>行業(yè)常提的高階智駕是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常提的“NOA”是?

    近年來,自動駕駛技術發(fā)展迅速,業(yè)界不斷探索如何在復雜交通場景中實現(xiàn)真正的無人駕駛。城市NOA作為自動駕駛的一項前沿技術,正成為各大廠商相互爭奪的關鍵技術。 何為NOA? NOA,全稱
    的頭像 發(fā)表于 04-09 09:03 ?2768次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的“NOA”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛大模型中常提的Token是?對自動駕駛有何影響?

    、多模態(tài)傳感器數(shù)據(jù)的實時處理與決策。在這一過程中,大模型以其強大的特征提取、信息融合和預測能力為自動駕駛系統(tǒng)提供了有力支持。而在大模型的中,有一“Token”的概念,有些人看到后或許會問: Token是
    的頭像 發(fā)表于 03-28 09:16 ?1192次閱讀

    自動駕駛行業(yè)中的Tier1與Tier2是?有何區(qū)別?

    責任分工。那么,Tier1和Tier2到底是?兩者之間又有哪些具體區(qū)別? Tier1和Tier2的定義 在自動駕駛行業(yè)中,Tier1和Tier2分別是供應鏈中的兩重要環(huán)節(jié),它們在
    的頭像 發(fā)表于 03-16 10:50 ?2268次閱讀