chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛基礎(chǔ)之傳感器融合

ml8z_IV_Technol ? 來源:cg ? 2018-12-25 09:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著傳感器技術(shù)、成像技術(shù)、雷達(dá)、LiDAR、電子設(shè)備和人工智能技術(shù)的進步,數(shù)十種先進駕駛輔助系統(tǒng)(ADAS)功能已得以實現(xiàn),包括防撞、盲點監(jiān)測、車道偏離報警和停車輔助。通過傳感器融合同步此類系統(tǒng)的運行,以允許全自動駕駛車輛或無人駕駛車輛對周圍環(huán)境檢測,并警告駕駛員潛在的道路危險,甚至可以采取獨立于駕駛員的規(guī)避動作來避免碰撞。

自動駕駛汽車還必須能在高速情況下區(qū)分并識別前方物體。使用距離判斷技術(shù),這些自動駕駛汽車必須快速構(gòu)建出約100米遠(yuǎn)道路的3D地圖,并能在250米遠(yuǎn)的距離上創(chuàng)建出高角分辨率的圖像。如果駕駛員不在場或者不掌握駕駛,汽車人工智能必須做出最優(yōu)決策。

此任務(wù)的幾種基本方法之一是,測量能量脈沖從自動駕駛汽車發(fā)出到目標(biāo)再返回車輛的往返飛行時間(ToF)。當(dāng)知道脈沖通過空氣的速度時,就可以計算出反射點的距離。這個脈沖可以是超聲波(聲納),也可以是無線電波(雷達(dá))或激光(LiDAR)。

這三種ToF技術(shù),想擁有更高的角分辨率圖像,LiDAR是最好的選擇,這是因為LiDAR圖像的衍射(光束散度)更小,對鄰近物體識別能力比雷達(dá)更優(yōu)秀(見下圖)。對于高速情況下需要足夠時間來應(yīng)對如迎頭相撞等潛在危險,更高的角分辨率尤為重要。

下圖是無人駕駛的偏算法層的系統(tǒng)框架。從左邊看,這是一個傳感器的輸入,如激光雷達(dá)、攝像頭、毫米波、GPS、編碼器和 IMU。這些傳感器的數(shù)據(jù)輸入到系統(tǒng)的感知算法里,通過這個感知算法,處理器會將這些數(shù)據(jù)進行處理分析,如何將靜態(tài)的物體分離出來,并如何識別、分類與跟蹤動態(tài)物體。

高精度地圖的獲取很大程度依賴激光雷達(dá)以及攝像頭。我們獲取高精度地圖后,結(jié)合 GPS 和 IMU、編碼器、實時感知環(huán)境的特征,進行地圖匹配以及進行定位。對于路徑規(guī)劃和運動控制,最終是結(jié)合車輛的CAN 總線,對車進行控制。

Google 的自動駕駛汽車 Google Car就是綜合使用了上述傳感設(shè)備采集感知環(huán)境信息進行處理,并對車輛做出控制。

Google Car上最重要也是最貴的器件就是頭頂?shù)倪@臺Velodyne Lidar公司生產(chǎn)的HDL-64E64線激光發(fā)射器了。它可以一邊旋轉(zhuǎn)一邊不間斷的發(fā)射64束最遠(yuǎn)射程可達(dá)120米的激光束,并接收反射回來的光束,依據(jù)返回時間的差別計算出物體與汽車之 間的距離。從而繪制出汽車周圍實時的3D地形圖。并且因為光束非常密集并且刷新頻率非??欤C合探測數(shù)據(jù)后還可以判斷出物體的形狀、大小和大致的運動軌 跡,以此作為接下來行動的判斷依據(jù)之一。HDL-64E的性能非常強大。每秒可以給Google Car的處理器提供130萬組數(shù)據(jù),這可以保證提供給Google Car處理器的信息幾乎是實時的。當(dāng)然這也對處理器提出了更高的要求。下圖就是在HDL-64E的運作下Google Car看到的世界。這個Google Car眼中的世界,也是未經(jīng)處理器處理過的原始數(shù)據(jù)樣貌。

Google Car會將收集到的數(shù)據(jù)與車體內(nèi)置的谷歌地圖已有的信息進行整合,從而判斷出相當(dāng)精確的四周的狀況,為做出反應(yīng)打下良好基礎(chǔ)。

理論上HDL-64E已經(jīng)足以確定汽車的位置了。但在環(huán)境復(fù)雜的道路上,駕駛者和行人的安全都需要多重保障。因此谷歌給Google Car配了更直觀的眼睛:攝像頭。Google Car有一對向前的攝像頭,其之間有著一定的距離。從兩個攝像頭傳回的畫面的視差就像人的兩只眼睛一樣,可以幫助車輛判斷自己的位置、行進的速度等信息。Google Car的車胎輪轂上同樣帶有位置傳感器,用于探測車輪轉(zhuǎn)動,也能幫助車輛進行定位。再同GPS得出的數(shù)據(jù)進行整合。數(shù)組數(shù)據(jù)共同保證車輛定位的準(zhǔn)確性。

另外,攝像頭還可以辨識出路上出現(xiàn)的交通標(biāo)志和信號燈等物體,以保證自身的運行會嚴(yán)格遵守交通規(guī)則。這點是激光發(fā)射器很難辦到的。信號燈、斑馬線、行車線、限速標(biāo)識……交通標(biāo)示無處不在,它們是道路安全的保證。

HDL-64E是有一定判斷物體運動軌跡和速度的能力的。但其獲得的數(shù)據(jù)畢竟不實時,并且要將其與車輛自身的速度結(jié)合,計算出兩者的相對運行速度,還需要許多額外的計算量。因此谷歌為車輛前后都配備了車載雷達(dá),它們可以很精確的測出前后車輛與GoogleCar的相對速度,以此判斷接下來的車速該如何變化。

以上所有傳感器的數(shù)據(jù)都會匯集起來并傳輸給位于汽車右后方的主處理器(AI處理器)進行處理,由于所有數(shù)據(jù)都是實時的,因此流量異常龐大(可達(dá)到1GB每 秒)。因此Google Car的車在計算機的性能也是非常強的。處理器會參照各傳感器提供過來的數(shù)據(jù),并繪制出一份最終的周邊環(huán)境地形圖。

它會將所有對其意義不同的物體用不同的顏色標(biāo)示出來。如粉色代表暫時不會與行進路線相交的物體,綠色代表已經(jīng)阻擋在行進路線上的物體等。然后車內(nèi)的程序,或者說AI就會對路況作出判斷,隨時根據(jù)道路情況決定汽車下一步的行動。下圖就是經(jīng)過車載處理器處理后的世界的樣子了。

Google Car的AI已經(jīng)具有相當(dāng)程度的道路智能,規(guī)劃目的地路線這樣的小事早已不值一提,在遇到一些臨時或者突發(fā)的事件的時候GoogleCar也能及時作出合適的反應(yīng):比如在交通燈變綠色的時候,汽車開始拐彎,但這時有路人從前面走過,這時GoogleCar將會讓路。另一個例子是,在通過沒有紅綠燈的十字路口的時候,它會根據(jù)大家通用的守則讓其它車先過,如果其它車輛沒有反應(yīng),它在通過路口之前將先往前行進一點,以表明自己的意圖。

了解了谷歌為保護道路安全設(shè)置的諸多保險措施、完善的檢測和判斷機制,再結(jié)合Google Car的表現(xiàn),我們很有理由相信無人駕駛汽車在不遠(yuǎn)的將來就將大面積替代有人駕駛的車輛。事實上,早在2012年,美國內(nèi)華達(dá)州機動車輛管理局就已經(jīng)為 Google Car頒發(fā)了美國首個“自動駕駛”汽車的車牌。使得GoogleCar可以合法上路,盡管該法規(guī)同時規(guī)定該車上路時車上必須至少有2人在監(jiān)視車輛的運行狀況。但這更多只是因為技術(shù)暫時的不成熟而做出的一個臨時的限制條款。我們有理由相信,不會分神、疲勞、能隨時兼顧周圍所有狀況的車載AI的駕駛能力終有一天會超過人類駕駛員。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    54781

    瀏覽量

    789135
  • 自動駕駛
    +關(guān)注

    關(guān)注

    792

    文章

    14790

    瀏覽量

    178239

原文標(biāo)題:自動駕駛基礎(chǔ)之——傳感器融合

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何設(shè)計自動駕駛傳感器失效檢測與容錯策略?

    對于自動駕駛汽車而言,傳感器是它感知世界的窗口。攝像頭負(fù)責(zé)采集環(huán)境圖像,毫米波雷達(dá)和激光雷達(dá)則用于測量周圍物體的位置和速度,而GNSS(全球?qū)Ш叫l(wèi)星系統(tǒng))與慣性測量系統(tǒng)可提供車輛的定位信息。這些數(shù)據(jù)經(jīng)過融合處理之后,
    的頭像 發(fā)表于 01-10 10:33 ?2512次閱讀

    L4級自動駕駛數(shù)據(jù)采集系統(tǒng)首選

    級數(shù)據(jù)記錄設(shè)備 ,為自動駕駛研發(fā)提供端到端的解決方案,助力企業(yè)突破數(shù)據(jù)采集瓶頸。 一、自動駕駛數(shù)據(jù)采集的三大核心需求 多模態(tài)傳感器融合 需同時兼容攝像頭(8K@60fps)、激光雷達(dá)(
    的頭像 發(fā)表于 11-26 09:31 ?338次閱讀

    超聲波傳感器線圈:自動駕駛實現(xiàn)精確實時近距離感知的關(guān)鍵

    超聲波傳感器線圈是自動駕駛系統(tǒng)中不可或缺的組成部分。隨著自動駕駛技術(shù)的快速發(fā)展,各類傳感器成為智能汽車感知環(huán)境的關(guān)鍵,不僅保障行車安全,也提升了駕駛
    的頭像 發(fā)表于 11-12 16:03 ?235次閱讀

    如何處理自動駕駛感知傳感器臟污問題?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛系統(tǒng)依賴多種傳感器來感知外界環(huán)境,攝像頭負(fù)責(zé)將光學(xué)圖像轉(zhuǎn)換為圖像數(shù)據(jù)供算法解析,激光雷達(dá)生成描述物體三維形狀的點云數(shù)據(jù),毫米波雷達(dá)探測目標(biāo)的距離與速度,超聲波
    的頭像 發(fā)表于 10-21 13:50 ?346次閱讀
    如何處理<b class='flag-5'>自動駕駛</b>感知<b class='flag-5'>傳感器</b>臟污問題?

    激光雷達(dá)傳感器自動駕駛中的作用

    2024 年至 2030 年間,高度自動化汽車每年的出貨量將以 41% 的復(fù)合年增長率增長。這種快速增長導(dǎo)致汽車品牌對精確可靠傳感器技術(shù)的需求空前高漲,因為他們希望提供精準(zhǔn)、可靠且最終完全自動駕駛的汽車。
    的頭像 發(fā)表于 10-17 10:06 ?3645次閱讀

    端到端自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    各自專業(yè)模塊獨立承擔(dān),再通過預(yù)定的接口協(xié)議將信息有序傳遞。與相對照,“端到端”(end-to-end)自動駕駛以統(tǒng)一的大規(guī)模神經(jīng)網(wǎng)絡(luò)為核心,將從攝像頭、雷達(dá)、激光雷達(dá)等傳感器采集到的原始數(shù)據(jù)直接映射為
    的頭像 發(fā)表于 09-02 09:09 ?684次閱讀
    端到端<b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b>到底有何提升?

    太陽光模擬 | 在汽車自動駕駛開發(fā)中的應(yīng)用

    在汽車產(chǎn)業(yè)向電動化、智能化轉(zhuǎn)型的浪潮中,自動駕駛技術(shù)的研發(fā)面臨著復(fù)雜環(huán)境感知的挑戰(zhàn)。光照條件作為影響傳感器性能的關(guān)鍵因素,直接關(guān)系到自動駕駛系統(tǒng)的安全性和可靠性。紫創(chuàng)測控Luminbox太陽光模擬
    的頭像 發(fā)表于 07-24 11:26 ?537次閱讀
    太陽光模擬<b class='flag-5'>器</b> | 在汽車<b class='flag-5'>自動駕駛</b>開發(fā)中的應(yīng)用

    康謀分享 | 基于多傳感器數(shù)據(jù)的自動駕駛仿真確定性驗證

    自動駕駛仿真測試中,游戲引擎的底層架構(gòu)可能會帶來非確定性的問題,侵蝕測試可信度。如何通過專業(yè)仿真平臺,在多傳感器配置與極端天氣場景中實現(xiàn)測試數(shù)據(jù)零差異?確定性驗證方案已成為自動駕駛研發(fā)的關(guān)鍵突破口!
    的頭像 發(fā)表于 07-02 13:17 ?4128次閱讀
    康謀分享 | 基于多<b class='flag-5'>傳感器</b>數(shù)據(jù)的<b class='flag-5'>自動駕駛</b>仿真確定性驗證

    自動駕駛汽車如何正確進行道路識別?

    識別不僅僅是簡單地判斷車輛是否在車道中心行駛,更涉及到對車道線、交通標(biāo)志、道路邊緣以及其他道路要素的綜合感知與理解。 傳感器硬件 傳感器硬件是自動駕駛道路識別的基礎(chǔ),當(dāng)前主流的傳感器
    的頭像 發(fā)表于 06-29 09:40 ?1558次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何正確進行道路識別?

    自動駕駛汽車是如何準(zhǔn)確定位的?

    厘米級的定位精度,并能夠?qū)崟r響應(yīng)環(huán)境變化。為此,自動駕駛系統(tǒng)通常采用多傳感器融合的方式,將全球?qū)Ш叫l(wèi)星系統(tǒng)(GNSS)、慣性測量單元(IMU)、激光雷達(dá)(LiDAR)、攝像頭、超寬帶(UWB)等多種
    的頭像 發(fā)表于 06-28 11:42 ?1111次閱讀
    <b class='flag-5'>自動駕駛</b>汽車是如何準(zhǔn)確定位的?

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    、道路塌陷)的測試用例庫,通過虛擬仿真和真實路測數(shù)據(jù)回灌驗證算法的魯棒性。 ?第二部分:自動駕駛軟件單元測試技術(shù)體系****? ?測試對象分類與測試策略? ? 數(shù)據(jù)驅(qū)動型模塊(如傳感器融合
    發(fā)表于 05-12 15:59

    AI將如何改變自動駕駛?

    自動駕駛帶來哪些變化?其實AI可以改變自動駕駛技術(shù)的各個環(huán)節(jié),從感知能力的提升到?jīng)Q策框架的優(yōu)化,從安全性能的增強到測試驗證的加速,AI可以讓自動駕駛從實驗室走向大規(guī)模商業(yè)化。 對于感知系統(tǒng)來說,AI通過多模態(tài)
    的頭像 發(fā)表于 05-04 09:58 ?722次閱讀

    自動駕駛大模型中常提的Token是個啥?對自動駕駛有何影響?

    、多模態(tài)傳感器數(shù)據(jù)的實時處理與決策。在這一過程中,大模型以其強大的特征提取、信息融合和預(yù)測能力為自動駕駛系統(tǒng)提供了有力支持。而在大模型的中,有一個“Token”的概念,有些人看到后或許會問: Token是個啥?對
    的頭像 發(fā)表于 03-28 09:16 ?1151次閱讀

    激光雷達(dá)技術(shù):自動駕駛的應(yīng)用與發(fā)展趨勢

    隨著近些年科技不斷地創(chuàng)新,自動駕駛技術(shù)正逐漸從概念走向現(xiàn)實,成為汽車行業(yè)的重要發(fā)展方向。在眾多傳感器技術(shù)中,激光雷達(dá)(LiDAR)因其獨特的優(yōu)勢,被認(rèn)為是實現(xiàn)高級自動駕駛功能的關(guān)鍵。激光雷達(dá)技術(shù)
    的頭像 發(fā)表于 03-10 10:16 ?1521次閱讀
    激光雷達(dá)技術(shù):<b class='flag-5'>自動駕駛</b>的應(yīng)用與發(fā)展趨勢

    BEVFusion —面向自動駕駛的多任務(wù)多傳感器高效融合框架技術(shù)詳解

    BEVFusion 技術(shù)詳解總結(jié)——面向自動駕駛的多任務(wù)多傳感器高效融合框架原始論文:*附件:bevfusion.pdf介紹(Introduction)背景:自動駕駛系統(tǒng)配備了多種
    的頭像 發(fā)表于 02-26 20:33 ?6267次閱讀
    BEVFusion —面向<b class='flag-5'>自動駕駛</b>的多任務(wù)多<b class='flag-5'>傳感器</b>高效<b class='flag-5'>融合</b>框架技術(shù)詳解