chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

VADv2:基于概率性規(guī)劃的端到端自動駕駛

地平線HorizonRobotics ? 來源:地平線HorizonRobotics ? 2024-02-22 10:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

16km路線無后處理端到端閉環(huán)

概率性規(guī)劃

不同于感知,規(guī)劃中存在著更多的不確定性,對于同一場景,存在不同的合理的決策規(guī)劃結果。環(huán)境信息到決策規(guī)劃不存在明確的映射關系,因此學習擬人的駕駛策略極具挑戰(zhàn)性。以往的基于學習的規(guī)劃方法確定性地通過MLP回歸出規(guī)劃軌跡,無法應對環(huán)境信息和決策規(guī)劃之間不明確的映射關系。同時基于神經網絡輸出的軌跡無法保證滿足運動學約束,仍需要后端的軌跡優(yōu)化。

VADv2采用概率性規(guī)劃的方法,從大量的人類駕駛數據中,擬合每一時刻基于環(huán)境信息的自車軌跡概率分布,將問題轉化為預測每一條軌跡和環(huán)境信息的相關性,從而應對規(guī)劃中的不確定性。

0882c152-d0c3-11ee-a297-92fbcf53809c.jpg

圖1 規(guī)劃中的不確定性

算法框架

088a2302-d0c3-11ee-a297-92fbcf53809c.jpg

圖2 VADv2 算法框架

如圖2所示,VADv2以車載相機采集的流式圖像序列作為輸入。鑒于圖像信息稀疏性,VADv2將圖像信息轉換為具有高層語義信息的tokens。具體地,VADv2基于MapTRv2從環(huán)視圖像數據中提取地圖物理層和邏輯層的map tokens,同時從圖像中提取關于動態(tài)障礙物的agent tokens和交通信號燈的traffic element tokens。此外,由于在連續(xù)的動作空間上學習概率分布較為困難,VADv2將動作空間離散化,通過最遠軌跡采樣的方式從真實的軌跡數據中篩選出N條軌跡構建軌跡集合,用于表征整個動作空間。VADv2將軌跡通過正余弦編碼方式編碼為planning tokens。Planning tokens基于堆疊的Transformer結構與包含環(huán)境信息的tokens交互,同時結合稀疏導航信息和自車狀態(tài)信息,輸出每一條軌跡的概率:

08920d7e-d0c3-11ee-a297-92fbcf53809c.png

在訓練階段,VADv2通過KL散度約束預測的概率分布和駕駛數據對應分布之間的一致性,并引入額外的場景約束進一步降低存在安全風險的軌跡的概率。在推理階段,VADv2在每一個時刻從軌跡概率分布中采樣一條高置信度的軌跡用于車輛控制。由于輸出多模式的軌跡簇,VADv2也可以和基于優(yōu)化或規(guī)則的規(guī)控架構結合,進行二階段優(yōu)化以及篩選過濾。

08961126-d0c3-11ee-a297-92fbcf53809c.png

圖3 CARLA閉環(huán)規(guī)劃性能

08b0daec-d0c3-11ee-a297-92fbcf53809c.png

圖4 消融實驗

閉環(huán)驗證

在CARLA仿真器上,VADv2能夠長時間控車穩(wěn)定地行駛,正確地響應交通信號燈,通過復雜路口,與其他車輛和行人交互,剎停避障等。同時,VADv2也在Town05 Benchmark上取得了顯著優(yōu)于其他方法的閉環(huán)性能(圖3)。消融實驗如圖4所示,驗證了各類token隱式表征和概率分布約束的有效性。

總結與展望

在CARLA仿真器上的閉環(huán)實驗初步驗證了該范式的可行性。未來的研究方向是如何與現有的規(guī)控架構結合進一步提升系統(tǒng)的魯棒性,以及在更加復雜的真實場景中展開驗證。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4760

    瀏覽量

    97146
  • 仿真器
    +關注

    關注

    14

    文章

    1048

    瀏覽量

    86764
  • 自動駕駛
    +關注

    關注

    791

    文章

    14670

    瀏覽量

    176529

原文標題:開發(fā)者說 | VADv2:基于概率性規(guī)劃的端到端自動駕駛

文章出處:【微信號:horizonrobotics,微信公眾號:地平線HorizonRobotics】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何基于深度神經網絡設計一個自動駕駛模型?

    如何基于深度神經網絡設計一個自動駕駛模型?如何設計一個基于增強學習的自動駕駛決策系統(tǒng)?
    的頭像 發(fā)表于 04-29 16:44 ?5659次閱讀
    如何基于深度神經網絡設計一個<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的<b class='flag-5'>自動駕駛</b>模型?

    自動駕駛到底是什么?

    UniAD 統(tǒng)一自動駕駛關鍵任務,但是的訓練難度極大,對數據的要求和工程能力的要求比常規(guī)的技術棧要高,但是由此帶來的全局一致性讓整個系統(tǒng)變得更加簡潔,也能夠防止某個模塊進入局部最
    發(fā)表于 06-28 14:47 ?4572次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>到底是什么?

    基于矢量化場景表征的自動駕駛算法框架

    在ICCV 2023上,地平線和華中科技大學提出基于矢量化場景表征的自動駕駛算法——VAD。VAD擯棄了柵格化表征,對整個駕駛場景進行
    發(fā)表于 08-31 09:28 ?2111次閱讀
    基于矢量化場景表征的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>算法框架

    實現自動駕駛,唯有

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?2079次閱讀
    實現<b class='flag-5'>自動駕駛</b>,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    Mobileye自動駕駛解決方案的深度解析

    自動駕駛技術正處于快速發(fā)展之中,各大科技公司和汽車制造商均在爭相布局,試圖在這個新興領域占據一席之地。Mobileye作為全球自動駕駛技術的領軍企業(yè)之一,憑借其獨特的
    的頭像 發(fā)表于 10-17 09:35 ?1254次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>解決方案的深度解析

    連接視覺語言大模型與自動駕駛

    自動駕駛在大規(guī)模駕駛數據上訓練,展現出很強的決策規(guī)劃能力,但是面對復雜罕見的
    的頭像 發(fā)表于 11-07 15:15 ?1119次閱讀
    連接視覺語言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>

    自動駕駛技術研究與分析

    編者語:「智駕最前沿」微信公眾號后臺回復:C-0450,獲取本文參考報告:《自動駕駛行業(yè)研究報告》pdf下載方式。 自動駕駛進入202
    的頭像 發(fā)表于 12-19 13:07 ?1513次閱讀

    動量感知規(guī)劃自動駕駛框架MomAD解析

    自動駕駛框架實現了感知與規(guī)劃的無縫集成,但通常依賴于一次性軌跡預測,這可能導致控制不穩(wěn)定,并且對單頓感知中的遮擋問題較為敏感。為解決這
    的頭像 發(fā)表于 03-18 09:31 ?1470次閱讀
    動量感知<b class='flag-5'>規(guī)劃</b>的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>框架MomAD解析

    一文帶你厘清自動駕駛架構差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術飛速發(fā)展,智能駕駛系統(tǒng)的設計思路也經歷了從傳統(tǒng)模塊化架構
    的頭像 發(fā)表于 05-08 09:07 ?786次閱讀
    一文帶你厘清<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構差異

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術落地,(End-to-End)大模型也成為行業(yè)研究與應用的熱門方向。相較于傳統(tǒng)自動駕駛
    的頭像 發(fā)表于 07-04 16:50 ?591次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結果,Nullmax 感知團隊在自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?1565次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新研究成果入選ICCV 2025

    自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    各自專業(yè)模塊獨立承擔,再通過預定的接口協(xié)議將信息有序傳遞。與之相對照,“”(end-to-end)自動駕駛以統(tǒng)一的大規(guī)模神經網絡為核心,將從攝像頭、雷達、激光雷達等傳感器采集
    的頭像 發(fā)表于 09-02 09:09 ?505次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b>到底有何提升?

    一文讀懂特斯拉自動駕駛FSD從輔助的演進

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛行業(yè)發(fā)展至今,特斯拉一直被很多企業(yè)對標,其FSD系統(tǒng)的每一次更新,都會獲得非常多人的關注。早期自動駕駛是一個分層的、由多模塊組成的系統(tǒng),感知、定位、預測、規(guī)劃
    的頭像 發(fā)表于 10-11 09:13 ?389次閱讀
    一文讀懂特斯拉<b class='flag-5'>自動駕駛</b>FSD從輔助<b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的演進

    西井科技自動駕駛模型獲得國際認可

    近日,西井科技AI創(chuàng)研團隊在國際權威自動駕駛算法榜單NAVSIM v2中脫穎而出,憑借創(chuàng)新的自動駕
    的頭像 發(fā)表于 10-15 17:20 ?1052次閱讀

    自動駕駛仿真與基于規(guī)則的仿真有什么區(qū)別?

    自動駕駛領域,“仿真”指的是將感知控制的整個決策鏈條視為一個整體,從而進行訓練和驗證的思路。
    的頭像 發(fā)表于 11-02 11:33 ?1425次閱讀