chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自動駕駛的ODD邊界如何進行有效的檢測呢?

智能汽車電子與軟件 ? 來源:焉知智能汽車 ? 2023-01-16 17:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由于現(xiàn)在的自動駕駛技術還處于發(fā)展階段,無法保證自動駕駛車在任何天氣條件下和任何道路環(huán)境中都可以安全行駛的。因此,要根據(jù)該系統(tǒng)的能力來提前設定好ODD,通過限制行駛環(huán)境和行駛方法,將有可能發(fā)生的事故防范于未然。然而,對于這類運行環(huán)境邊界條件而言,通常會需要考慮如何進行有效的檢測呢?也就是說,提出的ODD對于自動駕駛開發(fā)而言必須是可測的。

考慮一些ODD所涉及的天氣如風、雨、雪、雨夾雪、高低溫度會極大的影響整個系統(tǒng)的控制能力。比如車子正常行駛在高速公路上,小雨或小雪能使平均速度降低3%至13%;暴雨會使平均速度降低3%到16%;在大雪中,高速公路的平均速度會下降5%到40%;小雨時自由流速可降低2% ~ 13%;大雨時可降低6% ~ 17%;降雪將使自由流速度降低5%至64%;可以說在降雨期間,整個車輛駕駛速度變化差不多會減少25%。

目前知道的,L2級自動駕駛在雨雪條件下的性能幾乎不能滿足預期,比如車道保持功能在公路雪地打滑時汽車會轉向過度。特斯拉的Autopilot可以在正常的雨雪中導航,路標清晰可見,但在某些棘手的情況下,如暴雨或車道線出現(xiàn)遮蓋時候仍然難以駕駛。顯然,惡劣的天氣條件限制了人類駕駛方向盤,AVs仍然不能完全相信它能獨自工作。

因此,為了讓ADS繼續(xù)向前推進到下一個時代,自動駕駛汽車需要更多的時間來適應各種天氣。

如圖所示是惡劣天氣下自動駕駛系統(tǒng)的信息流圖:

4eed79a6-8d04-11ed-bfe3-dac502259ad0.png

如上圖所示,作為車輛傳感器的信息源,環(huán)境狀態(tài)直接受到天氣條件的影響。這些變化增加了整個ADS系統(tǒng)用受損數(shù)據(jù)完成目標檢測、跟蹤和定位任務的難度,因此規(guī)劃和控制也將不同于正常情況。天氣也可能影響自車本身,并產生附加影響,如風和路面狀況。自車識別結果反饋整車后形成的車輛控制狀態(tài)(如雨刮是否啟動,除霧裝置是否打開等信息)都是可以作為環(huán)境信息判斷的先驗信息的,這也會間接影響對環(huán)境狀態(tài)的判斷,由此可以形成一個檢測循環(huán)。

其實,無論從自動駕駛角度還是從手動駕駛角度上講,對于環(huán)境的有效檢測都將顯得尤為必要。比如如下的環(huán)境條件而言,我們是否可以通過一定的手段進行更加精確的檢測呢?

風力大?。簭臋M向車控角度分析,考慮風阻對整個車身控制的影響。

光照條件:考慮炫目和夜晚可視效果的影響

雨量大?。夯谝曈X的雨量傳感測試

路面坑洼:基于多目時覺得路面條件檢測。

橫縱坡道檢測:基于底盤ESP和TCU的坡道數(shù)據(jù)

涉水路面檢測:基于超聲波數(shù)據(jù)

那么這類雨雪天氣將如何測量則是我們需要研究的一個課題。常規(guī)的方法是通過類似雨量傳感器這樣的裝置進行測量,但是這類裝置在很多車型上也不是標配。如果考慮智駕系統(tǒng)而言,則可能出現(xiàn)無法滿足測量需求的情況。

本系列文章將針對性講解整個智駕系統(tǒng)如何利用自身傳感器對環(huán)境信息進行初級有效探測。無論從智駕本身角度出發(fā)的識別和控制,還是從傳統(tǒng)駕駛過程對這種探測能力都顯得尤為必要。

基于視覺的降雨量預測

對于自動駕駛系統(tǒng)而言,通常會通過判定降雨/降雪量來判定對整個系統(tǒng)是否可激活的前置條件。通常情況下,目前的檢測手段要么是通過雨刮刮速大小,要么是通過雨量傳感器一類來進行綜合判斷是否觸及ODD邊界。那么,從自車平臺化和可應用場景的角度出發(fā),是否能夠利用自車傳感器開發(fā)一種可自適應測量環(huán)境條件的軟件模塊呢?答案是肯定的。

本文提出一種基于視覺場景的降雨量預測算法。其主要是通過自車原有的攝像頭采集雨量光線,從而計算雨量大小,轉化成雨刮器可識別的指令信號發(fā)送給車身控制器,車身控制器通過雨刮信號指令自動控制雨刮進行低速、高速、間歇性動作。同時,系統(tǒng)可以控制儀表顯示雨刮控制系統(tǒng)的相關零部件故障、以提醒用戶及時維修和更換等。

用軟件算法代替增加新的硬件(定制的雨刮傳感器或其他硬件設備)實現(xiàn)對雨刮的控制功能,不但可以減少成本,軟件也可以通過不斷更新、迭代、升級來達到最優(yōu)的用戶體驗。此外,如果考慮通過利用智駕域的傳感器探測的算法來實現(xiàn)整個車身的控制(比如探測到雨量過大,則通過算法計算出雨量大小,自動控制車輛雨刮采用一定的速度刮刷玻璃,一方面可以為整個傳感器探測開辟更好的探索通道,另一方面也可以提升用戶駕駛的智能化體驗)。

相應的實現(xiàn)原理如下:

總體來說,需要通過兩階段算法來實現(xiàn),實現(xiàn)基于視覺的場景降雨量的智能分類,其類別包括:晴天、小雨、中雨、大雨、暴雨五種。其方法是利用智能駕駛汽車上搭載的攝像頭拍攝的視頻數(shù)據(jù)作為輸入,記錄不同位置、不同時域的降雨數(shù)據(jù)。將視頻數(shù)據(jù)輸入“降雨量識別大小的分類算法模塊”中。該算法模塊涉及對環(huán)境的目標提取、分割、聚類、識別等子模塊。歸類起來,常用的算法包括基于超像素(Super-Pixel)鄰域對齊的雨水分割算法(得到逐幀雨水圖分割結果)和基于ResNet的雨量分類算法(帶有殘差學習的ResNet)的兩個階段。

基于超像素鄰域對齊的降雨/降雪檢測算法

由于視頻中對雨水的分割是不存在分割前景和背景區(qū)域的,如果按照逐像素進行識別處理,對于整個算法而言將顯得比較臃腫。我們對雨水大小的識別需要從以下幾個方面入手:

選定的算法通過測量降雨量視頻中不同時域間像素值的區(qū)域強度變化,進而得到每一幀圖像的雨水分割結果,通過迭代優(yōu)化訓練,不斷提高其識別精度,進而達到預期的識別結果。

相應的示意圖如下:

4f0379fe-8d04-11ed-bfe3-dac502259ad0.png

1)通過智能汽車采集的一組降雨視頻,截取固定幀數(shù)作為視頻輸入算法模塊。

2)幀內超像素塊識別:

常用的算法包括利用SLIC算法(simple linear iterative cluster)生成每一幀圖像的超像素(superpixel)塊。相比其他的超像素分割方法,SLIC在運行速度、生成超像素的緊湊度、輪廓保持方面都比較理想。具體過程包括:

利用像素之間特征相似性(如相似紋理、顏色亮度等特征)將像素分組,通過簡單的線性迭代聚類,將彩色圖像轉化為CIELAB顏色空間和XY坐標下的5維特征向量,然后對5維特征向量構造距離度量標準,對圖像像素進行局部聚類。最終能生成緊湊、近似均勻的超像素,在運算速度、物體輪廓保持、超像素形狀方面具有較高的性能。最終,用少量的超像素代替大量的像素來表達圖片特征。

4f24256e-8d04-11ed-bfe3-dac502259ad0.png

3)幀間超像素塊劃分:

選定中間幀為關鍵幀I0,并作為參考位置幀,與其前后各兩幀的超像素塊圖構成一組劃分區(qū)域。

4)構造損失函數(shù):

通過逐像素遍歷的方式可以構造Loss損失函數(shù),從而衡量每個I0超像素塊與其前后兩幀對應位置鄰域塊的差異大小。并將其差異最小的鄰域塊作為候選對齊區(qū)域,最終確定I0中每個像素塊的4個候選超像素塊區(qū)域。

5)雨水識別:

由于雨水部分可以增加像素的強度值,因此可以將含有I0的超像素塊與候選區(qū)域的部分進行像素差異比較。若I0超像素塊中的像素與每個候選區(qū)域所對應像素差異均大于所設定的雨水像素的閾值時,那么就認為該像素為雨像素。

6)幀內迭代優(yōu)化:

迭代I0中每一個超像素塊,可以得到關鍵幀I0的雨水二分割圖。

7)幀間迭代優(yōu)化:

迭代降雨量視頻中的每一幀,得到全部幀的雨水分割結果。

基于深度學習的降雨/降雪量測量算法

如前所述,對雨/雪這類目標分割完成后,需要重新利用一定有效的算法對降雨/降雪的大小進行預分類識別。同時,從時域的角度上將降雨和降雪在未來一定時間內可能產生的情況和趨勢進行有效預測,以便在形勢策略上可以提前做出一定的判斷和控制。

如上述算法所表述的部分,我們可以通過首先聚類超像素鄰域對齊的方式得到雨量場景分割結果,將該結果作為數(shù)據(jù)輸入到深度學習神經網絡中從而獲得準確的雨量分類結果。常用的卷積神經網絡模型涉及ResNet,因為其引入了深度殘差學習算法,可以有效的解決網絡退化的問題。在包括圖像網絡ImageNet的多個大型分類數(shù)據(jù)集上可以很好的實現(xiàn)優(yōu)異的分類精度。

在對降雨/降雪這類場景的測量可以利用ResNet網絡結構通過不同的分層ResNet18、ResNet34、ResNet50、ResNet101以及ResNet152來實現(xiàn)分層訓練。各種網絡的深度指的是“需要通過訓練更新參數(shù)”的層數(shù),如卷積層,全連接層等。同時,為了滿足輕量化要求,通常可以選擇ResNet18作為分層標準進行訓練。其中包含17個卷積和一個全連接層進行權重學習,隨后通過兩個池化層處理。

根據(jù)超像素臨域對齊的雨量分割算法可以從場景視頻中獲得場景視頻的雨/雪分割結果作為輸入數(shù)據(jù)。選擇深度學習方法,獲取準確地雨量/雪量分割結果。

基于深度學習的降雨量預測算法

本文這里提到的關于實現(xiàn)雨量檢測和預測的算法包含兩個階段,考慮對于智駕系統(tǒng)控制過程的高速推理和模型輕量化特點,采用超像素的雨/雪分割加上利用經典的神經網絡算法ResNet進行雨量預測。在ResNet提出之前,所有的神經網絡都是通過卷積層和池化層的疊加組成的。卷積層和池化層的層數(shù)越多,獲取到的圖片特征信息越全,學習效果也就越好。

CNN參數(shù)個數(shù) = 卷積核尺寸×卷積核深度 × 卷積核組數(shù) = 卷積核尺寸 × 輸入特征矩陣深度 × 輸出特征矩陣深度

常規(guī)的神經網絡隨著網絡加深,其相應的準確率隨之下降。使用ResNet神經網絡人為地讓神經網絡某些層跳過下一層神經元的連接,隔層相連,弱化每層之間的強聯(lián)系,可以更加精準的預測到環(huán)境雨量分割和預測。

將本算法打搭載到各種車載設備上,通過對深度網絡進行身份映射(identity mapping,IM)和殘差映射(residual mapping,RM)優(yōu)化網絡,隨著不斷地迭代,其殘差映射將逐漸趨于0,最終只剩下身份映射。由此,可以更加實時且精準的預測環(huán)境降雨/降雪量。

考慮本算法的ResNet的整個算法邏輯如下:

1)視頻采集:

通過智駕車輛前視、側視攝像頭采集場景視頻作為原始視頻輸入。該視頻幀需要在攝像頭前端進行包含ISP相關的圖像處理;

2)視頻幀抽?。?/strong>

考慮到算法處理能力對整個處理器可能產生較大的負擔,因此,同需要對視頻幀按照每隔一定時間抽取固定幀數(shù)的視頻,采用“超像素鄰域對齊雨量分割算法”進行雨量分割,并得到相應的雨水分割結果;

3)感興趣區(qū)域選擇:

對于環(huán)境降雨量這類過程處理,因為感興趣的部分是雨水,且分布沒有特定的規(guī)律。因此,可以固定的選取每一幀的中間區(qū)域作為該視頻幀中感興趣區(qū)域(ROI,Region of Interest);

4)視頻張量輸入ResNet模型

對于ResNet網絡就是要構造觀測值與估計值之間的差,也可以用殘差映射函數(shù),也就是F(x),其中F(x) = H(x)-x。這里H(x)就是觀測值,x就是估計值(也就是上一層ResNet輸出的特征映射)。 5005b92a-8d04-11ed-bfe3-dac502259ad0.png ?

residual結構使用了一種shortcut的連接方式,也可理解為捷徑。讓特征矩陣隔層相加,注意F(X)和X形狀要相同,所謂相加是特征矩陣相同位置上的數(shù)字進行相加。

將其按照通道進行拼接,合并為固定通道的張量,并輸入到ResNet模型,預測不同降雨量的概率值;

5017e230-8d04-11ed-bfe3-dac502259ad0.png ?

5)根據(jù)概率值在分類區(qū)間的位置,確定最終的降雨量預測結果

實驗證明,ResNet殘差網絡更容易優(yōu)化,并且加深的網絡層數(shù)有助于提高正確率。所以在加深網絡深度的同時,需要使用殘差學習的結構來減輕深層網絡訓練的難度。過程中,需要重新構建優(yōu)化的網絡以便學習到包含已經推理過的殘差函數(shù),而不是學習未經過推理過的函數(shù)。

總結

本文從一些環(huán)境設置條件出發(fā)考慮如何通過最大化的利用自車配置的軟硬件單元模塊進行有效的ODD設置和檢測,詳細講述如何利用攝像頭傳感器對環(huán)境降雨/降雪量進行有效檢測的算法邏輯。

同時,本文就自動駕駛系統(tǒng)設置的ODD邊界中的其中一個要素檢測考慮通過智駕系統(tǒng)自身搭載的傳感器進行實時檢測從而獲取一定的控制輸入源。對于諸如雨量、雪量的檢測結果不僅可以完全用于自動駕駛系統(tǒng)自身的邊界條件控制,也可以作為在車輛未開啟自動駕駛時自動檢測雨量、雪量等環(huán)境條件,自適應的控制車輛進行雨刮開啟、增加刮速,如果有類似自動除霜等功能,也可以控制自動開啟自動除霜、除霧等功能。





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ODD
    ODD
    +關注

    關注

    0

    文章

    10

    瀏覽量

    7600
  • 自動駕駛
    +關注

    關注

    791

    文章

    14660

    瀏覽量

    176186
  • ADS系統(tǒng)

    關注

    0

    文章

    4

    瀏覽量

    6663
  • OTC
    OTC
    +關注

    關注

    0

    文章

    15

    瀏覽量

    5379

原文標題:那些被自動駕駛所關注的ODD邊界怎么測?

文章出處:【微信號:智能汽車電子與軟件,微信公眾號:智能汽車電子與軟件】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    不同等級的自動駕駛技術要求上有何不同?

    談到自動駕駛,不可避免地會涉及到自動駕駛分級,美國汽車工程師學會(SAE)根據(jù)自動駕駛系統(tǒng)與人類駕駛員參與駕駛行為程度的不同,將
    的頭像 發(fā)表于 10-18 10:17 ?2392次閱讀

    自動駕駛仿真測試有什么具體要求?

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛技術快速迭代、功能邊界不斷擴展的今天,如何系統(tǒng)、嚴謹且高效地驗證一個自動駕駛系統(tǒng)的性能,成為研發(fā)、測試與監(jiān)管共同面對的核心難題。相較于傳統(tǒng)汽車主要關注機械性能
    的頭像 發(fā)表于 10-15 09:14 ?347次閱讀
    <b class='flag-5'>自動駕駛</b>仿真測試有什么具體要求?

    自動駕駛中常提的ODD是個啥?

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛中,經常會聽到一個概念,那就是ODD。所謂ODD,全稱為Operational Design Domain,中文常譯為“運行設計域”或者“作業(yè)域”。直觀一點
    的頭像 發(fā)表于 09-22 09:04 ?525次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的<b class='flag-5'>ODD</b>是個啥?

    無引導線的左轉場景下,自動駕駛如何規(guī)劃軌跡?

    場景下,想要很好地處理好無引導線左轉是一個非常大的挑戰(zhàn)。但想要讓自動駕駛汽車滿足所有的出行需求,這一場景必須解決,那在無引導線的左轉場景下,自動駕駛是如何進行軌跡規(guī)劃的? 無引導線的左轉需要哪些技術? 首先
    的頭像 發(fā)表于 09-18 09:12 ?417次閱讀
    無引導線的左轉場景下,<b class='flag-5'>自動駕駛</b>如何規(guī)劃軌跡?

    自動駕駛汽車如何正確進行道路識別?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛汽車在行駛過程中必須準確識別道路環(huán)境,以便做出安全有效的決策,不同于人類開車,可以思考,自動駕駛汽車對于道路的識別需要更多的技術輔助。對于自動駕駛
    的頭像 發(fā)表于 06-29 09:40 ?1293次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何正確<b class='flag-5'>進行</b>道路識別?

    自動駕駛汽車是如何準確定位的?

    厘米級的定位精度,并能夠實時響應環(huán)境變化。為此,自動駕駛系統(tǒng)通常采用多傳感器融合的方式,將全球導航衛(wèi)星系統(tǒng)(GNSS)、慣性測量單元(IMU)、激光雷達(LiDAR)、攝像頭、超寬帶(UWB)等多種傳感器數(shù)據(jù)進行綜合處理,通過算
    的頭像 發(fā)表于 06-28 11:42 ?851次閱讀
    <b class='flag-5'>自動駕駛</b>汽車是如何準確定位的?

    卡車、礦車的自動駕駛和乘用車的自動駕駛在技術要求上有何不同?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術的發(fā)展,讓組合輔助駕駛得到大量應用,但現(xiàn)在對于自動駕駛技術的宣傳,普遍是在乘用車領域,而對于卡車、礦車的自動駕駛發(fā)展,卻鮮有提及。其實在卡車、
    的頭像 發(fā)表于 06-28 11:38 ?687次閱讀
    卡車、礦車的<b class='flag-5'>自動駕駛</b>和乘用車的<b class='flag-5'>自動駕駛</b>在技術要求上有何不同?

    自動駕駛汽車接管邏輯如何設置更為合理?

    交通環(huán)境并隨時接管的工作。但就是這一簡單需求,車企在自動駕駛系統(tǒng)與人類駕駛員的接管邊界并未給出明確的界定。有很多實際案例表明,在系統(tǒng)無法處理復雜路況時,會突然彈出“請立即接管”的提示,而駕駛
    的頭像 發(fā)表于 06-26 08:56 ?578次閱讀

    2025年的自動駕駛技術有哪些升級?

    駕駛能力的車型不斷量產落地,自動駕駛的可運營場景逐步從限定區(qū)域擴展至泛化場景,且真正朝著全場景D2D(Door-to-Door)邁進。 圖自動駕駛發(fā)展路徑,源自:億歐智庫 在此過程中,ODD
    的頭像 發(fā)表于 06-21 18:00 ?815次閱讀
    2025年的<b class='flag-5'>自動駕駛</b>技術有哪些升級?

    自動駕駛安全基石:ODD

    電子發(fā)燒友網綜合報道 自動駕駛ODD(Operational Design Domain)即設計運行域,是指自動駕駛系統(tǒng)被設計為安全、有效運行的具體條件范圍。它定義了
    的頭像 發(fā)表于 05-19 03:52 ?5746次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    。 ?自動駕駛軟件的特殊性? ? 感知層: ?激光雷達、攝像頭等傳感器數(shù)據(jù)處理算法的單元測試需覆蓋極端場景。例如,激光雷達點云濾波算法在雨雪天氣下的噪聲抑制能力需通過邊界測試驗證。某廠商曾在測試中遺漏
    發(fā)表于 05-12 15:59

    劉強東,進軍汽車領域# 京東# 自動駕駛# 自動駕駛出租車# 京東自動駕駛快遞車

    自動駕駛
    jf_15747056
    發(fā)布于 :2025年05月09日 17:44:10

    自動駕駛經歷了哪些技術拐點?

    ,到如今以AI為核心驅動的自動駕駛系統(tǒng),各大車企都在不斷加碼研發(fā)投入,試圖在未來市場中占據(jù)制高點。那自動駕駛發(fā)展至今,經歷了哪些技術拐點? 自動駕駛系統(tǒng)的發(fā)展歷程
    的頭像 發(fā)表于 04-27 15:54 ?606次閱讀
    <b class='flag-5'>自動駕駛</b>經歷了哪些技術拐點?

    從《自動駕駛地圖數(shù)據(jù)規(guī)范》聊高精地圖在自動駕駛中的重要性

    自動駕駛地圖作為L3級及以上自動駕駛技術的核心基礎設施,其重要性隨著智能駕駛技術的發(fā)展愈發(fā)顯著?!?b class='flag-5'>自動駕駛地圖數(shù)據(jù)規(guī)范》(DB11/T 2041-2022)由北京市規(guī)劃和自然資源委員會
    的頭像 發(fā)表于 01-05 19:24 ?2844次閱讀
    從《<b class='flag-5'>自動駕駛</b>地圖數(shù)據(jù)規(guī)范》聊高精地圖在<b class='flag-5'>自動駕駛</b>中的重要性

    一文聊聊自動駕駛測試技術的挑戰(zhàn)與創(chuàng)新

    隨著自動駕駛技術的飛速發(fā)展,自動駕駛測試的重要性也日益凸顯。自動駕駛測試不僅需要驗證車輛的感知、決策、控制模塊的獨立性能,還需確保系統(tǒng)在復雜場景中運行的整體可靠性。然而,自動駕駛測試面
    的頭像 發(fā)表于 12-03 15:56 ?1239次閱讀
    一文聊聊<b class='flag-5'>自動駕駛</b>測試技術的挑戰(zhàn)與創(chuàng)新