chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

介紹一個重要的慣性框架數(shù)據集Berkeley DeepDrive Drone

3D視覺工坊 ? 來源:深藍AI ? 作者:口香糖 ? 2022-11-01 09:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 引言

研究自動駕駛車輛在復雜路況下的行為決策具有重要意義,但目前大多數(shù)自動駕駛數(shù)據集只關注結構化場景,很少有人去研究非結構化道路環(huán)境,更少人去研究復雜非結構化場景中的車輛行為。 本文將介紹一個重要的慣性框架數(shù)據集Berkeley DeepDrive Drone (B3D),該數(shù)據集由相機采集,廣泛包含大量的復雜非結構化場景,包括有交通事故的高速公路、無信號燈交叉路口等。 該

數(shù)據集有助于研究復雜路況下的自動駕駛車輛行為,并啟發(fā)自動駕駛汽車和倉庫機器人的分散運動規(guī)劃算法的新設計。

2. 摘要

分散式多智能體規(guī)劃一直是機器人領域的一個重要研究方向。在該領域的一個有趣和有影響力的應用是非結構化道路環(huán)境中的分散車輛協(xié)調。 例如,在一個交叉路口,在沒有中央協(xié)調器的情況下,對相交路徑的多個車輛進行拆分是有用的,但卻是困難的。

我們從常識中了解到,要讓車輛通過這種非結構化的環(huán)境,駕駛員必須理解并遵守附近駕駛員所觀察到的隱含的社交禮儀。為了研究這種隱式駕駛協(xié)議,我們收集了伯克利Deep Drive Drone數(shù)據集。

該數(shù)據集包含1 )一組記錄非結構化駕駛的航拍視頻,2 )一組用于訓練車輛檢測模型的圖像和注釋,以及3 )一組用于說明典型用法的開發(fā)腳本。我們認為,該數(shù)據集對于研究人類駕駛員所采用的分散多智能體規(guī)劃具有主要意義,對于遙感環(huán)境中的計算機視覺具有次要意義。

3. 數(shù)據集介紹

3.1 數(shù)據集格式

B3D數(shù)據集中記錄的場景可以分為以下六類:1)無信號燈控制的交叉路口,2) 無信號燈控制的環(huán)形交叉口,3)追尾事故,4)走走停停的車流,5)道路施工引起的車流合并,以及6)匝道引起的合并。 B3D數(shù)據集由20個后處理視頻、16002個帶注釋的圖像和一個開發(fā)工具包組成,視頻、帶注釋的圖像和開發(fā)工具包的大小分別為84.5 GB、1.55 GB和225 MB,總計約86.3 GB。在20個經過處理的視頻中,有8個是在路口上錄制的,12個是在高速公路上錄制的,視頻格式為mp4,數(shù)據集的結構如圖1所示。

95385936-5973-11ed-a3b6-dac502259ad0.png

圖1B3D數(shù)據集的文件結構

如圖2所示是B3D數(shù)據集中所展示的追尾事故,分別發(fā)生在hwy00.mp4,以及hwy01.mp4中。在hwy00.mp4的00:45,可以觀察到框架左邊緣附近的第一次事故。在hwy01.mp4的13:10,在幀中間發(fā)現(xiàn)了另一個碰撞事故。

954c94f0-5973-11ed-a3b6-dac502259ad0.png

圖2 hwy00.mp4和hwy01.mp4的追尾碰撞。

第一次事故涉及至少兩輛車,而第二起事件涉及四輛車。 無信號控制的交叉路口可以在jnc00.mp4、jnc01.mp4、jnc02.mp4和jnc07.mp4的視頻中找到。如圖3a所示和數(shù)字3b所示,視頻jnc00.mp4和jnc01.mp4是三叉路口的兩種變體。如圖3c和3d所示數(shù)字,視頻jnc02.mp4和jnc07.mp4是四向交叉口的兩種變體。

jnc03.mp4、jnc04.mp4、jnc05.mp4和jnc06.mp4都有無信號環(huán)形交叉口。如圖3e所示,視頻jnc03.mp4和jnc04.mp4是兩個ve-way環(huán)島的記錄。如圖3f和3g所示,視頻jnc05.mp4和jnc06.mp4是四向環(huán)形交叉口的兩種變體。 hwy04.mp4和hwy05.mp4記錄了走走停停的車流。

第一個走走停停行為在hwy04.mp4時間02:30到05:07之間形成。第二次停停走走的浪潮出現(xiàn)在hwy04.mp4時間06:06到08:10之間。第三次停停走走的波動出現(xiàn)在hwy04.mp4時間的10:26到12:25之間。第四次發(fā)生在hwy05.mp4時間00:00到01:33之間。最后一次出現(xiàn)在hwy05.mp4時間05:19到06:07之間。停停走走波的形成和消散過程如圖4所示。

hwy06.mp4、hwy07.mp4和hwy08.mp4都記錄了道路工程引發(fā)的車輛合并。如圖3j所示,該場景的拓撲是一個四車道到兩車道的瓶頸。 hwy09.mp4、hwy10.mp4和hwy11.mp4記錄了匝道誘導合并。如圖3k所示,匝道的拓撲結構是一條三車道的入口匝道正在并入一條四車道的擁堵公路。在合并點之前和之后,車流保持堵塞。

9569aae0-5973-11ed-a3b6-dac502259ad0.png

圖3 B3D數(shù)據集中的典型道路拓撲。

(a)-(d)無信號燈交叉口,(e)-(g)無信號燈環(huán)形交叉口,(h)-(i)高速公路,以及(i)-(k)合流瓶頸。

95a10e36-5973-11ed-a3b6-dac502259ad0.png

圖4 走走停停車流的時間線。 綠色表示正常交通,紅色表示由強降雨引起的擁堵,淺紅色表示由走走停停引起的擁堵。

3.2 圖片標注

為了定性分析視頻中觀察到的車輛行為,需要獲得場景中每輛相關車輛的精確軌跡。為了構建車輛的軌跡,作者首先在每一幀中檢測其位置,然后使用跟蹤算法將跨幀的每個檢測位置關聯(lián)起來。 為此,作者建立了一個圖像數(shù)據集,可用于訓練車輛檢測模型。該數(shù)據集由16002個帶注釋的圖像組成,其中80%被分割用于訓練,10%用于驗證,10%用于測試。

圖5顯示了一個示例注釋。 數(shù)據集中,總共有135303個邊界框被注釋為路口圖像,總共有129939個邊界框被創(chuàng)建為高速公路圖像。注意,所有車輛均被不加區(qū)分得定義為vehicle類。

95c19d2c-5973-11ed-a3b6-dac502259ad0.png

圖5 注釋圖像示例。彩色矩形是場景中車輛的軸向對齊邊界框。

3.3 開發(fā)工具包

除了視頻和帶注釋的圖片,作者還提供了一個開發(fā)工具包,其中包含三個示例腳本:train.py、test.py和mask.py。 其中,腳本train.py用于顯示注釋圖像數(shù)據如何用來訓練用于車輛檢測的神經網絡模型。在這個腳本中,作者使用對象檢測庫Detectron2來訓練RetinaNet模型,用于檢測輸入圖像中車輛的位置。

腳本test.py將通過train.py腳本訓練的訓練模型應用于輸入圖像,用于訓練后的評估和推理。作者提供了預訓練模型,可以直接用于推理,使用預訓練模型的檢測結果的實例如圖6所示。

95d124d6-5973-11ed-a3b6-dac502259ad0.png

圖6 帶有檢測結果的示例圖像。

彩色矩形是軸向對齊的邊界框。黑色數(shù)字是估計邊界框的置信分數(shù),其中1.0表示完全確定,0.0表示完全不確定。 最后,mask.py根據預先定義的多邊形遮罩來裁剪圖像。圖7顯示了腳本如何根據紅色遮罩裁剪掉環(huán)島圖像的不相關部分。該腳本旨在幫助用戶專注于場景中唯一相關的部分,其中的相關性由用戶通過CVAT工具確定。

要裁剪視頻,只需為視頻的一幀定義一個多邊形遮罩,然后對視頻的每一幀應用遮罩。此外,作者還提供了Docker文件。

95ea5cc6-5973-11ed-a3b6-dac502259ad0.png

圖7 mask過程的演示。紅色多邊形面具由CVAT設計。蒙版之外的像素被認為是不相關的,并被標記為黑色。

4. 視頻采集和處理

4.1 數(shù)據采集時間

這20個航拍視頻是2019年12月11日至12月21日在中國由DJI Mavic 2 Pro四軸飛行器拍攝的。具體的日期、長度和地點如表1所示。

表1視頻日期、長度及定位

960130c2-5973-11ed-a3b6-dac502259ad0.png

在每次視頻拍攝期間,作者將四軸無人機直接懸停。然后使用內置相機以4K和30 FPS記錄俯視視頻。實驗設置的可視化如圖8所示。由于電池容量有限,每次拍攝被限制在15到20分鐘之間。

96173ade-5973-11ed-a3b6-dac502259ad0.png

圖8 實驗裝置的圖解。四軸無人機懸停在感興趣的道路上,內置攝像機記錄每個交通參與者進出場景的俯視圖。

為了訓練用于車輛檢測的神經網絡模型,作者從20個視頻中每15秒提取一個幀,然后手動標記一個軸向對齊的邊界框,在選定的幀中的每個車輛。此外,作者裁剪了視頻幀中不相關的部分,如樹木、屋頂和停車場,以此來減小圖像的大小。

4.2 應用領域

B3D數(shù)據集主要有2個重要的應用場景:運動規(guī)劃,以及計算機視覺。

在運動規(guī)劃任務中,B3D數(shù)據集典型的應用過程如下: 1)運行mask腳本以選擇視頻數(shù)據集的相關部分; 2)應用檢測模型提取mask場景中每輛車的位置; 3)檢查檢測結果,并且手動校正檢測錯誤; 4)使用SORT等跟蹤算法,將檢測到的位置關聯(lián)到軌跡中; 5)基于估計的軌跡學習和驗證人類駕駛模型。

以此估計得到的模型可以部署在自動駕駛系統(tǒng)上,用于在特殊非結構化場景中導航。此外,所得到的模型可以作為倉庫機器人開發(fā)分散協(xié)調算法的基線。 在計算機視覺中,B3D主要用于開發(fā)或評估遙感環(huán)境中的小型道路目標的CV算法。

從空中視頻中檢測行人或騎自行車的人對于最先進的計算機視覺來說仍然是一個挑戰(zhàn)。這很大程度上是由于這些小物體的低分辨率,因為低分辨率使物體在視覺上模糊不清。如圖9所示,檢測模型可能會將行人與水印混淆,或弄混行人和騎自行車的人。

為此,B3D可以作為構建訓練數(shù)據和驗證候選算法的數(shù)據源。

9630aba4-5973-11ed-a3b6-dac502259ad0.png

圖9 低分辨率物體的視覺模糊

5. 總結

本文介紹了伯克利DeepDrive無人機數(shù)據集,該數(shù)據集拓展了自動駕駛中的非結構化場景,對于研究復雜路況下的自動駕駛車輛行為具有重要意義。

該數(shù)據集包含總共20個視頻序列、16002個帶注釋的圖像和一個開發(fā)工具包。它可用于以下應用:1)在底層結構道路環(huán)境中模擬駕駛員行為,2)設計去中心化運動規(guī)劃算法,以及3)開發(fā)用于低分辨率道路目標的檢測方法。





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 無人機
    +關注

    關注

    235

    文章

    11242

    瀏覽量

    194561
  • 信號控制
    +關注

    關注

    0

    文章

    46

    瀏覽量

    9448
  • 自動駕駛
    +關注

    關注

    792

    文章

    14798

    瀏覽量

    178273

原文標題:分散式車輛協(xié)同:伯克利DeepDrive無人機數(shù)據集B3D

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Xsens/Movella的新款Avior慣性測量單元

    Xsens/Movella的新款Avior慣性測量單元。Avior慣性測量單元為工業(yè)、ROV、AUV、UAV、機器人、相機/載荷穩(wěn)定和嵌入式應用提供實時方向及慣性數(shù)據。MovellaA
    的頭像 發(fā)表于 01-21 12:04 ?220次閱讀
    Xsens/Movella的新款Avior<b class='flag-5'>慣性</b>測量單元

    Inertial Labs 慣性產品介紹

    InertialLabs慣性產品概覽美國Inertiallabs公司成立于2001年,是定位定向和慣性測量技術方面的領先企業(yè),InertialLabs公司的產品和技術廣泛地應用于商業(yè)、工業(yè)以及
    的頭像 發(fā)表于 11-07 17:43 ?642次閱讀
    Inertial Labs <b class='flag-5'>慣性</b>產品<b class='flag-5'>介紹</b>

    SimData:基于aiSim的高保真虛擬數(shù)據生成方案

    01前言在自動駕駛感知系統(tǒng)的研發(fā)過程中,模型的性能高度依賴于大規(guī)模、高質量的感知數(shù)據。目前業(yè)界常用的數(shù)據包括KITTI、nuScenes、WaymoOpenDataset等,它們?yōu)?/div>
    的頭像 發(fā)表于 11-07 17:35 ?5229次閱讀
    SimData:基于aiSim的高保真虛擬<b class='flag-5'>數(shù)據</b><b class='flag-5'>集</b>生成方案

    PYQT 應用程序框架及開發(fā)工具

    大家好,本團隊此次分享的內容為開發(fā)過程中使用到的PYQT 應用程序框架及開發(fā)工具。 pYqt 是多平臺的 python 圖形用戶界面應用程序框架,由于其面向對象、 易擴展(可
    發(fā)表于 10-29 07:15

    risc-v P擴展() P指令簡介

    =17.3333px]二、指令詳細介紹 [size=17.3333px]P擴展包含指令數(shù)量較大,可以按照:SIMD數(shù)據處理指令、部分SIMD數(shù)據處理指令、64位
    發(fā)表于 10-23 07:40

    AIcube1.4目標檢測模型導入yolotxt格式數(shù)據直顯示數(shù)據正在解析,為什么?

    AIcube1.4目標檢測模型導入yolotxt格式數(shù)據直顯示數(shù)據正在解析 數(shù)據有問題,把數(shù)據
    發(fā)表于 08-13 07:16

    自動駕駛中常提的慣性導航系統(tǒng)是啥?可以不用嗎?

    每次提到自動駕駛硬件時,大家可能第反應想到的是激光雷達、車載攝像頭、毫米波雷達等,但想要讓自動駕駛車輛實際落地,有硬件也非常重要,那就是慣性
    的頭像 發(fā)表于 07-24 18:12 ?1779次閱讀
    自動駕駛中常提的<b class='flag-5'>慣性</b>導航系統(tǒng)是<b class='flag-5'>個</b>啥?可以不用嗎?

    云訓練平臺數(shù)據過大無法下載數(shù)據至本地怎么解決?

    起因是現(xiàn)在平臺限制了圖片數(shù)量,想要本地訓練下載數(shù)據時發(fā)現(xiàn)只會跳出網絡異常的錯誤,請問這有什么解決辦法?
    發(fā)表于 07-22 06:03

    使用AICube導入數(shù)據點創(chuàng)建后提示數(shù)據不合法怎么處理?

    重現(xiàn)步驟 data目錄下 labels.txt只有英文 **錯誤日志** 但是使用示例的數(shù)據可以完成訓練并部署
    發(fā)表于 06-24 06:07

    數(shù)據下載失敗的原因?

    數(shù)據下載失敗什么原因太大了嗎,小的可以下載,想把大的下載去本地訓練報錯網絡錯誤 大的數(shù)據多大?數(shù)據量有多少?
    發(fā)表于 06-18 07:04

    Analog Devices Inc. ADIS16550六自由度慣性傳感器數(shù)據手冊

    Analog Devices ADIS16550六自由度慣性傳感器是款完整的慣性系統(tǒng),內置三軸陀螺儀和
    的頭像 發(fā)表于 06-14 11:12 ?806次閱讀
    Analog Devices Inc. ADIS16550六自由度<b class='flag-5'>慣性</b>傳感器<b class='flag-5'>數(shù)據</b>手冊

    種實時多線程VSLAM框架vS-Graphs介紹

    針對現(xiàn)有VSLAM系統(tǒng)語義表達不足、地圖可解釋性差的問題,本文提出vS-Graphs,種實時多線程VSLAM框架。該方案顯著提升了重建地圖的語義豐富度、可解釋性及定位精度。實驗表明
    的頭像 發(fā)表于 04-19 14:07 ?861次閱讀
    <b class='flag-5'>一</b>種實時多線程VSLAM<b class='flag-5'>框架</b>vS-Graphs<b class='flag-5'>介紹</b>

    請問NanoEdge AI數(shù)據該如何構建?

    我想用NanoEdge來識別異常的聲音,但我目前沒有辦法生成模型,我感覺可能是數(shù)據的問題,請問我該怎么構建數(shù)據?或者生成模型失敗還會有哪些原因?
    發(fā)表于 03-10 08:20

    慣性傳感器的分類和應用

    慣性傳感器是種利用物體慣性效應來測量加速度、角速度等運動參數(shù)的傳感器。隨著微機電系統(tǒng)(MEMS)技術的快速發(fā)展,慣性傳感器已經廣泛應用于汽車、航空航天、消費電子、工業(yè)自動化等多個領域
    的頭像 發(fā)表于 02-03 14:20 ?5695次閱讀