chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用合成數(shù)據(jù)處理自動(dòng)駕駛新視角感知

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:未知 ? 2023-11-24 19:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

雖然,從小型客車到多軸半掛卡車,自動(dòng)駕駛汽車 (AV) 有各種尺寸和大小,但部署在這些車輛上的感知算法都要經(jīng)過訓(xùn)練,以處理諸如避障或行人檢測(cè)等類似場(chǎng)景。

用于開發(fā)和驗(yàn)證這些算法的數(shù)據(jù)集通常從某一款車型中收集,例如配備攝像頭、雷達(dá)、激光雷達(dá)和超聲波傳感器的某款小轎車。

使用某類傳感器配置的車隊(duì)數(shù)據(jù)訓(xùn)練的感知算法可以在同類傳感器配置的車型上穩(wěn)定運(yùn)行。但當(dāng)相同的算法被部署到使用了不同傳感器配置的車輛上時(shí),感知性能會(huì)降低,因?yàn)楝F(xiàn)在是從新的視角來感知的。

分析感知精度的損失,需要測(cè)量深度神經(jīng)網(wǎng)絡(luò) (DNN) 對(duì)新傳感器位置的敏感度。通過靈敏度分析,可以從多個(gè)角度重新訓(xùn)練感知算法,從而有針對(duì)性地提高魯棒性。

但是,靈敏度分析和重新訓(xùn)練感知都需要收集和標(biāo)注各種傳感器配置的數(shù)據(jù)集。這個(gè)過程耗時(shí)且成本高昂。

本文展示了 NVIDIA DRIVE Sim 中的合成數(shù)據(jù)集以及 NVIDIA 在新視角合成 (NVS) 方面的最新研究如何填補(bǔ)數(shù)據(jù)缺口,并幫助在部署新傳感器配置時(shí)保持感知準(zhǔn)確性。

測(cè)量 DNN 靈敏度

在為不同傳感器視角創(chuàng)建合成數(shù)據(jù)集之前,首先需要在 NVIDIA DRIVE Sim 中構(gòu)建數(shù)字孿生的測(cè)試車隊(duì)車輛,并配備經(jīng)過與真實(shí)世界的傳感器配置標(biāo)定的攝像頭傳感器模型。

合成數(shù)據(jù)是通過在預(yù)定義場(chǎng)景中按照某個(gè)軌跡駕駛汽車,收集并保存仿真攝像頭數(shù)據(jù)。每次駕駛的場(chǎng)景各不相同,例如傳感器裝備高度、俯沖和安裝位置等方面,以模擬其他尺寸類型的車輛。

通過使用 NVIDIA Omniverse Replicator 在 Omniverse 中生成真值 (Ground Truth, GT) 標(biāo)注(如 3D 邊界框)和評(píng)估感知算法所需的目標(biāo)類別。整個(gè)工作流都是可重復(fù)的,并且能夠運(yùn)行設(shè)計(jì)好的實(shí)驗(yàn),以便快速測(cè)量感知算法的靈敏度。

在生成的數(shù)據(jù)集做推理,將預(yù)測(cè)的輸出與 GT 標(biāo)簽進(jìn)行比較,用以測(cè)量在不同攝像頭高度配置下的模型精度,如圖 1 和 圖 2 所示。數(shù)據(jù)集的場(chǎng)景相同,但傳感器角度不同。在圖 1 中,藍(lán)色框代表 GT 標(biāo)簽,而綠色框代表網(wǎng)絡(luò)的預(yù)測(cè)。在圖 2 中,藍(lán)色框代表 GT 標(biāo)簽,而紅色框代表網(wǎng)絡(luò)的預(yù)測(cè)。

wKgZomVgiUCABs72AHEXfm5gCjw794.gif

圖 1. 目標(biāo)檢測(cè)模型

在四個(gè)不同的合成數(shù)據(jù)集上運(yùn)行的示例,

重點(diǎn)關(guān)注車輛物體類別

wKgZomVgiUGAROkgAG2e1PpDvB4602.gif

圖 2. 目標(biāo)檢測(cè)模型

在四個(gè)不同的合成數(shù)據(jù)集上運(yùn)行的示例,

重點(diǎn)關(guān)注行人物體類

鑒于網(wǎng)絡(luò)是基于一類車輛采集數(shù)據(jù)進(jìn)行訓(xùn)練的,因此(與采集車)相似的攝像頭配置,檢測(cè)會(huì)更準(zhǔn)確,隨著攝像頭位置的顯著變化而檢測(cè)性能降低。

要解決感知模型在新車型上部署的差距,需要視角不同于原始采集車的新車型的訓(xùn)練數(shù)據(jù)集。雖然現(xiàn)有的車隊(duì)數(shù)據(jù)可通過數(shù)據(jù)增強(qiáng)來使用,但這種方法并不能完全滿足數(shù)據(jù)集收集新視角的需求。

新視角合成

NVS 是一種計(jì)算機(jī)視覺方法,用于從一組現(xiàn)有圖像中生成未見過的新場(chǎng)景視圖。這項(xiàng)功能可以從不同視角或角度創(chuàng)建場(chǎng)景圖像,而不是由車載相機(jī)捕獲。

wKgZomVgiUGAOtWuAANZeFB8UWA590.png

圖 3. 新視角合成的完整管線

NVIDIA 研究團(tuán)隊(duì)最近提出了一種 NVS 方法,該方法能夠?qū)?dòng)態(tài)駕駛數(shù)據(jù)從一個(gè)傳感器位置轉(zhuǎn)換到新視角,用于模擬不同的高度、俯仰角 (pitch) 和航向角 (yaw) 等傳感器的新視角。有關(guān)詳細(xì)信息,請(qǐng)參閱 Towards Viewpoint Robustness in Bird’s Eye View Segmentation

(https://nvlabs.github.io/viewpoint-robustness/assets/tzofi2023view.pdf)

該方法基于 Worldsheet,一種結(jié)合深度估計(jì)和 3D 網(wǎng)格合成來生成靜態(tài)場(chǎng)景新視角的技術(shù)。首先,根據(jù)預(yù)測(cè)的深度值將Lattice網(wǎng)格變形以匹配場(chǎng)景,從而創(chuàng)建 3D 場(chǎng)景網(wǎng)格。然后,使用紋理采樣器將原始圖像中的 RGB 像素強(qiáng)度投射到 3D 網(wǎng)格的紋理圖上。相比之前的工作,進(jìn)一步采用基于激光雷達(dá)的深度監(jiān)督和自動(dòng)掩碼來提高深度估計(jì)的準(zhǔn)確性并處理遮擋問題。

NVS 模型現(xiàn)在可用于生成數(shù)據(jù),就像是從不同類型的車輛中獲取的一樣。從而能幫助解鎖現(xiàn)有車隊(duì)數(shù)據(jù),以便在未來的自動(dòng)駕駛汽車開發(fā)中使用。

wKgZomVgiUKAcHffAAft0rtSBUc798.png

圖 4. NVS 變換后的圖像示例,這些圖像生成的視角會(huì)改變?cè)几┭鼋恰⑸疃群透叨?/p>

驗(yàn)證 NVS 并提升感知性能

在將 NVS 生成的數(shù)據(jù)納入訓(xùn)練數(shù)據(jù)集之前,首先要驗(yàn)證其是否準(zhǔn)確的反映了真實(shí)世界,并且是否對(duì)感知訓(xùn)練有效。

為此,驗(yàn)證 NVS 算法需要結(jié)合車隊(duì)數(shù)據(jù)和 NVS 轉(zhuǎn)換后的數(shù)據(jù)來訓(xùn)練感知算法。如果沒有多視角的真實(shí)數(shù)據(jù)來測(cè)試模型的性能,可以在 DRIVE Sim 中生成合成數(shù)據(jù)和 GT 標(biāo)注,與前面討論的靈敏度測(cè)試類似。

wKgZomVgiUKAJXOwABL35o4XAh4021.png

圖 5. 在 DRIVE Sim 中生成的一組用于感知驗(yàn)證的具有不同俯仰角、深度和高度的攝像頭圖像

在這些合成數(shù)據(jù)集上做推理表明,使用 NVS 生成的數(shù)據(jù)進(jìn)行訓(xùn)練可以提高感知性能。具體而言:

  • NVS 生成的數(shù)據(jù)質(zhì)量非常合適用于不同俯仰角場(chǎng)景,不適用于較大高度的場(chǎng)景。

  • 用于訓(xùn)練的 NVS 轉(zhuǎn)換數(shù)據(jù)能夠恢復(fù)感知性能,而這曾只有通過為每個(gè)新傳感器配置收集新數(shù)據(jù)才能實(shí)現(xiàn)。

這種方法開啟了一種 AV 開發(fā)新途徑,即只需一次數(shù)據(jù)采集,然后再將其重新用于多種車型,從而顯著降低部署成本和時(shí)間。

結(jié)語

開發(fā)能夠在不同類型車輛上魯棒的運(yùn)行的感知堆棧是一項(xiàng)巨大的數(shù)據(jù)挑戰(zhàn)。而合成數(shù)據(jù)生成和用于新視角合成 (NVS) 的 AI 技術(shù)能夠?qū)崿F(xiàn)感知靈敏度的系統(tǒng)測(cè)量。這大大提高了現(xiàn)有數(shù)據(jù)集的價(jià)值,并縮短了為其他車輛部署感知堆棧的時(shí)間。

我們邀請(qǐng)了廣大研究人員參與這項(xiàng)工作。因此,我們?cè)?Towards Viewpoint Robustness in Bird’s Eye View Segmentation 中公布了來自 DRIVE Sim 的合成數(shù)據(jù):

https://nvlabs.github.io/viewpoint-robustness/assets/tzofi2023view.pdf

歡迎探索這些數(shù)據(jù)并了解詳情

https://nvlabs.github.io/viewpoint-robustness/

點(diǎn)擊“閱讀原文”,獲取更多資訊。

了解更多

  • NVIDIA 與其汽車行業(yè)合作伙伴共同開發(fā)的領(lǐng)先設(shè)計(jì)與技術(shù):

    https://developer.nvidia.cn/drive

  • 適用于自動(dòng)駕駛汽車的 NVIDIA 解決方案:

    https://www.nvidia.cn/self-driving-cars/

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國(guó)加州圣何塞會(huì)議中心舉行,線上大會(huì)也將同期開放。掃描下方海報(bào)二維碼,立即注冊(cè) GTC 大會(huì)


原文標(biāo)題:使用合成數(shù)據(jù)處理自動(dòng)駕駛新視角感知

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4069

    瀏覽量

    98738

原文標(biāo)題:使用合成數(shù)據(jù)處理自動(dòng)駕駛新視角感知

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛BEV Camera數(shù)據(jù)采集系統(tǒng):高精度時(shí)間同步解決方案

    波動(dòng)。BEV(Bird's-Eye-View)感知技術(shù)以其尺度變化小、視角遮擋少的顯著優(yōu)勢(shì),正成為自動(dòng)駕駛領(lǐng)域的關(guān)鍵技術(shù),而高精度時(shí)間同步是確保BEV感知算法準(zhǔn)確性的基礎(chǔ)保障。 2 時(shí)
    的頭像 發(fā)表于 12-11 17:11 ?1261次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>BEV Camera<b class='flag-5'>數(shù)據(jù)</b>采集系統(tǒng):高精度時(shí)間同步解決方案

    自動(dòng)駕駛BEV Camera數(shù)據(jù)采集:時(shí)間同步技術(shù)解析與康謀解決方案

    一、自動(dòng)駕駛傳感器融合中的時(shí)間同步重要性 在自動(dòng)駕駛感知體系中,BEV(Bird's-Eye-View,鳥瞰圖)感知技術(shù)憑借尺度變化小、視角
    的頭像 發(fā)表于 12-11 16:36 ?962次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>BEV Camera<b class='flag-5'>數(shù)據(jù)</b>采集:時(shí)間同步技術(shù)解析與康謀解決方案

    自動(dòng)駕駛感知不一致是怎么發(fā)生的?

    [首發(fā)于智駕最前沿微信公眾號(hào)]為了讓自動(dòng)駕駛汽車能夠安全行駛,很多技術(shù)方案中會(huì)將多個(gè)感知硬件加裝到車輛上,以確保自動(dòng)駕駛汽車感知冗余,但感知
    的頭像 發(fā)表于 09-17 12:45 ?647次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>感知</b>不一致是怎么發(fā)生的?

    如何確保自動(dòng)駕駛汽車感知的準(zhǔn)確性?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛汽車想要自動(dòng)駕駛,首先要做的就是能對(duì)周邊環(huán)境實(shí)現(xiàn)精準(zhǔn)感知,也就是能“看”清道路,那自動(dòng)駕駛汽車如何在復(fù)雜、快速變化的道路環(huán)境中做到
    的頭像 發(fā)表于 08-23 15:06 ?1585次閱讀
    如何確保<b class='flag-5'>自動(dòng)駕駛</b>汽車<b class='flag-5'>感知</b>的準(zhǔn)確性?

    自動(dòng)駕駛數(shù)據(jù)標(biāo)注主要是標(biāo)注什么?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛系統(tǒng)的研發(fā)過程中,數(shù)據(jù)標(biāo)注是實(shí)現(xiàn)高性能感知模型的基礎(chǔ)環(huán)節(jié),其核心目標(biāo)是將車輛從環(huán)境中采集到的原始感知數(shù)據(jù)
    的頭像 發(fā)表于 07-30 11:54 ?1219次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>數(shù)據(jù)</b>標(biāo)注主要是標(biāo)注什么?

    什么是自動(dòng)駕駛數(shù)據(jù)標(biāo)注?如何好做數(shù)據(jù)標(biāo)注?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛系統(tǒng)的開發(fā)過程中,數(shù)據(jù)標(biāo)注是一項(xiàng)至關(guān)重要的工作。它不僅決定了模型訓(xùn)練的質(zhì)量,也直接影響了車輛感知、決策與控制的性能表現(xiàn)。隨著傳感器種類和數(shù)據(jù)量的
    的頭像 發(fā)表于 07-09 09:19 ?1191次閱讀
    什么是<b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>數(shù)據(jù)</b>標(biāo)注?如何好做<b class='flag-5'>數(shù)據(jù)</b>標(biāo)注?

    SONY FCB-CR8530,如何重塑自動(dòng)駕駛視覺感知格局?

    自動(dòng)駕駛技術(shù)快速發(fā)展的當(dāng)下,車輛對(duì)周圍環(huán)境的精準(zhǔn)感知是確保安全與高效運(yùn)行的關(guān)鍵。凱茉銳電子SONY FCB-CR8530攝像機(jī)憑借其卓越性能,正逐漸成為自動(dòng)駕駛領(lǐng)域視覺感知系統(tǒng)的核心
    的頭像 發(fā)表于 06-25 17:54 ?592次閱讀

    淺析4D-bev標(biāo)注技術(shù)在自動(dòng)駕駛領(lǐng)域的重要性

    感知領(lǐng)域的一項(xiàng)突破性創(chuàng)新,通過引入時(shí)間維度與全局視角,為自動(dòng)駕駛系統(tǒng)提供了高精度、多模態(tài)的時(shí)空真值數(shù)據(jù),重塑了自動(dòng)駕駛系統(tǒng)的開發(fā)范式。 4D
    的頭像 發(fā)表于 06-12 16:10 ?1886次閱讀

    新能源車軟件單元測(cè)試深度解析:自動(dòng)駕駛系統(tǒng)視角

    。 ?自動(dòng)駕駛軟件的特殊性? ? 感知層: ?激光雷達(dá)、攝像頭等傳感器數(shù)據(jù)處理算法的單元測(cè)試需覆蓋極端場(chǎng)景。例如,激光雷達(dá)點(diǎn)云濾波算法在雨雪天氣下的噪聲抑制能力需通過邊界測(cè)試驗(yàn)證。某廠商曾在測(cè)試中遺漏
    發(fā)表于 05-12 15:59

    技術(shù)分享 | 高逼真合成數(shù)據(jù)助力智駕“看得更準(zhǔn)、學(xué)得更快”

    自動(dòng)駕駛研發(fā)如何高效獲取海量訓(xùn)練數(shù)據(jù)?高逼真合成數(shù)據(jù)技術(shù)正在提供新解法。通過仿真平臺(tái)可生成多場(chǎng)景、多傳感器的精準(zhǔn)標(biāo)注數(shù)據(jù)。文章詳解如何構(gòu)建符合nuScenes標(biāo)準(zhǔn)的
    的頭像 發(fā)表于 04-29 10:47 ?3459次閱讀
    技術(shù)分享 | 高逼真<b class='flag-5'>合成數(shù)據(jù)</b>助力智駕“看得更準(zhǔn)、學(xué)得更快”

    感知融合如何讓自動(dòng)駕駛汽車“看”世界更清晰?

    ”,更是車輛實(shí)現(xiàn)自主決策的基礎(chǔ)。 環(huán)境感知系統(tǒng)需要實(shí)時(shí)采集、處理和分析車輛周圍的動(dòng)態(tài)和靜態(tài)信息,包括其他車輛、行人、交通標(biāo)志、道路狀況以及天氣條件等。這些信息直接影響到自動(dòng)駕駛的路徑規(guī)劃與控制決策的準(zhǔn)確性和安全性
    的頭像 發(fā)表于 04-27 16:24 ?802次閱讀
    <b class='flag-5'>感知</b>融合如何讓<b class='flag-5'>自動(dòng)駕駛</b>汽車“看”世界更清晰?

    技術(shù)分享 | AVM合成數(shù)據(jù)仿真驗(yàn)證方案

    AVM 合成數(shù)據(jù)仿真驗(yàn)證技術(shù)為自動(dòng)駕駛環(huán)境感知發(fā)展帶來助力,可借助仿真軟件配置傳感器、搭建環(huán)境、處理圖像,生成 AVM 合成數(shù)據(jù),有效加速算
    的頭像 發(fā)表于 03-19 09:40 ?3669次閱讀
    技術(shù)分享 | AVM<b class='flag-5'>合成數(shù)據(jù)</b>仿真驗(yàn)證方案

    自動(dòng)駕駛角度解析數(shù)據(jù)標(biāo)注對(duì)于人工智能的重要性

    自動(dòng)駕駛中,數(shù)據(jù)標(biāo)注的作用尤為突出。自動(dòng)駕駛系統(tǒng)依賴大量傳感器數(shù)據(jù)(如攝像頭、激光雷達(dá)、雷達(dá)等)來感知周圍環(huán)境,而這些
    的頭像 發(fā)表于 02-08 15:40 ?4174次閱讀
    以<b class='flag-5'>自動(dòng)駕駛</b>角度解析<b class='flag-5'>數(shù)據(jù)</b>標(biāo)注對(duì)于人工智能的重要性