chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用自監(jiān)督學(xué)習(xí)重建動態(tài)駕駛場景

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:未知 ? 2023-12-16 16:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgaomV9W2eACTqvAI2RUKtEaQ8569.gif

無論是單調(diào)的高速行車,還是平日的短途出行,駕駛過程往往平淡無奇。因此,在現(xiàn)實(shí)世界中采集的用于開發(fā)自動駕駛汽車(AV)的大部分訓(xùn)練數(shù)據(jù)都明顯偏向于簡單場景。

這給部署魯棒的感知模型帶來了挑戰(zhàn)。自動駕駛汽車必須接受全面的訓(xùn)練、測試和驗(yàn)證,以便能夠應(yīng)對復(fù)雜的場景,而這需要大量涵蓋此類場景的數(shù)據(jù)。

在現(xiàn)實(shí)世界中,收集此類場景數(shù)據(jù)要耗費(fèi)大量時(shí)間和成本。而現(xiàn)在,仿真提供了另一個(gè)可選方案。但要大規(guī)模生成復(fù)雜動態(tài)場景仍然困難重重。

在近期發(fā)布的一篇論文中,NVIDIA Research 展示了一種基于神經(jīng)輻射場(NeRF)的新方法——EmerNeRF 及其如何使用自監(jiān)督學(xué)習(xí)準(zhǔn)確生成動態(tài)場景。通過自監(jiān)督方法訓(xùn)練,EmerNeRF 在動靜態(tài)場景重建上的表現(xiàn)超越了之前其他 NeRF 方法。詳細(xì)情況請參見 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision

wKgaomV9W2iAWIQRAIG3gjsjUmk047.gif

wKgaomV9W2qAEBhsAHW-H-Nc2wI223.gif

wKgaomV9W2uADx4ZAGFS9lTdEQ0746.gif

圖 1. EmerNeRF 重建動態(tài)駕駛場景的示例

相比其他 NeRF 重建方法,EmerNeRF 的動態(tài)場景重建準(zhǔn)確率高出 15%,靜態(tài)場景高出 11%。新視角合成的準(zhǔn)確率也高出 12%。

打破 NeRF 方法的局限性

NeRF 將一組靜態(tài)圖像重建成逼真的 3D 場景。這使得依據(jù)駕駛?cè)罩局亟ㄓ糜?DNN 訓(xùn)練、測試驗(yàn)證的高保真仿真環(huán)境成為可能。

然而,目前基于 NeRF 的重建方法在處理動態(tài)物體時(shí)十分困難,而且實(shí)踐證明難以擴(kuò)展。例如有些方法可以生成靜態(tài)和動態(tài)場景,但它們依賴真值(GT)標(biāo)簽。這就意味著必須使用自動標(biāo)注或人工標(biāo)注員先來準(zhǔn)確標(biāo)注出駕駛?cè)罩局械拿總€(gè)物體。

其他 NeRF 方法則依賴于額外的模型來獲得完整的場景信息,例如光流。

為了打破這些局限性,EmerNeRF 使用自監(jiān)督學(xué)習(xí)將場景分解為靜態(tài)、動態(tài)和流場(flow fields)。該模型從原始數(shù)據(jù)中學(xué)習(xí)前景、背景之間的關(guān)聯(lián)和結(jié)構(gòu),而不依賴人工標(biāo)注的 GT 標(biāo)簽。然后,對場景做時(shí)空渲染,并不依賴外部模型來彌補(bǔ)時(shí)空中的不完整區(qū)域,而且準(zhǔn)確性更高。

wKgaomV9W22ANZJBAIreJrPM29Q814.gif

圖 2. EmerNeRF 將圖 1 第一段視頻中的場景分解為動態(tài)場、靜態(tài)場和流場

因此,其他模型往往會產(chǎn)生過于平滑的背景和精度較低的動態(tài)物體(前景),而 EmerNeRF 則能重建高保真的背景及動態(tài)物體(前景),同時(shí)保留場景的細(xì)節(jié)。

wKgaomV9W22AEIs2AAHQ9VA5HZs560.png

表 1. 將 EmerNeRF 與其他基于 NeRF 的動態(tài)場景重建方法進(jìn)行比較后的評估結(jié)果,分為場景重建性能和新視角合成性能兩個(gè)類別

wKgaomV9W22AfcY9AAA2G6E-KP4237.png

表 2. 將 EmerNeRF 與其他基于 NeRF 的靜態(tài)場景重建方法進(jìn)行比較后的評估結(jié)果

EmerNeRF 方法

EmerNeRF 使用的是自監(jiān)督學(xué)習(xí),而非人工注釋或外部模型,這使得它能夠避開之前方法所遇到的難題。

wKgaomV9W26AEUZHAAIDIitNPLA183.png

圖 3.EmerNeRF 分解和重建管線

EmerNeRF 將場景分解成動態(tài)和靜態(tài)元素。在場景分解的同時(shí),EmerNeRF 還能估算出動態(tài)物體(如汽車和行人)的流場,并通過聚合流場在不同時(shí)間的特征以進(jìn)一步提高重建質(zhì)量。其他方法會使用外部模型提供此類光流數(shù)據(jù),但通常會引入偏差。

通過將靜態(tài)場、動態(tài)場和流場結(jié)合在一起,EmerNeRF 能夠充分表達(dá)高密度動態(tài)場景,這不僅提高了重建精度,也方便擴(kuò)展到其他數(shù)據(jù)源。

使用基礎(chǔ)模型加強(qiáng)語義理解

EmerNeRF 對場景的語義理解,可通過(視覺)基礎(chǔ)大模型監(jiān)督進(jìn)一步增強(qiáng)?;A(chǔ)大模型具有更通用的知識(例如特定類型的車輛或動物)。EmerNeRF 使用視覺 Transformer(ViT)模型,例如 DINO, DINOv2,將語義特征整合到場景重建中。

這使 EmerNeRF 能夠更好地預(yù)測場景中的物體,并執(zhí)行自動標(biāo)注等下游任務(wù)。

wKgaomV9W2-AXLGcAEMAJKXvMk4609.gif

圖 4. EmerNeRF 使用 DINO 和 DINOv2 等基礎(chǔ)模型加強(qiáng)對場景的語義理解

不過,基于 Transformer 的基礎(chǔ)模型也帶來了新的挑戰(zhàn):語義特征可能會表現(xiàn)出與位置相關(guān)的噪聲,從而大大限制下游任務(wù)的性能。

wKgaomV9W3CAHehyAD0gOpmySM4007.gif

圖 5. EmerNeRF 使用位置嵌入消除基于 Transformer 的基礎(chǔ)模型所產(chǎn)生的噪聲

為了解決噪聲問題,EmerNeRF 通過位置編碼分解來恢復(fù)無噪聲的特征圖。如圖 5 所示,這樣就解鎖了基礎(chǔ)大模型在語義特征上全面、準(zhǔn)確的表征能力。

評估 EmerNeRF

正如 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision 中所述,研究人員整理出了一個(gè)包含 120 個(gè)獨(dú)特場景的數(shù)據(jù)集來評估 EmerNeRF 的性能,這些場景分為 32 個(gè)靜態(tài)場景、32 個(gè)動態(tài)場景和 56 個(gè)多樣化場景,覆蓋了高速、低光照等具有挑戰(zhàn)性的場景。

然后根據(jù)數(shù)據(jù)集的不同子集,評估每個(gè) NeRF 模型重建場景和合成新視角的能力。

如表 1 所示,據(jù)此,EmerNeRF 在場景重建和新視角合成方面的表現(xiàn)始終明顯優(yōu)于其他方法。

EmerNeRF 的表現(xiàn)還優(yōu)于專門用于靜態(tài)場景的方法,這表明將場景分解為靜態(tài)和動態(tài)元素的自監(jiān)督分解既能夠改善靜態(tài)重建,還能夠改善動態(tài)重建。

總結(jié)

自動駕駛仿真只有在能夠準(zhǔn)確重建現(xiàn)實(shí)世界的情況下才會有效。隨著場景的日益動態(tài)化和復(fù)雜化,對保真度的要求也越來越高,而且更難實(shí)現(xiàn)。

與以前的方法相比,EmerNeRF 能夠更準(zhǔn)確地表現(xiàn)和重建動態(tài)場景,而且無需人工監(jiān)督或外部模型。這樣就能大規(guī)模地重建和編輯復(fù)雜的駕駛數(shù)據(jù),解決目前自動駕駛汽車訓(xùn)練數(shù)據(jù)集的不平衡問題。

NVIDIA 正迫切希望研究 EmerNeRF 帶來的新功能,如端到端駕駛、自動標(biāo)注和仿真等。

如要了解更多信息,請?jiān)L問 EmerNeRF 項(xiàng)目頁面并閱讀 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision。

了解更多

  • 適用于自動駕駛汽車的解決方案

    https://www.nvidia.cn/self-driving-cars/

  • EmerNeRF 項(xiàng)目頁面

    https://emernerf.github.io/

  • 閱讀 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision.

    https://arxiv.org/abs/2311.02077

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。點(diǎn)擊“閱讀原文”掃描下方海報(bào)二維碼,立即注冊 GTC 大會


原文標(biāo)題:使用自監(jiān)督學(xué)習(xí)重建動態(tài)駕駛場景

文章出處:【微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4044

    瀏覽量

    97717

原文標(biāo)題:使用自監(jiān)督學(xué)習(xí)重建動態(tài)駕駛場景

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    趨勢: 無監(jiān)督學(xué)習(xí)普及 當(dāng)前工業(yè)場景中80%的缺陷檢測項(xiàng)目面臨\"OK樣本充足而NG樣本稀缺\"的困境,傳統(tǒng)監(jiān)督學(xué)習(xí)方案難以落地。課程第11系列(無監(jiān)督缺陷檢測篇)提供無需標(biāo)注即可
    發(fā)表于 12-04 09:28

    自動駕駛數(shù)據(jù)標(biāo)注是所有信息都要標(biāo)注嗎?

    本身只是像素和點(diǎn)云。標(biāo)注的工作就是人為地給這些信號貼上語義標(biāo)簽,告訴模型這是一輛車、這是行人、這是車道線、這個(gè)區(qū)域不能通行之類的明確信息。沒有這些標(biāo)簽,監(jiān)督學(xué)習(xí)、驗(yàn)證和評估都無法進(jìn)行,模型不知道哪些輸入與哪些輸出應(yīng)該
    的頭像 發(fā)表于 12-04 09:05 ?396次閱讀
    自動<b class='flag-5'>駕駛</b>數(shù)據(jù)標(biāo)注是所有信息都要標(biāo)注嗎?

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)可(11大系列課程,共5000+分鐘)

    23.5%。本次團(tuán)購旨在幫助工程師把握三大技術(shù)趨勢: 無監(jiān)督學(xué)習(xí)普及 當(dāng)前工業(yè)場景中80%的缺陷檢測項(xiàng)目面臨\"OK樣本充足而NG樣本稀缺\"的困境,傳統(tǒng)監(jiān)督學(xué)習(xí)方案難以落地。課程
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?63次閱讀

    如何選擇適合的智駕仿真工具進(jìn)行場景生成和測試?

    在自動駕駛技術(shù)日益發(fā)展的背景下,選擇合適的智駕仿真工具進(jìn)行場景生成和測試顯得尤為重要。該工具不僅需要支持高精度的場景重建,還需滿足多種環(huán)境條件和傳感器模型的兼容性。本文將深入探討如何評
    的頭像 發(fā)表于 11-25 10:32 ?163次閱讀
    如何選擇適合的智駕仿真工具進(jìn)行<b class='flag-5'>場景</b>生成和測試?

    僅使用智能手機(jī)在NVIDIA Isaac Sim中重建場景

    使用 iPhone 拍攝照片,到利用 3DGUT 進(jìn)行 3D 場景重建,再到將重建場景導(dǎo)入 NVIDIA Isaac Sim 并添加機(jī)器人。若要跳過
    的頭像 發(fā)表于 11-10 14:03 ?450次閱讀

    講講如何閉環(huán)自動駕駛仿真場景,從重建到可用?

    靜態(tài)3D場景無法滿足仿真測試?缺乏動態(tài)交通流、難以模擬極端天氣、傳感器模型不逼真!本文帶您看aiSim場景編輯與GGSR渲染器如何破局!自由配置暴雨黑夜與虛擬車流,使用通用高斯?jié)姙R實(shí)現(xiàn)廣角無畸變的高保真渲染,為自動
    的頭像 發(fā)表于 10-27 11:10 ?7063次閱讀
    講講如何閉環(huán)自動<b class='flag-5'>駕駛</b>仿真<b class='flag-5'>場景</b>,從<b class='flag-5'>重建</b>到可用?

    從“重建”到“可用”:aiSim3DGS方案如何閉環(huán)自動駕駛仿真場景

    3DGaussianSplatting(3DGS)憑借高效渲染與逼真場景還原能力,逐漸成為三維重建與仿真領(lǐng)域的焦點(diǎn)。然而,實(shí)際應(yīng)用中,如何將多源異構(gòu)數(shù)據(jù)高效轉(zhuǎn)化為可用的3DGS場景,如
    的頭像 發(fā)表于 10-24 17:33 ?28次閱讀
    從“<b class='flag-5'>重建</b>”到“可用”:aiSim3DGS方案如何閉環(huán)自動<b class='flag-5'>駕駛</b>仿真<b class='flag-5'>場景</b>?

    自動駕駛中常提的“強(qiáng)化學(xué)習(xí)”是個(gè)啥?

    下,就是一個(gè)智能體在環(huán)境里行動,它能觀察到環(huán)境的一些信息,并做出一個(gè)動作,然后環(huán)境會給出一個(gè)反饋(獎(jiǎng)勵(lì)或懲罰),智能體的目標(biāo)是把長期得到的獎(jiǎng)勵(lì)累積到最大。和監(jiān)督學(xué)習(xí)不同,強(qiáng)化學(xué)習(xí)沒有一一對應(yīng)的“正確答案”給它看,而是靠與環(huán)境交互、自我探索來發(fā)現(xiàn)
    的頭像 發(fā)表于 10-23 09:00 ?347次閱讀
    自動<b class='flag-5'>駕駛</b>中常提的“強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>”是個(gè)啥?

    一種基于多次觀測融合的可交互三維高斯場景重建框架

    在計(jì)算機(jī)視覺和機(jī)器人領(lǐng)域,如何完整、真實(shí)地重建一個(gè)可交互的三維場景,一直是一個(gè)難題。傳統(tǒng)方法往往依賴復(fù)雜的多階段流程,比如先做分割,再進(jìn)行背景補(bǔ)全或修復(fù),或者需要對每個(gè)物體進(jìn)行密集掃描。這些方式不僅成本高、容易出錯(cuò),而且很難擴(kuò)展到大規(guī)模的應(yīng)用
    的頭像 發(fā)表于 09-29 11:12 ?442次閱讀
    一種基于多次觀測融合的可交互三維高斯<b class='flag-5'>場景</b><b class='flag-5'>重建</b>框架

    生成式 AI 重塑自動駕駛仿真:4D 場景生成技術(shù)的突破與實(shí)踐

    生成式AI驅(qū)動的4D場景技術(shù)正解決傳統(tǒng)方法效率低、覆蓋不足等痛點(diǎn),如何通過NeRF、3D高斯?jié)姙R等技術(shù)實(shí)現(xiàn)高保真動態(tài)建模?高效生成極端天氣等長尾場景?本文為您系統(tǒng)梳理AI驅(qū)動的4D場景
    的頭像 發(fā)表于 08-06 11:20 ?4826次閱讀
    生成式 AI 重塑自動<b class='flag-5'>駕駛</b>仿真:4D <b class='flag-5'>場景</b>生成技術(shù)的突破與實(shí)踐

    一種適用于動態(tài)環(huán)境的3DGS-SLAM系統(tǒng)

    當(dāng)前基于神經(jīng)輻射場(NeRF)或3D高斯?jié)姙R(3DGS)的SLAM方法在重建靜態(tài)3D場景方面表現(xiàn)出色,但在動態(tài)環(huán)境中的跟蹤和重建方面卻面臨著挑戰(zhàn)。
    的頭像 發(fā)表于 06-13 10:10 ?1006次閱讀
    一種適用于<b class='flag-5'>動態(tài)</b>環(huán)境的3DGS-SLAM系統(tǒng)

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識。
    的頭像 發(fā)表于 05-16 14:48 ?1190次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    康謀分享 | 3DGS:革新自動駕駛仿真場景重建的關(guān)鍵技術(shù)

    3DGS技術(shù)為自動駕駛仿真場景重建帶來突破,通過3D高斯點(diǎn)精確表達(dá)復(fù)雜場景的幾何和光照特性,顯著提升渲染速度與圖像質(zhì)量。康謀aiSim平臺結(jié)合3DGS,提供高保真虛擬環(huán)境與
    的頭像 發(fā)表于 03-05 09:45 ?4886次閱讀
    康謀分享 | 3DGS:革新自動<b class='flag-5'>駕駛</b>仿真<b class='flag-5'>場景</b><b class='flag-5'>重建</b>的關(guān)鍵技術(shù)