chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動(dòng)駕駛仿真測(cè)試場景生成方法:從技術(shù)突破到工程落地的全維度解析

陳玉容 ? 來源:jf_61242192 ? 作者:jf_61242192 ? 2026-02-02 17:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自動(dòng)駕駛技術(shù)邁向 L4 及更高階別的進(jìn)程中,仿真測(cè)試已成為算法迭代、功能驗(yàn)證與安全合規(guī)的核心支撐。其中,測(cè)試場景的真實(shí)性、多樣性與可擴(kuò)展性直接決定了仿真測(cè)試的有效性 —— 傳統(tǒng)場景生成方式依賴人工建模與有限真實(shí)數(shù)據(jù)采集,不僅耗時(shí)耗力,更難以覆蓋極端工況與長尾場景。隨著 3D 高斯?jié)姙R(3DGS)、神經(jīng)輻射場(NeRF)等技術(shù)的崛起,自動(dòng)駕駛仿真場景生成正迎來從 "手動(dòng)構(gòu)建" 到 "智能重建" 的革命性轉(zhuǎn)變。本文將系統(tǒng)解析當(dāng)前主流場景生成方法,深度拆解技術(shù)演進(jìn)邏輯,并介紹康謀 aiSim 3DGS 方案如何實(shí)現(xiàn)場景生成的全流程閉環(huán),為自動(dòng)駕駛研發(fā)提供高效、高保真的解決方案。

一、自動(dòng)駕駛仿真場景生成的核心挑戰(zhàn)與技術(shù)演進(jìn)

(一)傳統(tǒng)場景生成方法的痛點(diǎn)

早期自動(dòng)駕駛仿真場景生成主要依賴兩種路徑:一是工程師手動(dòng)搭建虛擬場景,通過物理引擎配置道路、交通參與者與環(huán)境參數(shù);二是基于真實(shí)路測(cè)數(shù)據(jù)進(jìn)行簡單復(fù)刻,形成開環(huán)測(cè)試用例。這兩種方式均存在難以逾越的瓶頸:

  • 效率極低 :復(fù)雜場景手動(dòng)建模需數(shù)月時(shí)間,且無法快速適配不同測(cè)試需求;
  • 泛化能力弱 :真實(shí)路測(cè)數(shù)據(jù)受限于采集范圍,難以覆蓋暴雨、暴雪、極端視角等特殊工況;
  • 領(lǐng)域差距顯著 :即便采用光追渲染,虛擬場景與真實(shí)環(huán)境在視覺細(xì)節(jié)、物理特性上仍存在 "domain gap",導(dǎo)致測(cè)試結(jié)果可信度不足;
  • 可編輯性差 :修改傳感器配置、交通流密度等參數(shù)需重新建?;虿杉瘮?shù)據(jù),無法支持閉環(huán)迭代測(cè)試。

(二)技術(shù)演進(jìn):從物理建模到神經(jīng)重建的跨越

隨著人工智能計(jì)算機(jī)視覺技術(shù)的發(fā)展,場景生成方法逐步轉(zhuǎn)向數(shù)據(jù)驅(qū)動(dòng)的神經(jīng)重建模式,核心技術(shù)路徑經(jīng)歷了三個(gè)階段:

  1. 傳統(tǒng)物理渲染階段 :依賴 UE、Unity 等引擎構(gòu)建虛擬場景,優(yōu)勢(shì)是支持靈活編輯,但真實(shí)性依賴人工調(diào)校,難以還原真實(shí)道路的復(fù)雜細(xì)節(jié);
  2. NeRF 神經(jīng)輻射場階段 :通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)空間坐標(biāo)與圖像色彩、密度的映射關(guān)系,實(shí)現(xiàn)高保真場景重建,但計(jì)算成本極高,渲染速度慢且不支持實(shí)時(shí)編輯;
  3. 3DGS 高斯?jié)姙R階段 :將場景離散為攜帶位置、協(xié)方差矩陣、不透明度等信息的 3D 高斯點(diǎn),兼具 NeRF 的高保真特性與實(shí)時(shí)渲染能力,成為當(dāng)前最具工程價(jià)值的場景生成技術(shù)。

二、主流自動(dòng)駕駛仿真場景生成方法解析

(一)三類核心生成方法對(duì)比

當(dāng)前行業(yè)主流的場景生成方法可分為真實(shí)采集數(shù)據(jù)復(fù)刻、神經(jīng)重建生成、純仿真合成三類,其技術(shù)特性與適用場景各有側(cè)重:

其中,神經(jīng)重建生成方法憑借 "真實(shí)還原 + 靈活編輯" 的雙重優(yōu)勢(shì),成為平衡測(cè)試可信度與效率的最優(yōu)解,而 3DGS 技術(shù)因其更優(yōu)的實(shí)時(shí)性能與工程適配性,逐漸成為該路徑的主流選擇。

(二)3DGS 神經(jīng)重建:場景生成的最優(yōu)技術(shù)路徑

3DGS 場景生成的核心流程可分為四大環(huán)節(jié),實(shí)現(xiàn)從原始數(shù)據(jù)到可用仿真場景的全鏈路轉(zhuǎn)化:

  1. 多源數(shù)據(jù)標(biāo)準(zhǔn)化輸入 :采集相機(jī)圖像、激光雷達(dá)點(diǎn)云、自車運(yùn)動(dòng)數(shù)據(jù)等多模態(tài)信息,通過 aiData 等工具鏈完成格式統(tǒng)一、時(shí)間戳同步與坐標(biāo)系對(duì)齊,解決數(shù)據(jù)異構(gòu)問題;
  2. 場景預(yù)處理優(yōu)化 :包括 3D 自動(dòng)標(biāo)注(識(shí)別車輛、行人等目標(biāo)并生成 3D 邊界框)、2D 語義分割(優(yōu)化場景細(xì)節(jié))、相機(jī)位姿校準(zhǔn)(確??臻g坐標(biāo)準(zhǔn)確性),為重建提供 "干凈數(shù)據(jù)";
  3. 神經(jīng)重建模型訓(xùn)練 :融合 NeRF 的幾何泛化能力與 3DGS 的實(shí)時(shí)特性,通過 T-S 結(jié)構(gòu)將深度、法線等監(jiān)督信號(hào)遷移至高斯參數(shù)優(yōu)化,結(jié)合 LiDAR 深度約束提升建模精度;
  4. 場景驗(yàn)證與編輯 :通過 DEVIANT 算法(校驗(yàn)幾何精度)與 Mask2Former 算法(驗(yàn)證像素一致性)雙重驗(yàn)證,確保場景與真實(shí)環(huán)境一致;支持添加交通流、模擬極端天氣、配置傳感器等靈活編輯。

這一流程既保留了真實(shí)場景的高可信度,又具備純仿真合成的靈活擴(kuò)展性,完美解決了傳統(tǒng)方法的核心痛點(diǎn)。

三、康謀 aiSim 3DGS 方案:重新定義場景生成的工程標(biāo)準(zhǔn)

康謀神經(jīng)網(wǎng)絡(luò)渲染自動(dòng)駕駛仿真方案,將 3DGS 神經(jīng)重建技術(shù)從實(shí)驗(yàn)室推向工程落地,構(gòu)建起 "數(shù)據(jù)采集 - 場景重建 - 仿真測(cè)試" 的全流程閉環(huán)。

(一)核心技術(shù)突破:四大創(chuàng)新打造高保真場景生成能力

  1. 全棧自動(dòng)化工具鏈 :從數(shù)據(jù)采集到場景輸出實(shí)現(xiàn)端到端自動(dòng)化,僅需 1 天即可完成傳統(tǒng)方法 3-6 個(gè)月的數(shù)字孿生構(gòu)建工作,大幅降低時(shí)間成本;
  2. 混合式渲染引擎 :原生集成生產(chǎn)級(jí)仿真軟件 aiSim,融合神經(jīng)重建與物理渲染優(yōu)勢(shì),既還原真實(shí)場景細(xì)節(jié),又支持暴雨、暴風(fēng)雪、地面積水等多樣化環(huán)境模擬;
  3. 多模態(tài)傳感器兼容 :全面覆蓋攝像頭、激光雷達(dá)(LiDAR)、毫米波雷達(dá)等主流傳感器,支持自定義傳感器配置,滿足復(fù)雜感知系統(tǒng)測(cè)試需求;
  4. 極端視角泛化能力 :支持偏離原始采集軌跡最遠(yuǎn)達(dá) 3 米的新視角生成,通過 Difix 技術(shù)增強(qiáng)圖像質(zhì)量,解決極端工況下的場景覆蓋難題。

(二)場景生成的全流程閉環(huán)優(yōu)勢(shì)

康謀 aiSim 3DGS 方案通過五大環(huán)節(jié)實(shí)現(xiàn)場景生成與仿真測(cè)試的無縫銜接:

  1. 數(shù)據(jù)輸入兼容 :支持 Waymo 開源數(shù)據(jù)集、第三方采集數(shù)據(jù)等多種輸入形式,通過標(biāo)準(zhǔn)化工具鏈解決多源數(shù)據(jù)異構(gòu)問題;
  2. 高精度重建 :基于 3DGS 技術(shù)實(shí)現(xiàn)靜態(tài)場景的高保真重建,剔除動(dòng)態(tài)物體干擾,同時(shí)保留道路、建筑等細(xì)節(jié)的精準(zhǔn)還原;
  3. 動(dòng)態(tài)場景增強(qiáng) :內(nèi)置 2000+3D 資產(chǎn)庫,可靈活添加車輛、行人、交通信號(hào)燈等動(dòng)態(tài)元素,支持基于 OpenSCENARIO 1.2 構(gòu)建標(biāo)準(zhǔn)場景;
  4. 多維度驗(yàn)證 :通過 Waymo 數(shù)據(jù)集量化驗(yàn)證,在 3D 目標(biāo)檢測(cè)任務(wù)中 AP 3D 值表現(xiàn)優(yōu)異,像素分類一致性達(dá) 90% 以上,有效消除領(lǐng)域差距;
  5. 閉環(huán)仿真測(cè)試 :支持 SiL、HiL、DiL 等多種測(cè)試模式,即便在偏離原始軌跡的全新路徑上,仍能實(shí)現(xiàn)自動(dòng)駕駛系統(tǒng)的穩(wěn)定閉環(huán)測(cè)試。

(三)案例實(shí)證:從技術(shù)優(yōu)勢(shì)到業(yè)務(wù)成效

在實(shí)際應(yīng)用中,康謀 aiSim 3DGS 方案已為歐洲乘用車 OEM、日本 EV OEM 等客戶創(chuàng)造顯著價(jià)值:

  • 數(shù)字孿生構(gòu)建時(shí)間從 3-6 個(gè)月縮短至 1 天,研發(fā)效率提升 95% 以上;
  • 人工標(biāo)注成本降低至原預(yù)算的 5% 以下,大幅減少人力投入;
  • 支持傳感器配置快速迭代,無需重復(fù)采集數(shù)據(jù),測(cè)試成本降低 40%;
  • 覆蓋泊車、高速公路、城市道路、越野等多種 ODDs 場景,滿足全場景測(cè)試需求。

四、結(jié)語

自動(dòng)駕駛仿真測(cè)試場景的生成質(zhì)量,直接決定了自動(dòng)駕駛系統(tǒng)的研發(fā)效率與安全水平。從傳統(tǒng)手動(dòng)建模到 3DGS 神經(jīng)重建,場景生成技術(shù)的演進(jìn)本質(zhì)上是 "真實(shí)性" 與 "靈活性" 的平衡過程??抵\ aiSim 3DGS 方案通過技術(shù)創(chuàng)新實(shí)現(xiàn)了這一平衡,既保留了真實(shí)場景的高可信度,又具備靈活編輯與極端工況覆蓋能力,為自動(dòng)駕駛研發(fā)提供了高效、可靠的仿真測(cè)試基礎(chǔ)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    3014

    瀏覽量

    115277
  • 仿真測(cè)試
    +關(guān)注

    關(guān)注

    0

    文章

    115

    瀏覽量

    11798
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14918

    瀏覽量

    180388
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    半導(dǎo)體嵌入式單元測(cè)試的核心技術(shù)、工具選型與落地流程

    。winAMS通過內(nèi)存鏡像映射技術(shù)實(shí)時(shí)同步目標(biāo)機(jī)的內(nèi)存與寄存器狀態(tài),能夠精確模擬硬件的行為。同時(shí),它還可以通過硬件行為捕獲功能自動(dòng)記錄外設(shè)交互信號(hào),并生成可復(fù)用的測(cè)試場景。例如,在
    發(fā)表于 03-06 14:55

    Sim?Pro 實(shí)現(xiàn)仿真測(cè)試場景量構(gòu)成

    ? ? ? ? 2026年1月28日,國家標(biāo)準(zhǔn)GB/T?47025-2026《智能網(wǎng)聯(lián)汽車 自動(dòng)駕駛功能仿真試驗(yàn)方法及要求》(以下簡稱“仿真國標(biāo)”)正式發(fā)布。作為
    的頭像 發(fā)表于 02-12 17:21 ?7815次閱讀
    Sim?Pro 實(shí)現(xiàn)<b class='flag-5'>仿真</b><b class='flag-5'>測(cè)試場景</b><b class='flag-5'>全</b>量構(gòu)成

    自動(dòng)駕駛場景生成方法及優(yōu)選方案:康謀aiSim 3DGS方案重塑行業(yè)標(biāo)準(zhǔn)

    自動(dòng)駕駛技術(shù)飛速發(fā)展的當(dāng)下,仿真測(cè)試的重要性愈發(fā)凸顯,而 自動(dòng)駕駛場景
    的頭像 發(fā)表于 02-02 17:39 ?393次閱讀

    如何選擇適合的智駕仿真工具進(jìn)行場景生成測(cè)試?

    自動(dòng)駕駛技術(shù)日益發(fā)展的背景下,選擇合適的智駕仿真工具進(jìn)行場景生成測(cè)試顯得尤為重要。該工具不僅
    的頭像 發(fā)表于 11-25 10:32 ?408次閱讀
    如何選擇適合的智駕<b class='flag-5'>仿真</b>工具進(jìn)行<b class='flag-5'>場景</b><b class='flag-5'>生成</b>和<b class='flag-5'>測(cè)試</b>?

    高保真自動(dòng)駕駛仿真軟件對(duì)比:全球首款A(yù)SIL-D認(rèn)證平臺(tái)aiSim的技術(shù)突破

    ) 康謀科技推出的 aiSim端仿真平臺(tái) ,通過"虛擬場景無限生成+虛實(shí)閉環(huán)融合"方案,將極端場景覆蓋率提升至95%,為
    的頭像 發(fā)表于 11-18 17:59 ?595次閱讀

    講講如何閉環(huán)自動(dòng)駕駛仿真場景,從重建可用?

    靜態(tài)3D場景無法滿足仿真測(cè)試?缺乏動(dòng)態(tài)交通流、難以模擬極端天氣、傳感器模型不逼真!本文帶您看aiSim場景編輯與GGSR渲染器如何破局!自由配置暴雨黑夜與虛擬車流,使用通用高斯?jié)姙R實(shí)現(xiàn)
    的頭像 發(fā)表于 10-27 11:10 ?7316次閱讀
    講講如何閉環(huán)<b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>仿真</b><b class='flag-5'>場景</b>,從重建<b class='flag-5'>到</b>可用?

    生成式 AI 重塑自動(dòng)駕駛仿真:4D 場景生成技術(shù)突破與實(shí)踐

    生成式AI驅(qū)動(dòng)的4D場景技術(shù)正解決傳統(tǒng)方法效率低、覆蓋不足等痛點(diǎn),如何通過NeRF、3D高斯?jié)姙R等技術(shù)實(shí)現(xiàn)高保真動(dòng)態(tài)建模?高效
    的頭像 發(fā)表于 08-06 11:20 ?5229次閱讀
    <b class='flag-5'>生成</b>式 AI 重塑<b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>仿真</b>:4D <b class='flag-5'>場景</b><b class='flag-5'>生成</b><b class='flag-5'>技術(shù)</b>的<b class='flag-5'>突破</b>與實(shí)踐

    康謀分享 | 基于多傳感器數(shù)據(jù)的自動(dòng)駕駛仿真確定性驗(yàn)證

    自動(dòng)駕駛仿真測(cè)試中,游戲引擎的底層架構(gòu)可能會(huì)帶來非確定性的問題,侵蝕測(cè)試可信度。如何通過專業(yè)仿真平臺(tái),在多傳感器配置與極端天氣
    的頭像 發(fā)表于 07-02 13:17 ?4290次閱讀
    康謀分享 | 基于多傳感器數(shù)據(jù)的<b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>仿真</b>確定性驗(yàn)證

    自動(dòng)駕駛技術(shù)測(cè)試有哪些?

    [首發(fā)于智駕最前沿微信公眾號(hào)]之前和大家安全性、可靠性、用戶體驗(yàn)以及商業(yè)利益保護(hù)等多個(gè)角度聊了為什么自動(dòng)駕駛技術(shù)落地前一定要進(jìn)行測(cè)試,今
    的頭像 發(fā)表于 06-10 09:00 ?1060次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>技術(shù)</b><b class='flag-5'>測(cè)試</b>有哪些?

    自動(dòng)駕駛技術(shù)落地前為什么要先測(cè)試

    大量的傳感器、復(fù)雜的算法和強(qiáng)大的計(jì)算平臺(tái)來取代人類駕駛員的感知、判斷和操作。在技術(shù)落地之前,“測(cè)試”便成了自動(dòng)駕駛從實(shí)驗(yàn)室走向真實(shí)道路的“安
    的頭像 發(fā)表于 06-09 09:42 ?778次閱讀

    搭建完整的ADAS測(cè)試鏈路,推動(dòng)自動(dòng)駕駛技術(shù)的安全發(fā)展

    隨著全球L3級(jí)自動(dòng)駕駛法規(guī)落地,產(chǎn)業(yè)進(jìn)入規(guī)?;l(fā)展階段。針對(duì)高階自動(dòng)駕駛系統(tǒng)復(fù)雜度與測(cè)試效率的挑戰(zhàn),北匯信息構(gòu)建覆蓋MIL、SIL、HIL、VIL及實(shí)車的
    的頭像 發(fā)表于 05-30 11:59 ?2125次閱讀
    搭建完整的ADAS<b class='flag-5'>測(cè)試</b>鏈路,推動(dòng)<b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>技術(shù)</b>的安全發(fā)展

    新能源車軟件單元測(cè)試深度解析自動(dòng)駕駛系統(tǒng)視角

    、道路塌陷)的測(cè)試用例庫,通過虛擬仿真和真實(shí)路測(cè)數(shù)據(jù)回灌驗(yàn)證算法的魯棒性。 ?第二部分:自動(dòng)駕駛軟件單元測(cè)試技術(shù)體系****? ?
    發(fā)表于 05-12 15:59

    技術(shù)分享 |多模態(tài)自動(dòng)駕駛混合渲染HRMAD:將NeRF和3DGS進(jìn)行感知驗(yàn)證和端端AD測(cè)試

    多模態(tài)自動(dòng)駕駛混合渲染HRMAD,融合NeRF與3DGS技術(shù),實(shí)現(xiàn)超10萬㎡場景重建,多傳感器實(shí)時(shí)輸出,仿真更接近真實(shí)數(shù)據(jù)!然而,如何用高保真仿真
    的頭像 發(fā)表于 03-26 16:05 ?4271次閱讀
    <b class='flag-5'>技術(shù)</b>分享 |多模態(tài)<b class='flag-5'>自動(dòng)駕駛</b>混合渲染HRMAD:將NeRF和3DGS進(jìn)行感知驗(yàn)證和端<b class='flag-5'>到</b>端AD<b class='flag-5'>測(cè)試</b>

    一種多模態(tài)駕駛場景生成框架UMGen介紹

    自動(dòng)駕駛技術(shù)的快速發(fā)展對(duì)閉環(huán)仿真器提出了迫切需求,而生成式模型為其提供了一種有效的技術(shù)架構(gòu)
    的頭像 發(fā)表于 03-24 15:57 ?1732次閱讀
    一種多模態(tài)<b class='flag-5'>駕駛</b><b class='flag-5'>場景</b><b class='flag-5'>生成</b>框架UMGen介紹