chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛場景生成方法及優(yōu)選方案:康謀aiSim 3DGS方案重塑行業(yè)標準

陳玉容 ? 來源:jf_61242192 ? 作者:jf_61242192 ? 2026-02-02 17:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自動駕駛技術(shù)飛速發(fā)展的當(dāng)下,仿真測試的重要性愈發(fā)凸顯,而自動駕駛場景生成作為仿真測試的核心環(huán)節(jié),其技術(shù)水平直接決定了測試的效率與可靠性。面對傳統(tǒng)場景生成方式的諸多痛點,基于生成式AI的4D場景生成技術(shù)應(yīng)運而生,其中康謀aiSim 3DGS方案憑借技術(shù)突破與工程化落地能力,成為自動駕駛場景生成領(lǐng)域的優(yōu)選方案。

一、自動駕駛場景生成是什么?核心需求與傳統(tǒng)痛點

(一)自動駕駛場景生成的定義

自動駕駛場景生成,是指構(gòu)建包含道路、建筑、交通參與者、天氣、光照等多要素,且兼具空間與時間動態(tài)特性的虛擬交通環(huán)境,用于自動駕駛系統(tǒng)的感知、決策、控制等功能測試。完整的自動駕駛場景需實現(xiàn) 空間建模 (道路、設(shè)施等靜態(tài)環(huán)境)與 時間演進 (車輛、行人等動態(tài)行為軌跡)的結(jié)合,也就是行業(yè)內(nèi)關(guān)注的 4D場景生成 ,其核心是滿足自動駕駛仿真測試對真實性、復(fù)雜性、多樣性的需求。

(二)傳統(tǒng)場景生成方法的局限性

長期以來,自動駕駛場景生成依賴真實數(shù)據(jù)采集手工建模兩種方式,但在技術(shù)迭代中暴露出明顯短板:

  1. 采集成本高 :需投入實車、多模態(tài)傳感器、專業(yè)采集團隊,周期長達數(shù)月,且數(shù)據(jù)覆蓋范圍有限;
  2. 稀有場景不足 :事故、極端天氣等長尾場景在真實環(huán)境中出現(xiàn)概率極低,難以有效復(fù)現(xiàn);
  3. 組合覆蓋難 :天氣、時間、交通密度等參數(shù)組合呈指數(shù)級增長,人工無法實現(xiàn)全維度覆蓋;
  4. 效率與可控性低 :手工建模耗時費力,且缺乏靈活的語義調(diào)控接口,難以精準匹配測試需求。

二、自動駕駛場景生成方法有哪些?技術(shù)路徑與核心方案

當(dāng)前主流的自動駕駛場景生成方法可分為兩大類,分別對應(yīng)不同的技術(shù)邏輯與應(yīng)用場景:

(一)傳統(tǒng)方法:數(shù)據(jù)采集與手工建模

  1. 實車數(shù)據(jù)采集法 :通過在測試車輛搭載攝像頭、激光雷達、IMU、GNSS等設(shè)備,采集真實道路的環(huán)境與行為數(shù)據(jù),經(jīng)處理后轉(zhuǎn)化為仿真場景。該方法優(yōu)勢是場景真實度高,但存在成本高、周期長、稀有場景缺失等問題。
  2. 手工建模法工程師基于仿真軟件(如CARLA、Unreal)手動搭建道路、建筑等靜態(tài)環(huán)境,編輯車輛、行人的行為軌跡。此方法可控性較強,但效率極低,難以滿足大規(guī)模測試需求。

(二)AI驅(qū)動的4D場景生成法:技術(shù)突破與高效方案

生成式AI技術(shù)的引入,推動場景生成從“手工定義”轉(zhuǎn)向“自動生成”,核心是通過學(xué)習(xí)數(shù)據(jù)的潛在分布,構(gòu)建空間+時間聯(lián)合建模的4D場景,主流技術(shù)包括:

  1. 神經(jīng)渲染技術(shù) :以NeRF(神經(jīng)輻射場)和3DGS(3D高斯濺射)為代表。NeRF擅長高精度三維重建,對遮擋、反射等復(fù)雜視覺效果建模能力強,但訓(xùn)練與渲染速度慢,適合小規(guī)模高精場景;3DGS技術(shù)則實現(xiàn)了效率與質(zhì)量的平衡,通過高斯分布建模點云,渲染速度比NeRF快數(shù)百倍,支持實時場景生成,是當(dāng)前工程化落地的優(yōu)選技術(shù)。
  2. 數(shù)據(jù)工具鏈轉(zhuǎn)化法 :以log2world工具鏈為代表,可將自動駕駛原始數(shù)據(jù)(ROS bag、CAN log、傳感器幀)自動轉(zhuǎn)化為可交互的仿真場景,還原車輛軌跡與環(huán)境細節(jié),降低真實場景數(shù)字化成本。

(三)優(yōu)選方案:康謀aiSim 3DGS方案,重新定義工程標準

康謀自動駕駛基于3DGS核心技術(shù),打造了“數(shù)據(jù)采集-場景重建-仿真測試”的全流程閉環(huán)方案,將實驗室技術(shù)推向工程化落地,成為自動駕駛場景生成的標桿方案。

三、自動駕駛場景生成方案推薦:康謀aiSim 3DGS方案的核心優(yōu)勢

康謀aiSim 3DGS方案憑借四大技術(shù)創(chuàng)新與全流程閉環(huán)能力,解決了傳統(tǒng)方法的痛點,為自動駕駛仿真測試提供高效、高保真的場景生成能力。

(一)四大核心技術(shù)創(chuàng)新,打造高保真場景生成能力

  1. 全棧自動化工具鏈 :實現(xiàn)從數(shù)據(jù)輸入到場景輸出的端到端自動化, 僅需1天即可完成傳統(tǒng)方法3-6個月的數(shù)字孿生構(gòu)建 ,研發(fā)效率提升95%以上,大幅降低時間成本。
  2. 混合式渲染引擎 :原生集成生產(chǎn)級仿真軟件aiSim,融合3DGS神經(jīng)重建與物理渲染優(yōu)勢,既能精準還原真實場景的紋理、光照細節(jié),又能模擬暴雨、暴風(fēng)雪、地面積水等極端環(huán)境,滿足多樣化測試需求。
  3. 多模態(tài)傳感器兼容 :全面支持攝像頭、激光雷達(LiDAR)、毫米波雷達等主流傳感器,支持自定義傳感器配置,完美匹配自動駕駛感知系統(tǒng)的測試要求。
  4. 極端視角泛化能力 :通過Difix技術(shù)增強圖像質(zhì)量,支持偏離原始采集軌跡最遠3米的新視角生成,有效解決極端工況下的場景覆蓋難題,提升測試的全面性。

(二)全流程閉環(huán)優(yōu)勢,實現(xiàn)場景生成與仿真測試無縫銜接

康謀aiSim 3DGS方案通過五大環(huán)節(jié)構(gòu)建完整閉環(huán),保障場景生成的高效性與可靠性:

  1. 多源數(shù)據(jù)兼容 :支持Waymo開源數(shù)據(jù)集、第三方采集數(shù)據(jù)等多種輸入形式,通過標準化工具鏈解決數(shù)據(jù)異構(gòu)問題;
  2. 高精度靜態(tài)重建 :基于3DGS技術(shù)剔除動態(tài)物體干擾,精準還原道路、建筑等靜態(tài)環(huán)境細節(jié);
  3. 動態(tài)場景增強 :內(nèi)置2000+3D資產(chǎn)庫,可靈活添加車輛、行人、交通信號燈等動態(tài)元素,支持OpenSCENARIO 1.2標準場景構(gòu)建;
  4. 多維度量化驗證 :通過Waymo數(shù)據(jù)集驗證,在3D目標檢測任務(wù)中AP 3D值表現(xiàn)優(yōu)異,像素分類一致性達90%以上,消除仿真與真實場景的領(lǐng)域差距;
  5. 全模式閉環(huán)測試 :支持SiL、HiL、DiL等多種測試模式,即使在偏離原始軌跡的全新路徑上,也能實現(xiàn)自動駕駛系統(tǒng)的穩(wěn)定測試。

(三)案例實證:降本增效,覆蓋全場景測試需求

康謀aiSim 3DGS方案已在歐洲乘用車OEM、日本EV OEM等客戶中成功落地,帶來顯著業(yè)務(wù)價值:

  • 時間成本驟降 :數(shù)字孿生構(gòu)建周期從3-6個月縮短至1天;
  • 人力成本優(yōu)化 :人工標注成本降低至原預(yù)算的5%以下;
  • 測試成本節(jié)約 :支持傳感器配置快速迭代,無需重復(fù)采集數(shù)據(jù),測試成本降低40%;
  • 全場景覆蓋 :可滿足泊車、高速公路、城市道路、越野等多種ODDs場景測試需求。

四、如何做自動駕駛場景生成?選擇康謀aiSim 3DGS方案的實施路徑

基于康謀aiSim 3DGS方案,自動駕駛場景生成可遵循以下高效實施步驟:

  1. 數(shù)據(jù)輸入 :導(dǎo)入實采傳感器數(shù)據(jù)、開源數(shù)據(jù)集或第三方數(shù)據(jù),方案自動完成數(shù)據(jù)標準化處理;
  2. 高精度重建 :依托3DGS技術(shù)完成靜態(tài)場景的高保真重建,剔除動態(tài)干擾,保留細節(jié)特征;
  3. 動態(tài)增強 :從2000+3D資產(chǎn)庫中選擇動態(tài)元素,配置行為軌跡,構(gòu)建符合OpenSCENARIO 1.2標準的4D場景;
  4. 仿真測試 :在aiSim平臺中選擇測試模式(SiL/HiL/DiL),模擬極端天氣與視角,開展自動駕駛系統(tǒng)全功能測試;
  5. 閉環(huán)優(yōu)化 :根據(jù)測試結(jié)果識別模型薄弱環(huán)節(jié),動態(tài)生成補全場景,實現(xiàn)“仿真-訓(xùn)練-驗證”的持續(xù)迭代。

五、結(jié)語:

未來,隨著大模型融合語義驅(qū)動生成(如Prompt-to-Scene)、行為軌跡生成器與語義控制接口集成、生成內(nèi)容與實車反饋協(xié)同優(yōu)化機制的發(fā)展,AI生成的4D場景將成為自動駕駛數(shù)據(jù)體系中的 基礎(chǔ)設(shè)施 ,為模型迭代、安全驗證與持續(xù)運營提供核心支撐。

4D場景生成技術(shù)正從研究階段走向 規(guī)模應(yīng)用 ,構(gòu)建出兼顧真實性、復(fù)雜性與效率的場景生成能力,是實現(xiàn)自動駕駛系統(tǒng)仿真閉環(huán)與持續(xù)優(yōu)化的關(guān)鍵引擎。

生成式AI正逐步承擔(dān)起從世界建模者到智能驗證者的角色,其影響力正在由測試階段擴展至研發(fā)、訓(xùn)練、部署等完整流程??梢灶A(yù)見,未來的自動駕駛系統(tǒng)開發(fā),將越來越依賴于這一類“生成驅(qū)動的智能仿真基礎(chǔ)設(shè)施”。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 仿真
    +關(guān)注

    關(guān)注

    54

    文章

    4462

    瀏覽量

    137974
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39359

    瀏覽量

    300261
  • 自動駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14830

    瀏覽量

    178767
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    2026年,3DGS和世界模型,在自動駕駛仿真中的組合應(yīng)用

    寫在前面:作為自動駕駛仿真的核心支撐,3DGS與世界模型的技術(shù)落地一直備受關(guān)注。我們看到了車路漫漫的一篇文章,探討了3DGS與世界模型的路線差異,并開箱了aiSim軟件的
    的頭像 發(fā)表于 02-03 17:32 ?441次閱讀
    2026年,<b class='flag-5'>3DGS</b>和世界模型,在<b class='flag-5'>自動駕駛</b>仿真中的組合應(yīng)用

    自動駕駛仿真測試場景生成方法:從技術(shù)突破到工程落地的全維度解析

    建模與有限真實數(shù)據(jù)采集,不僅耗時耗力,更難以覆蓋極端工況與長尾場景。隨著 3D 高斯?jié)姙R(3DGS)、神經(jīng)輻射場(NeRF)等技術(shù)的崛起,自動駕駛仿真
    的頭像 發(fā)表于 02-02 17:52 ?254次閱讀
    <b class='flag-5'>自動駕駛</b>仿真測試<b class='flag-5'>場景</b><b class='flag-5'>生成方法</b>:從技術(shù)突破到工程落地的全維度解析

    自動駕駛仿真軟件推薦:aiSim——ISO 26262 ASIL-D 認證的高保真選擇

    、性價比高且符合自身研發(fā)需求的平臺,成為眾多企業(yè)和研究機構(gòu)關(guān)注的重點。 本文基于權(quán)威行業(yè)信息,對主流自動駕駛仿真軟件進行梳理,簡單羅列國內(nèi)外仿真平臺有哪些,并重點解析
    的頭像 發(fā)表于 01-22 16:49 ?292次閱讀

    深度解析:雙模態(tài)仿真測試解決方案!

    隨著端到端自動駕駛架構(gòu)的興起,傳統(tǒng)基于規(guī)則的仿真測試正面臨“真實感不足”與“場景泛化難”的雙重挑戰(zhàn)。本文深入解析推出的雙模態(tài)仿真測試解決方案
    的頭像 發(fā)表于 11-21 17:32 ?8822次閱讀
    深度解析:<b class='flag-5'>康</b><b class='flag-5'>謀</b>雙模態(tài)仿真測試解決<b class='flag-5'>方案</b>!

    自動駕駛數(shù)據(jù)采集時間同步指南:方法、挑戰(zhàn)、場景解決方案

    自動駕駛數(shù)據(jù)采集面臨多傳感器協(xié)同與多總線協(xié)議割裂的挑戰(zhàn),時間同步精度直接影響系統(tǒng)安全與研發(fā)效率。科技推出"全以太網(wǎng)+gPTP"方案,通過硬件級時間戳、多協(xié)議轉(zhuǎn)以太網(wǎng)聚合等技術(shù)
    的頭像 發(fā)表于 11-21 16:48 ?2005次閱讀

    新聞 | 實力認證!aiSim榮獲ASAM“自動駕駛仿真技術(shù)獎”

    、零部件供應(yīng)商、科技公司及行業(yè)專家,共探先進數(shù)據(jù)與仿真技術(shù)融合、ASAM國際標準應(yīng)用等核心熱點。受邀參會并深度參與交流,憑借技術(shù)硬實力斬獲“自動
    的頭像 發(fā)表于 11-11 17:33 ?2144次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>新聞 | 實力認證!<b class='flag-5'>康</b><b class='flag-5'>謀</b><b class='flag-5'>aiSim</b>榮獲ASAM“<b class='flag-5'>自動駕駛</b>仿真技術(shù)獎”

    從“重建”到“可用”:aiSim3DGS方案如何閉環(huán)自動駕駛仿真場景?

    3DGaussianSplatting(3DGS)憑借高效渲染與逼真場景還原能力,逐漸成為三維重建與仿真領(lǐng)域的焦點。然而,實際應(yīng)用中,如何將多源異構(gòu)數(shù)據(jù)高效轉(zhuǎn)化為可用的3DGS
    的頭像 發(fā)表于 10-24 17:33 ?28次閱讀
    從“重建”到“可用”:<b class='flag-5'>aiSim3DGS</b><b class='flag-5'>方案</b>如何閉環(huán)<b class='flag-5'>自動駕駛</b>仿真<b class='flag-5'>場景</b>?

    直播邀約 | 10月21日15點,從三維重構(gòu)到仿真革新:3DGS技術(shù)解析與實踐應(yīng)用!

    概述在智能駕駛仿真追求高精度與高效落地的關(guān)鍵階段,3DGaussianSplatting(3DGS)技術(shù)憑借其獨特的三維重構(gòu)優(yōu)勢,已成為突破行業(yè)技術(shù)瓶頸、推動仿真革新的核心力量!你是否
    的頭像 發(fā)表于 10-14 17:32 ?877次閱讀
    直播邀約 | 10月21日15點,從三維重構(gòu)到仿真革新:<b class='flag-5'>3DGS</b>技術(shù)解析與實踐應(yīng)用!

    新聞 | 加入ASAM組織,全球首個ASIL-D認證自動駕駛仿真平臺aiSim引領(lǐng)安全新標桿

    !ASAM作為國際汽車行業(yè)標準化領(lǐng)域的權(quán)威機構(gòu),致力于推動仿真、測試及數(shù)據(jù)交互的標準化進程。此次加入,標志著自動駕駛仿真技術(shù)領(lǐng)域的創(chuàng)新
    的頭像 發(fā)表于 08-29 16:57 ?1032次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>新聞 | <b class='flag-5'>康</b><b class='flag-5'>謀</b>加入ASAM組織,全球首個ASIL-D認證<b class='flag-5'>自動駕駛</b>仿真平臺<b class='flag-5'>aiSim</b>引領(lǐng)安全新標桿

    生成式 AI 重塑自動駕駛仿真:4D 場景生成技術(shù)的突破與實踐

    生成式AI驅(qū)動的4D場景技術(shù)正解決傳統(tǒng)方法效率低、覆蓋不足等痛點,如何通過NeRF、3D高斯?jié)姙R等技術(shù)實現(xiàn)高保真動態(tài)建模?高效生成極端天氣等
    的頭像 發(fā)表于 08-06 11:20 ?5083次閱讀
    <b class='flag-5'>生成</b>式 AI <b class='flag-5'>重塑</b><b class='flag-5'>自動駕駛</b>仿真:4D <b class='flag-5'>場景</b><b class='flag-5'>生成</b>技術(shù)的突破與實踐

    方案 | 高精LiDAR+神經(jīng)渲染3DGS的完美融合實踐

    自動駕駛仿真測試剛需下,數(shù)字孿生成提升保真度關(guān)鍵。本文介紹傳統(tǒng)與前沿結(jié)合的構(gòu)建流程,先通過數(shù)據(jù)采集、點云聚合等完成高精地圖重建,再以NeRF+3DGS實現(xiàn)神經(jīng)網(wǎng)絡(luò)重建,降本增效,為仿真注入真實感,
    的頭像 發(fā)表于 06-11 13:51 ?1700次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b><b class='flag-5'>方案</b> | 高精LiDAR+神經(jīng)渲染<b class='flag-5'>3DGS</b>的完美融合實踐

    分享 | 自動駕駛仿真進入“標準時代”:aiSim全面對接ASAM OpenX

    自動駕駛領(lǐng)域,仿真與標準接口至關(guān)重要。aiSim集成ASAM OpenX系列標準,通過Ope
    的頭像 發(fā)表于 05-14 10:38 ?3497次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | <b class='flag-5'>自動駕駛</b>仿真進入“<b class='flag-5'>標準</b>時代”:<b class='flag-5'>aiSim</b>全面對接ASAM OpenX

    技術(shù)分享 |多模態(tài)自動駕駛混合渲染HRMAD:將NeRF和3DGS進行感知驗證和端到端AD測試

    多模態(tài)自動駕駛混合渲染HRMAD,融合NeRF與3DGS技術(shù),實現(xiàn)超10萬㎡場景重建,多傳感器實時輸出,仿真更接近真實數(shù)據(jù)!然而,如何用高保真仿真場景快速驗證
    的頭像 發(fā)表于 03-26 16:05 ?4133次閱讀
    技術(shù)分享 |多模態(tài)<b class='flag-5'>自動駕駛</b>混合渲染HRMAD:將NeRF和<b class='flag-5'>3DGS</b>進行感知驗證和端到端AD測試

    分享 | 3DGS:革新自動駕駛仿真場景重建的關(guān)鍵技術(shù)

    3DGS技術(shù)為自動駕駛仿真場景重建帶來突破,通過3D高斯點精確表達復(fù)雜場景的幾何和光照特性,顯著提升渲染速度與圖像質(zhì)量。
    的頭像 發(fā)表于 03-05 09:45 ?5407次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | <b class='flag-5'>3DGS</b>:革新<b class='flag-5'>自動駕駛</b>仿真<b class='flag-5'>場景</b>重建的關(guān)鍵技術(shù)

    方案 | 基于AI自適應(yīng)迭代的邊緣場景探索方案

    測試 ADAS/AD 系統(tǒng)時,傳統(tǒng) DoE 方法難以覆蓋駕駛邊緣場景,影響自動駕駛性能提升。
    的頭像 發(fā)表于 02-26 09:45 ?3391次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b><b class='flag-5'>方案</b> | 基于AI自適應(yīng)迭代的邊緣<b class='flag-5'>場景</b>探索<b class='flag-5'>方案</b>