chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛端到端大模型為什么會有不確定性?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2025-09-28 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]談到自動駕駛,大家的第一反應(yīng)就是自動駕駛系統(tǒng)“能不能把車開穩(wěn)”,看似非常簡單的一個目標(biāo),其背后其實是對系統(tǒng)能否在各種現(xiàn)實場景下作出正確、可預(yù)期決策的一項嚴(yán)格要求。為了能讓自動駕駛汽車做出正確、安全且符合邏輯的行駛動作,端到端大模型被提了出來。

端到端大模型把從傳感器輸入到控制輸出的任務(wù)盡可能用一個大網(wǎng)絡(luò)來完成,其優(yōu)點是能夠直接學(xué)習(xí)復(fù)雜映射,省去繁瑣的中間模塊,但代價是系統(tǒng)的行為變得更難以完全預(yù)測和驗證,也就是出現(xiàn)了“不確定性”。所謂“不確定性”,就是指在面對同一輸入或相似場景時,模型可能給出模糊、搖擺、或錯誤的輸出,并且我們對這種錯誤的發(fā)生概率或根源難以給出量化的解釋。自動駕駛端到端大模型為什么會有不確定性?

wKgZO2jYjUeAZVtbAAAQo00DEvw775.jpg

端到端大模型的不確定性到底是什么

“不確定性”這個詞聽起來抽象,但拆開來其實很好理解。對于端到端大模型來說,其一部分不確定性來自數(shù)據(jù)本身,有些場景天生難以判定,下大雨時遠(yuǎn)處的物體輪廓模糊,夜間強逆光會把行人和背景融成一片,這類情況即便人也會猶豫,這類不可避免的噪聲叫做統(tǒng)計噪聲或“不可約的噪聲”。還有一類不確定性來自模型知識的不足,比如訓(xùn)練數(shù)據(jù)沒覆蓋到的某些極端或罕見場景,模型在這些“從未見過”的輸入上往往會表現(xiàn)得自信卻錯得離譜,這就是模型的“認(rèn)知盲區(qū)”。在技術(shù)角度中常把這兩類分別稱為“aleatoric uncertainty”(數(shù)據(jù)本身的隨機性)和“epistemic uncertainty”(模型知識有限導(dǎo)致的不確定性)。端到端大模型的“不確定性”同時包含這兩部分,而且還會被模型架構(gòu)、大樣本偏差、訓(xùn)練目標(biāo)、優(yōu)化不穩(wěn)定性等因素放大。

端到端模型的輸出往往不是“一個明確的動作”那么簡單,而是一個概率分布或直接映射到控制量的連續(xù)值。如果模型的概率估計本身不靠譜(即所謂“誤校準(zhǔn)”),系統(tǒng)可能對低置信度但實際危險的決策表現(xiàn)出過度自信。還有一個關(guān)鍵點是時序閉環(huán),自動駕駛不是靜態(tài)把一幀圖像做分類然后結(jié)束,而是連續(xù)決策、車輛動作反饋到環(huán)境再生成新的輸入,錯誤會累積放大,導(dǎo)致原本小概率的偏差演變?yōu)閲?yán)重后果。因此,端到端模型的不確定性不是單幀問題,而是閉環(huán)系統(tǒng)級的風(fēng)險來源。

wKgZPGjYjUeAPxrZAAAR42n7O-I699.jpg

為什么端到端架構(gòu)更容易暴露或放大不確定性

把感知、預(yù)測、規(guī)劃、控制都壓在一個大網(wǎng)絡(luò)上看似能讓效率得到提升,但會帶來諸多挑戰(zhàn),從而放大不確定性。第一個是可解釋性差。在模塊化系統(tǒng)里,當(dāng)車偏離軌跡,你可以追查是感知漏檢、軌跡預(yù)測偏移,還是控制執(zhí)行延遲;而端到端模型的內(nèi)部表示是高維且難以直觀解釋的,當(dāng)出問題時工程師難以定位故障根源,進而難以有針對性地修復(fù)。第二個是驗證難度增加。傳統(tǒng)模塊各自有明確定義和指標(biāo)(比如檢測的召回率、預(yù)測的軌跡誤差),可以逐項驗證;端到端模型的整體性能好壞更多依賴“端到端場景覆蓋”,單靠統(tǒng)計指標(biāo)很難證明在所有長尾場景下安全。第三個是數(shù)據(jù)需求極大且對分布依賴強。端到端模型需要海量、覆蓋面廣的樣本來學(xué)習(xí)“從像素到操作”的映射,訓(xùn)練集與實際運行環(huán)境一旦發(fā)生偏差(分布漂移),模型表現(xiàn)可能驟降。第四個是過度自信的風(fēng)險,深度模型在沒有適當(dāng)不確定性估計時,往往會對錯誤的輸出給出高置信度,這在安全關(guān)鍵系統(tǒng)中非常危險。

端到端模型往往優(yōu)化的是一個經(jīng)驗風(fēng)險(例如平均損失),這會導(dǎo)致端到端大模型在常見場景上表現(xiàn)極好,而那些一旦出錯后果嚴(yán)重但出現(xiàn)概率低的場景表現(xiàn)就會足部。自動駕駛的風(fēng)險不是均勻分布在所有場景上,長尾場景(復(fù)雜路口、極端天氣、異常道路設(shè)施等)雖少見卻更危險,因此單純優(yōu)化平均指標(biāo)會低估真實安全風(fēng)險。

wKgZPGjYjUiAH40kAAASG3BOmsQ825.jpg

不確定性會給自動駕駛帶來哪些具體影響

端到端大模型的不確定性會在多個層面影響自動駕駛系統(tǒng)的安全性、用戶體驗和部署成本。端到端模型在未見或模糊場景中可能做出錯誤轉(zhuǎn)向或加速決策,而如果系統(tǒng)沒有可靠的置信度估計和安全接管策略,這類錯誤可能直接導(dǎo)致碰撞或事故。

行為的不可預(yù)測性也會降低公眾與監(jiān)管機構(gòu)的信任。即便平均事故率低,若偶發(fā)事件難以解釋,監(jiān)管方、車主乃至公眾都會對系統(tǒng)安全性提出質(zhì)疑,從而影響上路許可和商業(yè)化推進。還有就是運營和維護成本增加。不確定性意味著需要大量的實地數(shù)據(jù)采集、回放分析、補數(shù)據(jù)標(biāo)注,以及更頻繁的軟件更新和回歸測試,這些都會顯著增加長期投入。

對于用戶體驗來說,不確定性通常表現(xiàn)為車輛行為不夠連貫或者過分保守。為了避免事故,系統(tǒng)可能在不確定時傾向剎車或降速,這會讓乘客感覺自動駕駛汽車開起來“優(yōu)柔寡斷”、影響舒適性和通行效率?;蛘咴诹硪恍┎淮_定情況下系統(tǒng)又過于自信、不做必要的減速或避讓,這種“自信卻錯誤”的行為反而更危險。對商業(yè)化產(chǎn)品來說,既不能太保守以至影響使用體驗,也不能魯莽,這中間的平衡需要對不確定性有精細(xì)的量化和工程控制。

wKgZO2jYjUmALLwsAAASAJELks8275.jpg

有哪些方法可以測量和估計不確定性?

既然端到端大模型的不確定性一定會存在,那是否有量化和監(jiān)測不確定性的方法?其實有多個方法可以測量。其一是基于模型的概率輸出做校準(zhǔn)檢測,例如通過期望校準(zhǔn)誤差(ECE)來判斷模型給出的置信度與實際正確率是否匹配。如果不匹配,就說明輸出概率不可信。其二是使用集成或貝葉斯方法估計epistemic uncertainty。較為簡單方式是模型集成,通過訓(xùn)練多個模型或使用不同隨機種子和數(shù)據(jù)子集,觀察輸出分歧,分歧越大說明模型知識越不確定。更正式的做法有貝葉斯神經(jīng)網(wǎng)絡(luò)、貝葉斯近似(例如MC Dropout)等,它們能給出后驗不確定性估計。其三是開發(fā)專門的異常檢測或脫域檢測模塊來識別與訓(xùn)練分布差異較大的輸入。這類方法可以在在線運行時提供“我不認(rèn)識這個場景”的警告。其四是直接訓(xùn)練模型輸出不確定性量化,如深度證據(jù)學(xué)習(xí)或?qū)W習(xí)輸出分布參數(shù)(例如回歸時同時預(yù)測均值和方差),從而把不確定性內(nèi)嵌在模型輸出中。

wKgZPGjYjUmAd3KEAAA3X1QlOwA698.jpg

不過要注意的是,測不等于可用。很多不確定性估計在學(xué)術(shù)數(shù)據(jù)集上表現(xiàn)良好,但在真實車輛的動態(tài)閉環(huán)下會出現(xiàn)失準(zhǔn)。因此除了采用這些估計手段,還需要有系統(tǒng)級評估,驗證這些估計在實際運行中的可靠性和對安全決策的幫助程度。

wKgZO2jYjUqAcPKPAAARwcz1hbg898.jpg

決策與控制如何處理不確定性信息?

即便能估計不確定性,對于自動駕駛來說的核心問題仍然是把這個信息合理地傳遞給決策與控制。簡單直接的辦法是讓規(guī)劃器把不確定性視為額外的“成本”或風(fēng)險項,當(dāng)感知或預(yù)測置信度下降時,規(guī)劃器就執(zhí)行更保守的軌跡、減速或拉開橫向間距。這種做法能在很多情況下減少事故發(fā)生概率,但也可能帶來效率下降。在更系統(tǒng)化的框架里,可以把駕駛看作部分可觀測馬爾可夫決策過程(POMDP),用貝葉斯濾波器維護一個“信念狀態(tài)”,并在規(guī)劃時同時考慮狀態(tài)的不確定性和目標(biāo)的收益/風(fēng)險權(quán)衡。雖然理論上完整的POMDP求解能兼顧不確定性和決策,但在現(xiàn)實車輛上計算量大且實現(xiàn)復(fù)雜,因此常用近似方法或使用模型預(yù)測控制(MPC)結(jié)合不確定性邊界來做風(fēng)險控制。

當(dāng)然,不管決策多復(fù)雜,都應(yīng)當(dāng)內(nèi)置一套例如限制最大橫擺角速度、緊急停車的最小安全距離等硬性安全約束。即便主模型出現(xiàn)錯誤,這些硬性規(guī)則可以在極端情況下接管,形成所謂的運行時保障(runtime assurance)。在混合架構(gòu)中常見的做法是把端到端模型作為建議器,而讓傳統(tǒng)控制或規(guī)則模塊作為最終的安全過濾器。

wKgZPGjYjUqABu3KAAATCLDSk7w387.jpg

如何緩解端到端大模型的不確定性?

想緩解端到端大模型的不確定性需要從數(shù)據(jù)、訓(xùn)練、架構(gòu)和運行四個維度同時入手。在數(shù)據(jù)層面,要系統(tǒng)地構(gòu)建覆蓋長尾場景的數(shù)據(jù)集,不僅要被動收集,還要采用主動學(xué)習(xí)策略定向采集高風(fēng)險或高不確定性的場景。合成數(shù)據(jù)和域隨機化也是補充手段,可以在模擬環(huán)境中生成稀有極端條件,緩解現(xiàn)實數(shù)據(jù)難以覆蓋的問題。在訓(xùn)練層面,可以引入不確定性感知的損失函數(shù)、證據(jù)學(xué)習(xí)、或多任務(wù)學(xué)習(xí)來讓模型在輸出時攜帶不確定性信息,提升模型在罕見場景下的魯棒性。

在架構(gòu)上,可以嘗試選擇混合方案,把端到端網(wǎng)絡(luò)與模塊化子系統(tǒng)結(jié)合,或者采用“端到端+模塊化”的并行方案,這樣不僅可以保持端到端模型的學(xué)習(xí)優(yōu)勢,同時可以保留傳統(tǒng)感知/定位/規(guī)劃模塊作為校驗或冗余。還可以在車端部署輕量級的不確定性檢測器與規(guī)則性安全網(wǎng),一旦檢測到高不確定性,立即切換到保守策略或請求遠(yuǎn)端服務(wù)(若車云協(xié)同可行)。在運行時,要有完備的監(jiān)控與回放體系,把所有高不確定性和異常情況記錄下來,用于離線分析和針對性數(shù)據(jù)補充。

wKgZPGjYjUuABPxcAAARYKtLz1c701.jpg

最后的話

不確定性并非端到端模型的“致命病”,而是通向成熟自動駕駛必須面對的現(xiàn)實。對于這一問題的關(guān)鍵在于不要把模型當(dāng)作黑箱,而要把不確定性作為設(shè)計變量,有目的地測量、傳遞并在決策層面做出合理的風(fēng)險權(quán)衡。通過數(shù)據(jù)策略、混合架構(gòu)、實時監(jiān)控和形式化的安全約束,逐步把“未知的風(fēng)險”變成“可管理的風(fēng)險”。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 端到端
    +關(guān)注

    關(guān)注

    0

    文章

    50

    瀏覽量

    10833
  • 自動駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14884

    瀏覽量

    179912
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5189
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領(lǐng)域,(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)車輛實際控制指令,全部交給一個統(tǒng)一的深度學(xué)習(xí)
    的頭像 發(fā)表于 02-20 09:25 ?9268次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>為什么會出現(xiàn)黑盒現(xiàn)象?

    如何訓(xùn)練好自動駕駛模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:算法是怎樣訓(xùn)練的?是模仿學(xué)習(xí)、強化學(xué)習(xí)和離線強化學(xué)習(xí)這三類嗎?其實
    的頭像 發(fā)表于 12-08 16:31 ?1432次閱讀
    如何訓(xùn)練好<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>模型</b>?

    智駕模擬軟件推薦:為什么aiSim是業(yè)界領(lǐng)先的自動駕駛模擬平臺?

    /激光雷達)、AI場景生成與物理級渲染,以及合成數(shù)據(jù)生成(降低90%訓(xùn)練成本)。該平臺兼具確定性仿真和量產(chǎn)級穩(wěn)定性,適用于L2-L4級自動駕駛開發(fā),為車企、Robotaxi公司等提供從模型
    的頭像 發(fā)表于 11-20 13:38 ?488次閱讀

    智駕仿真軟件推薦:全球首款A(yù)SIL-D認(rèn)證平臺助您突破自動駕駛測試瓶頸

    和獨創(chuàng)的aiSim AIR引擎,為自動駕駛安全落地提供數(shù)字化解決方案。 一、智駕仿真平臺技術(shù)標(biāo)桿 全球認(rèn)證標(biāo)桿 aiSim是全球首個通過功能安全最高等級ISO 26262 ASI
    的頭像 發(fā)表于 11-19 13:26 ?584次閱讀

    自動駕駛仿真與基于規(guī)則的仿真有什么區(qū)別?

    自動駕駛領(lǐng)域,“仿真”指的是將感知控制的整個決策鏈條視為一個整體,從而進行訓(xùn)練和驗證的思路。
    的頭像 發(fā)表于 11-02 11:33 ?1711次閱讀

    自動駕駛中常提的一段式(單段)是個啥?

    自動駕駛技術(shù)的發(fā)展,催生出技術(shù)的應(yīng)用,一段式
    的頭像 發(fā)表于 10-18 10:16 ?1694次閱讀

    西井科技自動駕駛模型獲得國際認(rèn)可

    近日,西井科技AI創(chuàng)研團隊在國際權(quán)威自動駕駛算法榜單NAVSIM v2中脫穎而出,憑借創(chuàng)新的自動駕駛
    的頭像 發(fā)表于 10-15 17:20 ?1288次閱讀

    一文讀懂特斯拉自動駕駛FSD從輔助的演進

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛行業(yè)發(fā)展至今,特斯拉一直被很多企業(yè)對標(biāo),其FSD系統(tǒng)的每一次更新,都會獲得非常多人的關(guān)注。早期自動駕駛是一個分層的、由多模塊組成的系統(tǒng),感知、定位、預(yù)測、規(guī)劃
    的頭像 發(fā)表于 10-11 09:13 ?810次閱讀
    一文讀懂特斯拉<b class='flag-5'>自動駕駛</b>FSD從輔助<b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的演進

    自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    各自專業(yè)模塊獨立承擔(dān),再通過預(yù)定的接口協(xié)議將信息有序傳遞。與之相對照,“”(end-to-end)自動駕駛以統(tǒng)一的大規(guī)模神經(jīng)網(wǎng)絡(luò)為核心,將從攝像頭、雷達、激光雷達等傳感器采集
    的頭像 發(fā)表于 09-02 09:09 ?830次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b>到底有何提升?

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結(jié)果,Nullmax 感知團隊在自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?1813次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新研究成果入選ICCV 2025

    為什么自動駕駛模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,(End-to-End)大模型也成為行業(yè)研究與應(yīng)用的熱門方向。相較于傳統(tǒng)
    的頭像 發(fā)表于 07-04 16:50 ?886次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大<b class='flag-5'>模型</b>有黑盒特性?

    康謀分享 | 基于多傳感器數(shù)據(jù)的自動駕駛仿真確定性驗證

    自動駕駛仿真測試中,游戲引擎的底層架構(gòu)可能會帶來非確定性的問題,侵蝕測試可信度。如何通過專業(yè)仿真平臺,在多傳感器配置與極端天氣場景中實現(xiàn)測試數(shù)據(jù)零差異?確定性驗證方案已成為自動駕駛研發(fā)
    的頭像 發(fā)表于 07-02 13:17 ?4256次閱讀
    康謀分享 | 基于多傳感器數(shù)據(jù)的<b class='flag-5'>自動駕駛</b>仿真<b class='flag-5'>確定性</b>驗證

    一文帶你厘清自動駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)
    的頭像 發(fā)表于 05-08 09:07 ?1035次閱讀
    一文帶你厘清<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    自動駕駛中基于規(guī)則的決策和模型有何區(qū)別?

    自動駕駛架構(gòu)的選擇上,也經(jīng)歷了從感知、決策控制、執(zhí)行的三段式架構(gòu)到現(xiàn)在火熱的模型,尤其是在2024年特斯拉推出FSD V12后,各
    的頭像 發(fā)表于 04-13 09:38 ?3741次閱讀
    <b class='flag-5'>自動駕駛</b>中基于規(guī)則的決策和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大<b class='flag-5'>模型</b>有何區(qū)別?

    DiffusionDrive首次在自動駕駛中引入擴散模型

    ? ? 近年來,自動駕駛成為研究熱點,其核心在于從傳感器數(shù)據(jù)直接學(xué)習(xí)駕駛決策。然而,駕駛
    的頭像 發(fā)表于 03-08 13:59 ?1808次閱讀
    DiffusionDrive首次在<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>中引入擴散<b class='flag-5'>模型</b>