chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛中常提的VLA是個啥?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2025-06-18 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,很多新技術(shù)或在其他領(lǐng)域被使用的技術(shù)也在自動駕駛行業(yè)中得到了實踐,VLA就是其中一項,尤其是隨著端到端大模型的提出,VLA在自動駕駛中的使用更加普遍。那VLA到底是個啥?它對于自動駕駛行業(yè)來說有何作用?

VLA全稱為“Vision-Language-Action”,即視覺-語言-動作模型,其核心思想是將視覺感知、語言理解與動作決策端到端融合,在一個統(tǒng)一的大模型中完成從環(huán)境觀察到控制指令輸出的全過程。與傳統(tǒng)自動駕駛系統(tǒng)中感知、規(guī)劃、控制模塊化分工的思路不同,VLA模型通過大規(guī)模數(shù)據(jù)驅(qū)動,實現(xiàn)了“圖像輸入、指令輸出”的閉環(huán)映射,有望大幅提高系統(tǒng)的泛化能力與場景適應(yīng)性。

wKgZPGhSFGGADiWsAABhun9Lczk192.jpg

VLA最早由GoogleDeepMind于2023年在機器人領(lǐng)域提出,旨在解決“視覺-語言-動作”三者協(xié)同的智能體控制問題。DeepMind的首個VLA模型通過將視覺編碼器與語言編碼器與動作解碼器結(jié)合,實現(xiàn)了從攝像頭圖像和文本指令到物理動作的直接映射。這一技術(shù)不僅在機器人操作上取得了突破,也為智能駕駛場景引入了全新的端到端思路。

在自動駕駛領(lǐng)域,感知技術(shù)通常由雷達、激光雷達、攝像頭等多種傳感器負責(zé)感知,感知結(jié)果經(jīng)過目標檢測、語義分割、軌跡預(yù)測、行為規(guī)劃等一系列模塊處理,最后由控制器下發(fā)方向盤和油門等動作指令。整個流程雖條理清晰,卻存在模塊間誤差累積、規(guī)則設(shè)計復(fù)雜且難以覆蓋所有極端場景的短板。VLA模型正是在此背景下應(yīng)運而生,它舍棄了中間的手工設(shè)計算法,直接用統(tǒng)一的神經(jīng)網(wǎng)絡(luò)從多模態(tài)輸入中學(xué)習(xí)最優(yōu)控制策略,從而簡化了系統(tǒng)架構(gòu),提高了數(shù)據(jù)利用效率。

wKgZO2hSFGKAL_qDAACtwrr_t_Y075.jpg

VLA模型通常由四個關(guān)鍵模塊構(gòu)成。第一是視覺編碼器,用于對攝像頭或激光雷達等傳感器采集的圖像和點云數(shù)據(jù)進行特征提?。坏诙钦Z言編碼器,通過大規(guī)模預(yù)訓(xùn)練的語言模型,理解導(dǎo)航指令、交通規(guī)則或高層策略;第三是跨模態(tài)融合層,將視覺和語言特征進行對齊和融合,構(gòu)建統(tǒng)一的環(huán)境理解;第四是動作解碼器或策略模塊,基于融合后的多模態(tài)表示生成具體的控制指令,如轉(zhuǎn)向角度、加減速命令等。

在視覺編碼器部分,VLA模型一般采用卷積神經(jīng)網(wǎng)絡(luò)或視覺大模型(VisionTransformer)對原始像素進行深度特征抽??;同時,為了增強對三維場景的理解,部分研究引入三維空間編碼器,將多視角圖像或點云映射到統(tǒng)一的三維特征空間中。這些技術(shù)使VLA在處理復(fù)雜道路環(huán)境、行人辨識和物體追蹤上擁有較傳統(tǒng)方法更強的表現(xiàn)力。

語言編碼器則是VLA與傳統(tǒng)端到端駕駛模型的最大差異所在。通過接入大規(guī)模預(yù)訓(xùn)練語言模型,VLA能夠理解自然語言形式的導(dǎo)航指令(如“前方在第二個紅綠燈右轉(zhuǎn)”)或高層安全策略(如“當(dāng)檢測到行人時務(wù)必減速至5公里/小時以下”),并將這些理解融入決策過程。這種跨模態(tài)理解能力不僅提升了系統(tǒng)的靈活性,也為人車交互提供了新的可能。

跨模態(tài)融合層在VLA中承擔(dān)著“粘合劑”作用,它需要設(shè)計高效的對齊算法,使視覺與語言特征在同一語義空間內(nèi)進行交互。一些方案利用自注意力機制(Self-Attention)實現(xiàn)特征間的深度融合,另一些方案則結(jié)合圖神經(jīng)網(wǎng)絡(luò)或Transformer結(jié)構(gòu)進行多模態(tài)對齊。這些方法的目標都是構(gòu)建一個統(tǒng)一表征,以支持后續(xù)更準確的動作生成。

動作解碼器或策略模塊通?;趶娀瘜W(xué)習(xí)或監(jiān)督學(xué)習(xí)框架訓(xùn)練。VLA利用融合后的多模態(tài)特征,直接預(yù)測如轉(zhuǎn)向角度、加速度和制動壓力等連續(xù)控制信號。這一過程省去了傳統(tǒng)方案中復(fù)雜的規(guī)則引擎和多階段優(yōu)化,使整個系統(tǒng)在端到端訓(xùn)練中獲得了更優(yōu)的全局性能。但同時也帶來了可解釋性不足、安全驗證難度增大等挑戰(zhàn)。

VLA模型的最大優(yōu)勢在于其強大的場景泛化能力與上下文推理能力。由于模型在大規(guī)模真實或仿真數(shù)據(jù)上學(xué)習(xí)了豐富的多模態(tài)關(guān)聯(lián),它能在復(fù)雜交叉路口、弱光環(huán)境或突發(fā)障礙物出現(xiàn)時,更迅速地做出合理決策。此外,融入語言理解后,VLA可以根據(jù)指令靈活調(diào)整駕駛策略,實現(xiàn)更自然的人機協(xié)同駕駛體驗。

國內(nèi)外多家企業(yè)已開始將VLA思想應(yīng)用于智能駕駛研發(fā)。DeepMind的RT-2模型在機器人控制上展示了端到端視覺-語言-動作融合的潛力,而元戎啟行公開提出的VLA模型,被其定義為“端到端2.0版本”,元戎啟行CEO周光表示“這套系統(tǒng)上來以后城區(qū)智駕才能真正達到好用的狀態(tài)”。智平方在機器人領(lǐng)域推出的GOVLA模型,也展示了全身協(xié)同與長程推理的先進能力,為未來智能駕駛提供了新的參考。

VLA雖然給自動駕駛行業(yè)提出了新的可能,但實際應(yīng)用依舊面臨很多挑戰(zhàn)。首先是模型可解釋性不足,作為“黑盒子”系統(tǒng),很難逐步排查在邊緣場景下的決策失誤,給安全驗證帶來難度。其次,端到端訓(xùn)練對數(shù)據(jù)質(zhì)量和數(shù)量要求極高,還需構(gòu)建覆蓋多種交通場景的高保真仿真環(huán)境。另外,計算資源消耗大、實時性優(yōu)化難度高,也是VLA商用化必須克服的技術(shù)壁壘。

為了解決上述問題,也正在探索多種技術(shù)路徑。如有通過引入可解釋性模塊或后驗可視化工具,對決策過程進行透明化;還有利用Diffusion模型對軌跡生成進行優(yōu)化,確保控制指令的平滑性與穩(wěn)定性。同時,將VLA與傳統(tǒng)規(guī)則引擎或模型預(yù)測控制(MPC)結(jié)合,以混合架構(gòu)提高安全冗余和系統(tǒng)魯棒性也成為熱門方向。

未來,隨著大模型技術(shù)、邊緣計算和車載硬件的持續(xù)進步,VLA有望在自動駕駛領(lǐng)域扮演更加核心的角色。它不僅能為城市復(fù)雜道路提供更智能的駕駛方案,還可擴展至車隊協(xié)同、遠程遙控及人機交互等多種應(yīng)用場景。智駕最前沿以為,“視覺-語言-動作”一體化將成為自動駕駛技術(shù)的主流方向,推動智能出行進入新的“端到端2.0”時代。

VLA作為一種端到端多模態(tài)融合方案,通過將視覺、語言和動作三大要素集成到同一模型中,為自動駕駛系統(tǒng)帶來了更強的泛化能力和更高的交互靈活性。盡管仍需解決可解釋性、安全驗證與算力優(yōu)化等挑戰(zhàn),但其革命性的技術(shù)框架無疑為未來智能駕駛的發(fā)展指明了方向。隨著業(yè)界不斷積累實踐經(jīng)驗、優(yōu)化算法與完善安全體系,VLA有望成為自動駕駛領(lǐng)域的“下一代技術(shù)基石”。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Vla
    Vla
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    5863
  • 自動駕駛
    +關(guān)注

    關(guān)注

    791

    文章

    14559

    瀏覽量

    174561
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中常的魯棒性是?

    隨著自動駕駛技術(shù)的快速發(fā)展,魯棒性(Robustness)成為評價自動駕駛系統(tǒng)的重要指標之一。很多小伙伴也會在自動駕駛相關(guān)的介紹中,對某些功能用魯棒性進行描述。一魯棒的系統(tǒng)能夠在復(fù)雜
    的頭像 發(fā)表于 01-02 16:32 ?8046次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的魯棒性是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛真的會來嗎?

    。autopilot是用戶駕駛的一輔助功能,可以幫助駕駛員在開車過程中進行更好的判斷、更輕松的操作。這個Google等進行的自動駕駛有明顯的不同?!睆堣凑f。美國高速公路安全委員會(N
    發(fā)表于 07-21 09:00

    自動駕駛中常的SLAM到底是?

    ?這兩問題。目前,自動駕駛技術(shù)主要依賴高精地圖和RTK(實時動態(tài)定位)系統(tǒng)完成高精度定位。然而,這種方法的實現(xiàn)成本高昂,需要依賴于完善的基礎(chǔ)設(shè)施,且在動態(tài)環(huán)境中適應(yīng)性不足。為此自動駕駛工程師提出了另一種更具靈活性和
    的頭像 發(fā)表于 11-21 15:17 ?2154次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的SLAM到底是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛大模型中常的Token是?對自動駕駛有何影響?

    、多模態(tài)傳感器數(shù)據(jù)的實時處理與決策。在這一過程中,大模型以其強大的特征提取、信息融合和預(yù)測能力為自動駕駛系統(tǒng)提供了有力支持。而在大模型的中,有一“Token”的概念,有些人看到后或許會問: Token是
    的頭像 發(fā)表于 03-28 09:16 ?731次閱讀

    自動駕駛中常的“NOA”是?

    近年來,自動駕駛技術(shù)發(fā)展迅速,業(yè)界不斷探索如何在復(fù)雜交通場景中實現(xiàn)真正的無人駕駛。城市NOA作為自動駕駛的一項前沿技術(shù),正成為各大廠商相互爭奪的關(guān)鍵技術(shù)。 何為NOA? NOA,全稱
    的頭像 發(fā)表于 04-09 09:03 ?1757次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“NOA”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常的“點云”是

    ?對自動駕駛有何影響? 點云是? 點云(Point Cloud)是一種在三維空間中由大量離散點組成的數(shù)據(jù)集合,每個點包含自身的笛卡爾坐標(X、Y、Z),并可附帶顏色、強度、時間戳
    的頭像 發(fā)表于 05-21 09:04 ?667次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“點云”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常的HMI是

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛汽車領(lǐng)域,HMI(Human–Machine Interface,人機交互界面)正成為很多車企相互競爭的一大領(lǐng)域。之所以如此,是因為在車輛從“人控”過渡到“機
    的頭像 發(fā)表于 06-22 13:21 ?1925次閱讀

    自動駕駛中常的世界模型是?

    對外部環(huán)境進行抽象和建模的技術(shù),讓自動駕駛系統(tǒng)在一簡潔的內(nèi)部“縮影”里,對真實世界進行描述與預(yù)測,從而為感知、決策和規(guī)劃等關(guān)鍵環(huán)節(jié)提供有力支持。 什么是世界模型? 我們不妨先把“世界模型”想象成一種“數(shù)字化的地
    的頭像 發(fā)表于 06-24 08:53 ?455次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的世界模型是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常的慣性導(dǎo)航系統(tǒng)是?可以不用嗎?

    每次提到自動駕駛硬件時,大家可能第一反應(yīng)想到的是激光雷達、車載攝像頭、毫米波雷達等,但想要讓自動駕駛車輛實際落地,有一硬件也非常重要,那就是慣性導(dǎo)航系統(tǒng)。在很多討論自動駕駛技術(shù)的內(nèi)容
    的頭像 發(fā)表于 07-24 18:12 ?1295次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的慣性導(dǎo)航系統(tǒng)是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?可以不用嗎?

    自動駕駛中常的RTK是?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛關(guān)鍵技術(shù)時,經(jīng)常會聽到一技術(shù),那就是RTK,很多人看到RTK后一定會想,這到底是技術(shù)?為啥這個技術(shù)很少在發(fā)布會上看到,但對于
    的頭像 發(fā)表于 08-10 10:35 ?575次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的RTK是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常的硬件在環(huán)是?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛技術(shù)時,經(jīng)常會提及一技術(shù),那就是硬件在環(huán),所謂的硬件在環(huán)是?對于自動駕駛來說有
    的頭像 發(fā)表于 08-14 08:54 ?738次閱讀

    自動駕駛中常的ODD是?

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛中,經(jīng)常會聽到一概念,那就是ODD。所謂ODD,全稱為Operational Design Domain,中文常譯為“運行設(shè)計域”或者“作業(yè)域”。直觀一點
    的頭像 發(fā)表于 09-22 09:04 ?424次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的ODD是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常的“專家數(shù)據(jù)”是

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,經(jīng)常會聽到一概念,那便是“專家數(shù)據(jù)”。專家數(shù)據(jù),說白了就是“按理應(yīng)該這么做”的那類示范數(shù)據(jù)。它不是隨機抓來的日志,也不是隨便標注的標簽,而是來源可靠
    的頭像 發(fā)表于 10-09 09:33 ?172次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“專家數(shù)據(jù)”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛上常VLA與世界模型有什么區(qū)別?

    自動駕駛中常VLA,全稱是Vision-Language-Action,直譯就是“視覺-語言-動作”。VLA的目標是把相機或傳感器看到的
    的頭像 發(fā)表于 10-18 10:15 ?434次閱讀

    自動駕駛中常的“強化學(xué)習(xí)”是?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學(xué)習(xí)(Reinforcement Learning,簡稱RL)”,強化學(xué)習(xí)是一類讓機器通過試錯來學(xué)會做決策的技術(shù)。簡單理解
    的頭像 發(fā)表于 10-23 09:00 ?160次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“強化學(xué)習(xí)”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?