?
在2024年到現在2025年初這一年多時間里,全球自動駕駛技術真的發(fā)生了翻天覆地的變化。不管是硬件方案、算法架構還是商業(yè)化落地,都和兩三年前完全不是一個量級了。今天就系統(tǒng)性地聊聊現在全球范圍內自動駕駛到底發(fā)展到什么程度了,各家都在用什么技術路線,哪些已經真正能用了,哪些還在PPT階段。我盡量把技術細節(jié)和實際體驗結合起來說,這樣大家能更直觀地理解。
先說說感知硬件這塊的技術路線之爭
這個話題爭了好幾年了,到現在基本形成了兩大陣營。特斯拉這邊堅持純視覺方案,馬斯克一直說激光雷達是拐杖,人類開車就靠眼睛,AI也應該能做到。他們最新的FSD V12版本已經完全轉向端到端神經網絡了,不再用之前那種規(guī)則式的代碼。具體來說就是把8個攝像頭的畫面直接喂給神經網絡,讓AI自己學習怎么開車,不再人為設定什么情況該減速、什么情況該變道這些規(guī)則。實際效果確實有明顯提升,特別是在處理復雜路口、無保護左轉這些場景時,比V11版本平滑很多,不會突然猶豫或者急剎車了。他們用的Occupancy Network技術挺有意思的,不再去識別這是車、那是人,而是直接預測3D空間中哪些格子被占用了,這樣對于一些不常見的物體,比如掉落的輪胎、推著購物車的人,也能正確識別出來是障礙物。配合HW4.0硬件平臺,算力達到了2500 TOPS,處理能力比之前強了好幾倍。不過純視覺方案的問題也很明顯,在夜間、大雨、濃霧這些極端天氣下,攝像頭性能會大幅下降,測距精度也不如激光雷達。另一邊的陣營就是多傳感器融合派,以國內的華為、小鵬、理想和海外的Waymo為代表。這些廠商都在用激光雷達+攝像頭+毫米波雷達的融合方案。拿華為ADS 2.0來說,硬件配置真的很夸張,3顆激光雷達(前向一顆是192線的,側向兩顆),11個高清攝像頭覆蓋360度視野,還有6個毫米波雷達做補充。這套系統(tǒng)的算力平臺用的是MDC 810,達到400+ TOPS的算力。實際體驗下來,在隧道進出口、夜間無燈光路段、雨霧天氣這些場景,激光雷達的優(yōu)勢真的太明顯了。因為激光雷達是主動發(fā)射激光測距,不依賴環(huán)境光線,測距精度能達到厘米級,這對于復雜路況下的緊急避障特別重要。而且激光雷達能直接生成3D點云,對于立體障礙物的識別比純視覺準確太多。不過問題也很現實,成本高啊,一顆192線的激光雷達現在還得幾千美金,雖然比前幾年便宜了很多,但相比攝像頭還是貴了一個量級。Waymo的第五代自動駕駛系統(tǒng)更狠,用了4顆激光雷達加29個攝像頭,硬件成本估計得十幾萬美金起步,這也是為什么Waymo的Robotaxi運營成本一直降不下來的原因。
4D毫米波雷達是今年特別值得關注的新技術
這東西可以說是在純視覺和激光雷達之間找到了一個平衡點。傳統(tǒng)的毫米波雷達只能提供距離、速度、方位角這三個維度的信息,對于靜止物體識別很差,而且分辨率低,經常把好幾個目標當成一個。4D毫米波雷達增加了高度信息,而且通過級聯技術把點云密度提升了10倍以上,現在一幀能輸出幾千個點,雖然還是比不上激光雷達的幾十萬個點,但已經能滿足很多場景需求了。像Arbe、Oculii、森思泰克這些公司的產品,已經在一些量產車上開始應用。最關鍵是成本,一顆4D毫米波雷達的成本大概就幾百美金,只有激光雷達的十分之一。而且毫米波雷達不受天氣影響,大雨大霧照樣能正常工作,這點比攝像頭和激光雷達都強?,F在不少車企開始采用”5R11V”的配置,就是5個4D毫米波雷達加11個攝像頭,不用激光雷達也能實現比較好的城市NOA功能。當然,4D毫米波的問題是對于小物體的識別能力還是不如激光雷達,比如路面的錐桶、掉落的小包裹這些,可能會漏檢。
算法層面的變化比硬件還要激進
大模型技術徹底改變了自動駕駛的技術范式。傳統(tǒng)的模塊化方案是把自動駕駛分成感知、預測、規(guī)劃、控制幾個獨立模塊,每個模塊單獨設計單獨優(yōu)化。這種方案的問題是信息損失嚴重,比如感知模塊輸出”前方20米有一輛車”,但實際上那輛車可能在踩剎車,尾燈亮著,這個細節(jié)信息在傳遞到規(guī)劃模塊時就丟失了。端到端方案就是用一個大神經網絡,直接從傳感器數據學到控制指令,中間不需要人為設計的模塊劃分。英國的Wayve公司搞的GAIA-1模型特別有代表性,這是一個基于Transformer架構的世界模型,可以生成未來駕駛場景的視頻預測,比如給定當前畫面和轉向指令,它能預測出未來5秒車輛會開到哪里、周圍車輛會怎么運動。這種預測能力說明模型理解了物理規(guī)律和駕駛常識,不是簡單的模式匹配。特斯拉的團隊在2024年的一次技術分享中透露,他們的端到端模型參數量已經超過千億級別,訓練數據來自全球數百萬輛特斯拉車的實際行駛數據,相當于幾十億英里的駕駛經驗。這種數據規(guī)模是任何一家傳統(tǒng)車企都沒法比的,這也是特斯拉敢走純視覺路線的底氣所在。
大語言模型被用在自動駕駛上是2024年最有意思的技術趨勢
這個方向很多人可能覺得不靠譜,但實際上效果超出預期。傳統(tǒng)的自動駕駛系統(tǒng)對于復雜場景的理解能力很弱,比如看到一個”前方施工繞行”的牌子,傳統(tǒng)系統(tǒng)只能識別出這是個牌子,但理解不了是什么意思,還得靠視覺識別錐桶、護欄這些物理障礙物才知道不能通行。但如果用上LLM,系統(tǒng)可以直接理解”施工”、”繞行”這些語義,推理出可能的交通組織方式,提前規(guī)劃繞行路線,而不是開到跟前才發(fā)現被攔住。Waymo和谷歌DeepMind合作的研究顯示,在處理長尾場景時,結合LLM的決策系統(tǒng)成功率提升了40%。具體的技術實現是把視覺感知結果轉換成文本描述,比如”前方30米紅綠燈路口,左側車道有兩輛車在排隊,右側車道空”,然后喂給LLM,讓它基于駕駛常識和交通規(guī)則生成決策建議”建議變道到右側車道通過路口”,最后再轉換成具體的控制指令。這種方法特別適合處理那些訓練數據里沒見過的新場景,因為LLM有推理能力,不是死記硬背。國內的毫末智行、地平線也在搞類似的研究,把他們訓練的垂直領域LLM集成到自動駕駛系統(tǒng)里。
神經渲染技術被用來做仿真測試是另一個重大突破
這個技術原本是搞3D重建和虛擬現實的,結果在自動駕駛領域找到了完美應用場景。傳統(tǒng)的仿真器比如Carla、LGSVL這些,雖然能模擬各種交通場景,但畫面不夠真實,光影效果假,自動駕駛系統(tǒng)很容易就能分辨出這是仿真數據而不是真實數據,導致在仿真器里測試通過的算法,拿到真車上效果就不行。NeRF(神經輻射場)技術徹底解決了這個問題,它可以從多個角度拍攝的視頻中重建出照片級真實的3D場景,而且可以任意改變視角、光照、天氣。英偉達的Drive Sim平臺現在就是基于這個技術,可以把真實的道路場景掃描進去,然后在里面測試各種極端情況,比如突然竄出來一個小孩、對向車輛失控沖過來這些。更厲害的是可以合成訓練數據,比如系統(tǒng)在某個場景下表現不好,就用NeRF生成一堆類似但稍有變化的場景,專門訓練這種情況。Waymo公開的數據顯示,他們現在99%的測試都在仿真環(huán)境里完成,只有1%需要真車路測,大大降低了測試成本和風險。
高精地圖的地位正在發(fā)生根本性變化
這個趨勢在2024年特別明顯。以前業(yè)內普遍認為L3級以上的自動駕駛必須依賴高精地圖,因為需要精確知道車道線、紅綠燈、路口拓撲這些信息。但高精地圖有致命的問題,首先是制作成本高,傳統(tǒng)方法需要專業(yè)測繪車帶著激光雷達去掃描,每公里成本要幾千元人民幣,全國高速公路加城市道路得幾十萬公里,這是個天文數字。其次是更新頻率跟不上,道路施工、車道調整這些變化非常頻繁,但地圖更新可能要幾個月,導致自動駕駛系統(tǒng)用的是過時數據。最致命的是法規(guī)限制,很多國家對高精度測繪有嚴格管控,不允許外國公司采集,這直接限制了自動駕駛的全球化部署。現在的技術趨勢是”輕地圖”或者”無圖”方案,就是降低對高精地圖的依賴,更多靠實時感知和在線建圖。Mobileye搞的REM(路網經驗管理)技術挺聰明的,利用量產車上的攝像頭眾包采集數據,自動生成和更新地圖,成本幾乎為零,而且更新頻率可以做到準實時。特斯拉更激進,完全拋棄了高精地圖,純靠視覺神經網絡實時識別車道線、交通標識、路口結構這些信息,在北美和中國的城市NOA實測中已經證明可行。華為ADS 2.0也宣稱可以”全國都能開,不需要高精地圖”,實際測試下來確實在沒有高精地圖覆蓋的路段也能正常工作,雖然偶爾會猶豫,但大部分情況是OK的。矢量化地圖表征是輕地圖方向的核心技術
這個技術簡單說就是不再存儲柵格圖像,而是用數學向量來表示道路元素。比如一條車道線,傳統(tǒng)地圖可能存儲為一串坐標點的像素數組,占用空間大,而且不方便編輯。矢量化表征就用貝塞爾曲線或者多項式來描述這條線,只需要幾個參數,占用空間小了幾十倍,而且可以方便地延伸、拼接、修改。更重要的是,神經網絡可以直接輸出矢量化的地圖表征,比如從攝像頭圖像直接預測出車道線的貝塞爾曲線參數,這樣就實現了感知和建圖的統(tǒng)一。特斯拉在2023年的AI Day上展示過他們的Vector Lane Network,能實時輸出周圍200米范圍內的矢量化道路網絡,包括車道連接關系、路口拓撲這些信息。這種實時在線地圖和傳統(tǒng)的離線高精地圖相比,最大優(yōu)勢是永遠不會過時,看到的就是當前真實情況,哪怕道路臨時改道、車道線重新劃了,都能實時適應。
計算架構從分布式向集中式演進是另一個大趨勢
以前一輛車可能有上百個ECU(電子控制單元),發(fā)動機控制、剎車控制、燈光控制、娛樂系統(tǒng)各管各的,彼此之間通過CAN總線通信,帶寬很低,延遲也高?,F在逐步整合成幾個域控制器,把相關功能集中到一個強大的計算平臺上。自動駕駛域控制器(ADCU)是算力要求最高的,因為要處理多個攝像頭、雷達、激光雷達的數據流,還要跑深度學習模型。英偉達的Orin芯片現在基本是行業(yè)標準,單顆算力254 TOPS,一般配置是雙Orin或者四Orin,總算力達到500-1000 TOPS。他們下一代的Thor芯片更猛,單顆2000 TOPS,2025年就會在一些新車上量產。國內的芯片像地平線征程6達到560 TOPS,雖然和英偉達還有差距,但考慮到價格和供應鏈自主性,不少國內車企在用。黑芝麻的A2000芯片也到了196 TOPS,在商用車和低端乘用車市場有一定份額。算力提升帶來的好處是可以跑更復雜的模型,處理更多傳感器數據,決策延遲也能降下來。特斯拉自研的FSD芯片雖然只有144 TOPS,但因為是定制化設計,專門優(yōu)化了神經網絡推理,實際性能不比Orin差。
車云協同是解決算力瓶頸的重要方向
單車智能再強也有上限,很多復雜的計算任務比如大模型訓練、仿真測試、路徑優(yōu)化這些,不可能都在車上完成。所以現在的技術架構是車端負責實時感知和快速決策,云端負責訓練模型、更新算法、處理海量數據。小鵬的XNGP系統(tǒng)是個典型案例,他們每天從全國的車隊收集數億公里的行駛數據,上傳到云端進行標注和訓練,然后通過OTA把新模型推送到車上。這種模式下,車隊規(guī)模本身就是競爭力,車越多數據越多,模型迭代越快,形成正向循環(huán)。華為的”車云一體”方案更進一步,云端不只是訓練模型,還提供實時的路況信息、最優(yōu)路徑規(guī)劃、甚至在特殊情況下遠程接管車輛。這種”云代駕”模式在Robotaxi場景特別有用,遇到車輛自己處理不了的情況,比如復雜施工路段,可以請求云端的人類操作員遠程操控通過,然后記錄這次操作數據用于后續(xù)訓練。不過車云協同也帶來了新問題,對網絡連接的要求很高,要保證低延遲和高可靠性,而且數據安全和隱私保護也是挑戰(zhàn),用戶的駕駛數據上傳到云端,如何防止泄露是必須解決的問題。
商業(yè)化落地方面,Robotaxi無人出租車是最激進的應用場景
也是驗證自動駕駛技術成熟度的試金石。Waymo現在是全球領先的,他們在舊金山和鳳凰城的運營已經完全去掉了安全員,車里沒有人,用戶通過APP叫車,車自己開過來,送到目的地。根據公開數據,Waymo每周完成超過10萬次訂單,運營時間覆蓋7×24小時,包括夜間和高峰時段。實際乘坐體驗還不錯,開車風格比較保守,但基本不會讓人感覺不安全。不過成本還是太高,Waymo一輛車的硬件成本估計要20萬美金以上,加上運維、充電、清潔這些,每英里成本還是比人類司機貴。他們的策略是先在限定區(qū)域內做到技術領先,積累足夠多的運營數據和口碑,然后等硬件成本下降再大規(guī)模擴張。國內的百度蘿卜快跑進展也挺快,在武漢、深圳、重慶等城市開展全無人化運營,累計訂單已經超過600萬次。他們用的是阿波羅Moon車型,硬件配置比Waymo簡單一些,成本也低不少,單車成本據說已經降到了25萬人民幣左右。蘿卜快跑的優(yōu)勢是中國的道路環(huán)境更復雜,如果能在武漢這種電動車橫行、路況混亂的城市跑起來,技術魯棒性會更強。但他們目前還主要在特定區(qū)域運營,還沒有實現全城無限制開放。
Cruise的案例值得特別說一下,作為通用旗下的自動駕駛公司,Cruise在2023年是風光無限,在舊金山拿到了全無人運營許可,準備大干一場。結果去年10月發(fā)生了一起事故,一個行人被另一輛車撞倒后,又被Cruise的無人車拖行了一段距離,雖然主要責任不在Cruise,但這個事情引發(fā)了巨大爭議。加州監(jiān)管部門吊銷了Cruise的運營許可,通用隨后暫停了所有的Robotaxi業(yè)務,進行全面安全審查。這個事情說明自動駕駛技術再先進,只要出了事故就是100%的責任,社會容忍度遠低于人類駕駛員。而且Cruise暴露出來的問題不只是技術,還有對事故的處理方式,他們最初沒有如實向監(jiān)管部門報告拖行的細節(jié),導致信任度嚴重受損。現在Cruise正在重組,砍掉了大量員工,戰(zhàn)略方向也在重新評估。這個案例給整個行業(yè)敲響了警鐘,技術只是一方面,安全冗余、測試驗證、危機應對這些同樣重要。
量產車的高速NOA功能已經相對成熟,這是目前普通消費者能真正用上的自動駕駛功能。高速公路環(huán)境相對簡單,車道線清晰,沒有行人和非機動車,車速雖然快但都是同向行駛,預測起來容易很多。理想的L系列車型,高速NOA使用率已經超過50%,意味著一半以上的高速駕駛時間用戶愿意開啟自動駕駛。蔚來的NOP+覆蓋了全國的高速路網,小鵬NGP累計行駛里程超過10億公里,這些都證明高速NOA技術已經通過了大規(guī)模驗證。實際體驗下來,高速上的自動變道、超車、跟車基本達到了人類駕駛員的水平,甚至某些方面比人更平穩(wěn),因為AI對車距、速度的控制更精確。但上下匝道還是個難點,特別是一些匝道比較短、需要連續(xù)變道的情況,系統(tǒng)容易處理不過來,需要人接管。還有就是大貨車加塞、施工路段封閉車道這些突發(fā)情況,系統(tǒng)的應對有時候會比較遲疑,不如人類駕駛員果斷。不過總體來說,高速NOA已經可以大幅降低駕駛疲勞度,尤其是長途駕駛,這個功能的價值是實實在在的。
城市NOA是2024-2025年度最大的技術突破,難度比高速NOA高了不止一個量級。城市環(huán)境太復雜了,紅綠燈、路口、行人、非機動車、臨時變道、違章停車、施工圍擋,每一個都是挑戰(zhàn)。華為ADS 2.0在這方面確實做得不錯,他們宣稱可以實現”全國都能開”,不依賴高精地圖。實際測試下來,在深圳、上海這些一線城市,系統(tǒng)確實能夠處理大部分情況,紅綠燈識別準確率99%以上,無保護左轉成功率也能達到95%以上。但遇到一些極端情況還是會出問題,比如電動車突然變道插隊,系統(tǒng)會緊急制動,動作比人類駕駛員更急,有時候坐著會不太舒服。還有就是在一些小路口,交通標識不清楚或者沒有的情況,系統(tǒng)會變得很保守,寧可多等一會也不敢走,這時候人類駕駛員其實可以根據經驗判斷能通過。特斯拉FSD V12在北美城市的表現也不錯,尤其是灣區(qū)這種復雜環(huán)境,處理起來比較從容。但右轉讓行人這塊,系統(tǒng)現在調得太保守了,有時候行人離得還很遠就開始減速等待,影響通行效率。小鵬的城市NGP正在快速迭代,他們的優(yōu)勢是中國用戶的反饋很及時,系統(tǒng)改進速度快,現在已經可以在很多二三線城市使用,不只是一線城市。
安全冗余設計是高等級自動駕駛的基礎要求
這個話題聽起來枯燥但極其重要。自動駕駛系統(tǒng)比人類駕駛員對安全的要求高得多,因為機器不能出錯,出錯就是系統(tǒng)性問題。硬件冗余是最基本的,比如傳感器要有備份,一個攝像頭壞了,其他的能頂上;計算平臺要有雙芯片甚至三芯片,一個算力模塊故障了,另一個立刻接管;制動系統(tǒng)要有獨立的冗余,電子制動失效了,機械制動能緊急剎停。奔馳的Drive Pilot是全球第一款獲得L3認證的量產車,它的硬件冗余做得最完善,雙轉向系統(tǒng)、雙制動系統(tǒng)、雙電源系統(tǒng),保證任何單點故障不會導致系統(tǒng)完全失效。軟件冗余也很重要,比如感知算法要有多種備份方案,視覺識別失敗了,激光雷達能頂上;決策算法要有fallback機制,主算法輸出異常時,備用的簡單算法保證車輛能安全停下來。除了硬件和軟件冗余,功能降級策略也是關鍵,系統(tǒng)發(fā)現自己處理不了的情況,要能平滑降級,給駕駛員足夠的反應時間接管,而不是突然撒手不管。這需要精心設計人機交互,提前多久提示、用什么方式提示、駕駛員多長時間沒響應算失效,這些都要經過大量測試驗證。
預期功能安全SOTIF是個容易被忽視但很致命的問題
這個概念說的是即使硬件不壞、軟件沒bug,算法也可能犯錯,因為AI本質上是概率模型,不可能100%準確。歷史上發(fā)生過幾起嚴重的自動駕駛事故,都是因為算法識別失敗,比如特斯拉的早期版本曾經把白色貨車誤認為天空,因為訓練數據里白色車輛側翻的場景太少了;還有把路邊廣告牌上的車道線圖案誤認為真實車道線,導致車輛偏離。解決SOTIF的關鍵是海量場景測試,把各種極端情況都覆蓋到,這需要百億公里甚至千億公里級別的仿真測試加實際路測。Waymo公開的數據顯示,他們在仿真環(huán)境里跑了幾百億英里,相當于人類駕駛幾千年的經驗。另一個重要技術是Out-of-Distribution檢測,讓AI能識別自己不確定的情況,比如遇到訓練數據里從沒見過的物體,系統(tǒng)知道自己識別不了,就降級處理或者請求人類接管,而不是瞎猜。這個技術現在還在研究階段,難度很大,因為不確定性本身就很難量化。人機共駕的接管策略也很有講究,提前多久提示駕駛員接管,用什么方式提示,如果駕駛員不響應怎么辦,這些都需要大量的用戶研究和測試。特斯拉因為接管時間太短導致事故的案例不少,現在他們把提示時間延長了,還增加了方向盤震動這種更強烈的提醒方式。
各國政策法規(guī)差異對自動駕駛發(fā)展影響很大
這是個很現實的問題。美國總體上相對開放,聯邦層面沒有統(tǒng)一的自動駕駛法規(guī),主要由各州自己決定,加州、亞利桑那這些州允許完全無人車上路測試,但也有一些州限制比較嚴。Cruise的事故發(fā)生后,NHTSA(美國國家公路交通安全管理局)加強了監(jiān)管,要求所有自動駕駛公司報告事故和接管數據,透明度提高了很多。中國采取的是試點先行、逐步推廣的策略,北京、上海、深圳、武漢這些城市開放了測試,但大部分Robotaxi還是要求配備安全員,只有在特定區(qū)域才允許完全無人。2024年開始,中國正式允許L3級自動駕駛上高速,這是個重大突破,意味著量產車可以實現有條件的自動駕駛,駕駛員在某些情況下可以完全不管車。歐洲最謹慎,L3級需要通過非常嚴格的型式認證,整個流程要好幾年,奔馳是目前唯一獲得認證的量產車。歐洲對數據隱私保護要求極高,GDPR法規(guī)限制了很多數據收集和使用,這對需要海量數據訓練的自動駕駛來說是個挑戰(zhàn)。日本的策略比較獨特,他們更重視V2X車路協同技術,在基礎設施上投入更多,比如路口安裝傳感器、信號燈聯網,輔助車輛決策。日本還在一些偏遠地區(qū)推進無人巴士,解決老齡化社會的出行問題,這個方向挺有意思的。
技術挑戰(zhàn)和未來方向方面,Corner Case長尾場景處理仍然是最大難題
自動駕駛系統(tǒng)在常見場景下表現已經很好了,但總有些罕見情況處理不好。比如路面上一個漏氣的氣球在滾,到底要不要躲?軋過去沒事,但如果躲的話可能影響其他車。再比如前方有個人推著梯子橫穿馬路,系統(tǒng)能正確識別嗎?這種場景在訓練數據里可能只有幾個樣本,模型很難學到。解決長尾問題沒有銀彈,只能靠持續(xù)積累數據、改進算法、增加冗余。有些公司在搞合成數據生成,用AI制造各種極端場景的訓練數據,但效果還有待驗證。惡劣天氣適應性也是個大問題,大雨、大雪、沙塵暴這些情況下,攝像頭和激光雷達性能都會大幅下降,現在主要靠毫米波雷達頂著,但精度不夠。未來可能需要新的傳感器技術,比如太赫茲雷達、量子雷達這些還在實驗室階段的東西。多車協同和車路協同是長期方向,單車智能再強也有上限,如果車和車之間、車和路側設施之間能實時通信,共享感知數據,系統(tǒng)的決策會更準確更安全。中國在車路協同方面投入比較大,很多城市在建智能路側單元,但標準不統(tǒng)一、建設成本高,短期內很難大規(guī)模部署。
成本下降和產業(yè)鏈成熟是商業(yè)化的關鍵
現在自動駕駛系統(tǒng)的成本還是太高了,一套完整的L3-L4級系統(tǒng),硬件成本可能要幾萬到十幾萬人民幣,這對于十幾二十萬的車來說,占比太高了。隨著激光雷達、芯片這些核心部件的量產規(guī)模擴大,成本會快速下降。國產激光雷達現在已經降到了幾千元一顆,雖然線數少一些,但對于量產車來說夠用了。芯片方面,國產替代進展很快,地平線、黑芝麻這些公司的產品在逐步上車,價格比英偉達便宜不少。軟件算法的開發(fā)成本也在降低,因為有了更多的開源工具和預訓練模型,不需要從頭開始開發(fā)。產業(yè)鏈分工也在細化,有專門做傳感器的、做芯片的、做算法的、做測試的,整車廠可以像搭積木一樣組合,不用什么都自己干。特斯拉是個例外,他們堅持全棧自研,從芯片到算法到數據標注工具全部自己做,這樣效率更高,但對技術能力要求極高,普通車企學不來。更現實的路徑是像華為、小鵬這樣,核心算法自己掌握,硬件部分外采或者合作開發(fā)。
保險和法律責任問題也需要解決,L3級以上的自動駕駛,如果出了事故責任歸誰?是車主、車企還是軟件供應商?現在各國還沒有明確的法律框架,這也限制了技術的大規(guī)模應用。奔馳在推Drive Pilot時承諾,開啟L3模式時如果發(fā)生事故,責任由奔馳承擔,這是個很大膽的決定,也倒逼他們把系統(tǒng)做得更可靠??偟膩碚f,全球自動駕駛技術在2024-2025這兩年取得了突破性進展,但離真正的L4-L5級完全自動駕駛還有不小距離。高速和城市的輔助駕駛已經比較成熟,能實實在在提升駕駛體驗。Robotaxi在限定區(qū)域運營也初步成功,證明技術可行性。但要實現全場景、全天候、無安全員的完全自動駕駛,可能還需要5-10年時間。技術上的挑戰(zhàn)還很多,法規(guī)和商業(yè)模式也在探索中。不過趨勢是明確的,自動駕駛一定會實現,只是時間早晚的問題。對于普通消費者來說,未來幾年能用上的主要還是L2+到L3級的輔助駕駛功能,真正的無人駕駛可能要到2030年前后才能普及。但這個過程中會有很多創(chuàng)新涌現,整個汽車產業(yè)也在重構,還是很值得期待的。
文章轉載自:https://www.key-iot.com.cn/drive/776.html
審核編輯 黃宇
-
自動駕駛
+關注
關注
791文章
14661瀏覽量
176205 -
毫米波雷達
+關注
關注
108文章
1138瀏覽量
65992
發(fā)布評論請先 登錄
中軟國際靈析問數榮獲2024-2025年度優(yōu)秀創(chuàng)新軟件產品稱號
中軟國際入選2024-2025年度優(yōu)秀創(chuàng)新軟件產品推廣目錄
小型自動氣象站:精細化氣象監(jiān)測的技術革新與應用拓展
人車定位系統(tǒng)在精細化工廠的應用
施耐德電氣驅動精細化工行業(yè)智能創(chuàng)新
IBM Planning Analytics平臺助力企業(yè)實現精細化運營
??低暺髽I(yè)園區(qū)精細化管理研討會成功舉行
制藥行業(yè)的精細化管理:GCOM80-2NET自動化解決方案
理想汽車推出全新自動駕駛架構
2024-2025年新車及供應商發(fā)展趨勢分析
盤點2024-2025年汽車新技術應用趨勢
2024加州自動駕駛測試里程驟降50%
2024年自動駕駛行業(yè)熱點技術盤點
光庭信息自動駕駛系統(tǒng)亮相CES 2025
自動駕駛域控研究:One board/One Chip方案將對汽車供應鏈產生深遠影響

精細化解讀全球自動駕駛2024-2025(轉載)
評論