佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領域的應用研究報告》。
推理能力成為大模型性能提升的驅(qū)動引擎
2024下半年以來,國內(nèi)外大模型公司紛紛推出推理模型,通過以CoT為代表的推理框架,加強大模型對復雜任務處理能力和自主決策能力。
部分大模型公司的推理模型發(fā)布情況
來源:佐思汽研《2024-2025年AI大模型及其在汽車領域的應用研究報告》
推理模型的密集上線,是為了提升大模型在復雜場景下的應對能力,同時也為Agent上線奠定基礎;具體到汽車行業(yè),汽車大模型推理能力的提升,能夠切實解決AI應用場景下的痛點問題,如加強座艙助手對復雜語義的意圖識別和提升自動駕駛規(guī)劃決策中的時空預測場景精度。
部分汽車AI應用場景下對大模型推理能力的需求
整理:佐思汽研
2024年,上車的主流大模型推理技術仍以思維鏈CoT及其變種為主(如思維樹ToT、思維圖GoT、思維森林FoT等),在不同的場景下會融合生成模型(如擴散模型)、知識圖譜、因果推理模型、累積推理、多模態(tài)推理鏈等技術。
如吉利提出模塊化思維語言模型(MeTHanol),讓大語言模型合成人類思維并用于監(jiān)督 LLM 的隱藏層,通過適應日常對話和個性化提示,生成類似人類的思維行為,增強大語言模型的思維和推理能力,并提升可解釋性。
MeTHanol(含中間思維層的雙層微調(diào)和兩階段推理)與標準SFT技術的對比
來源:吉利
2025年,推理技術的重點會向多模態(tài)推理轉(zhuǎn)移,常用的訓練技術包括指令微調(diào)、多模態(tài)上下文學習與多模態(tài)思維鏈(M - CoT)等,多通過多模態(tài)融合對齊技術與LLM的推理技術結合而成。
部分多模態(tài)推理技術
整理:佐思汽研
可解釋性成為AI與用戶的信任橋梁
在用戶體會到AI的“好用”之前,首先需要滿足用戶對AI的“信任”,所以,2025年,AI系統(tǒng)運行的可解釋性成為汽車AI用戶基數(shù)增長的關鍵一環(huán),該痛點也可通過長思維鏈的展示來解決。
AI系統(tǒng)的可解釋性可通過數(shù)據(jù)可解釋性、模型可解釋性和事后可解釋性三個層面分別實現(xiàn):
AI可解釋性的三個層面
來源:IEEE;整理:佐思汽研
以理想為例,理想 L3 智駕通過 “AI 推理可視化技術”,可直觀呈現(xiàn)端到端 + VLM 模型的思考過程,涵蓋從物理世界感知輸入到大模型完成行駛決策輸出的全流程,提升用戶對智能駕駛系統(tǒng)的信任。
理想L3智駕的可解釋性
來源:理想
理想的“AI推理可視化技術”中:
Attention(注意力系統(tǒng))主要負責展示車輛感知到的交通和環(huán)境路況信息,能對實時視頻流中的交通參與者進行行為評估,并使用熱力圖展示評估對象。
E2E(端到端模型)用于展示行駛軌跡輸出的思考過程。模型會思考不同的行駛軌跡,展示 10 個候選輸出結果,最終采用概率最大的輸出結果作為行駛路徑。
VLM(視覺語言模型)可展示自身的感知、推理和決策過程,其工作過程使用對話形式展示。
同時,理想Agent“理想同學”也提供可視化的工作流:
“理想同學”工作流
來源:理想
同樣通過長思維鏈進行推理流程拆解的還有各個推理模型的對話界面,以DeepSeek R1為例,在與用戶的對話中,會先通過思維鏈展示每一個節(jié)點的決策,并通過自然語言進行說明。
DeepSeek R1長思維鏈界面
來源:DeepSeek R1對話界面
此外,智譜的GLM-Zero-Preview、阿里的QwQ-32B-Preview、天工4.0 o1等大部分推理模型均支持長思維鏈推理流程展示。
DeepSeek降低大模型上車的門檻,性能提升與降本兼得
推理能力乃至綜合性能的提升,是否意味著需要付出高額成本?從DeepSeek的爆火來看,并不是。2025年初,主機廠先后接入DeepSeek,從應用詳情來看,基本上是以提升車載大模型的綜合能力為主。
2025年初,部分主機廠與DeepSeek合作情況
整理:佐思汽研
事實上,DeepSeek系列模型推出之前,各大主機廠已經(jīng)按照自己的節(jié)奏有序推進旗下車載AI大模型的開發(fā)與迭代工作。以座艙助手為例,部分主機廠的方案已經(jīng)初步完成構建,并已接入云端大模型供應商試運行或初步敲定供應商,其中不乏阿里云、騰訊云等云服務廠商以及智譜等大模型公司,2025年初再次接入DeepSeek,看重的包括:
強大的推理性能表現(xiàn),如推理模型R1的性能與OPEN AI 推理模型o1相當,甚至在數(shù)學邏輯方面更為突出;
更低的成本,在保證性能的同時,訓練與推理成本均保持在同行業(yè)較低水平。
DeepSeek R1與OPEN AI o1模型成本的比較
來源:公開信息
以上2點優(yōu)勢均在DeepSeek的技術創(chuàng)新上有所體現(xiàn):
DeepSeek系列的部分技術對大模型性能和成本的影響
整理:佐思汽研
通過接入DeepSeek,主機廠在部署智駕和座艙助手時,可以切實地降低大模型性能硬件采購、模型訓練與維護成本,同時保證性能不下降:
低計算開銷技術推動高階智駕、智艙平權,意味著低算力車載芯片(如邊緣計算單元)上也可實現(xiàn)部署高性能模型,降低對高成本GPU的依賴;再結合DualPipe算法、FP8混合精度訓練等技術,優(yōu)化算力利用率,從而實現(xiàn)中低端車型也能部署高階座艙功能、高階智駕系統(tǒng),加速智能座艙的普及。
實時性增強,在汽車行駛環(huán)境下,智駕系統(tǒng)需實時處理大量傳感器數(shù)據(jù),座艙助手需要快速響應用戶指令,而車端計算資源有限。DeepSeek 計算開銷的降低使傳感器數(shù)據(jù)的處理速度更快,可更高效的利用智駕芯片算力(服務器端訓練階段,DeepSeek實現(xiàn)了對英偉達A100芯片90%的算力利用率),同時降低延遲(如在高通8650平臺上,芯片算力同為100TOPS時,使用DeepSeek推理響應時間從20毫秒降至9 - 10毫秒)。在智駕系統(tǒng)中,可確保駕駛決策及時準確,提升駕駛安全性和用戶體驗。在座艙系統(tǒng)中,支持座艙助手快速響應用戶語音指令,實現(xiàn)流暢人機交互。
吉利星睿大模型的系統(tǒng)2接入DeepSeek R1
來源:吉利
-
AI
+關注
關注
88文章
35164瀏覽量
280041 -
汽車
+關注
關注
15文章
3858瀏覽量
39563 -
大模型
+關注
關注
2文章
3146瀏覽量
4076
原文標題:AI大模型及汽車應用研究:推理、降本和可解釋性
文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代
大模型推理顯存和計算量估計方法研究
無模型自適應控制在永磁同步電機轉(zhuǎn)速中的仿真研究
中國科學院西安光機所在計算成像可解釋性深度學習重建方法取得進展

首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應手
了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇
Qwen大模型助力開發(fā)低成本AI推理方案
小白學解釋性AI:從機器學習到大模型

AI模型思維鏈功能升級,提升透明度與可信度
阿里云開源推理大模型QwQ
FPGA和ASIC在大模型推理加速中的應用

評論