chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

AI大模型在汽車應用中的推理、降本與可解釋性研究

佐思汽車研究 ? 來源:佐思汽車研究 ? 2025-02-18 15:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領域的應用研究報告》。

推理能力成為大模型性能提升的驅(qū)動引擎

2024下半年以來,國內(nèi)外大模型公司紛紛推出推理模型,通過以CoT為代表的推理框架,加強大模型對復雜任務處理能力和自主決策能力。

部分大模型公司的推理模型發(fā)布情況

27871978-edbd-11ef-9310-92fbcf53809c.png

來源:佐思汽研《2024-2025年AI大模型及其在汽車領域的應用研究報告》

推理模型的密集上線,是為了提升大模型在復雜場景下的應對能力,同時也為Agent上線奠定基礎;具體到汽車行業(yè),汽車大模型推理能力的提升,能夠切實解決AI應用場景下的痛點問題,如加強座艙助手對復雜語義的意圖識別和提升自動駕駛規(guī)劃決策中的時空預測場景精度。

部分汽車AI應用場景下對大模型推理能力的需求

2799bb6e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

2024年,上車的主流大模型推理技術仍以思維鏈CoT及其變種為主(如思維樹ToT、思維圖GoT、思維森林FoT等),在不同的場景下會融合生成模型(如擴散模型)、知識圖譜、因果推理模型、累積推理、多模態(tài)推理鏈等技術。

如吉利提出模塊化思維語言模型(MeTHanol),讓大語言模型合成人類思維并用于監(jiān)督 LLM 的隱藏層,通過適應日常對話和個性化提示,生成類似人類的思維行為,增強大語言模型的思維和推理能力,并提升可解釋性。

MeTHanol(含中間思維層的雙層微調(diào)和兩階段推理)與標準SFT技術的對比

27b839e0-edbd-11ef-9310-92fbcf53809c.png

來源:吉利

2025年,推理技術的重點會向多模態(tài)推理轉(zhuǎn)移,常用的訓練技術包括指令微調(diào)、多模態(tài)上下文學習與多模態(tài)思維鏈(M - CoT)等,多通過多模態(tài)融合對齊技術與LLM的推理技術結合而成。

部分多模態(tài)推理技術

27bc61a0-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

可解釋性成為AI與用戶的信任橋梁

在用戶體會到AI的“好用”之前,首先需要滿足用戶對AI的“信任”,所以,2025年,AI系統(tǒng)運行的可解釋性成為汽車AI用戶基數(shù)增長的關鍵一環(huán),該痛點也可通過長思維鏈的展示來解決。

AI系統(tǒng)的可解釋性可通過數(shù)據(jù)可解釋性、模型可解釋性和事后可解釋性三個層面分別實現(xiàn):

AI可解釋性的三個層面

27d808c4-edbd-11ef-9310-92fbcf53809c.png

27e7c71e-edbd-11ef-9310-92fbcf53809c.png

來源:IEEE;整理:佐思汽研

以理想為例,理想 L3 智駕通過 “AI 推理可視化技術”,可直觀呈現(xiàn)端到端 + VLM 模型的思考過程,涵蓋從物理世界感知輸入到大模型完成行駛決策輸出的全流程,提升用戶對智能駕駛系統(tǒng)的信任。

理想L3智駕的可解釋性

28058db2-edbd-11ef-9310-92fbcf53809c.jpg

來源:理想

理想的“AI推理可視化技術”中:

Attention(注意力系統(tǒng))主要負責展示車輛感知到的交通和環(huán)境路況信息,能對實時視頻流中的交通參與者進行行為評估,并使用熱力圖展示評估對象。

E2E(端到端模型)用于展示行駛軌跡輸出的思考過程。模型會思考不同的行駛軌跡,展示 10 個候選輸出結果,最終采用概率最大的輸出結果作為行駛路徑。

VLM(視覺語言模型)可展示自身的感知、推理和決策過程,其工作過程使用對話形式展示。

同時,理想Agent“理想同學”也提供可視化的工作流:

“理想同學”工作流

2809803e-edbd-11ef-9310-92fbcf53809c.png

來源:理想

同樣通過長思維鏈進行推理流程拆解的還有各個推理模型的對話界面,以DeepSeek R1為例,在與用戶的對話中,會先通過思維鏈展示每一個節(jié)點的決策,并通過自然語言進行說明。

DeepSeek R1長思維鏈界面

2823b4a4-edbd-11ef-9310-92fbcf53809c.png

來源:DeepSeek R1對話界面

此外,智譜的GLM-Zero-Preview、阿里的QwQ-32B-Preview、天工4.0 o1等大部分推理模型均支持長思維鏈推理流程展示。

DeepSeek降低大模型上車的門檻,性能提升與降本兼得

推理能力乃至綜合性能的提升,是否意味著需要付出高額成本?從DeepSeek的爆火來看,并不是。2025年初,主機廠先后接入DeepSeek,從應用詳情來看,基本上是以提升車載大模型的綜合能力為主。

2025年初,部分主機廠與DeepSeek合作情況

283cf73e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

事實上,DeepSeek系列模型推出之前,各大主機廠已經(jīng)按照自己的節(jié)奏有序推進旗下車載AI大模型的開發(fā)與迭代工作。以座艙助手為例,部分主機廠的方案已經(jīng)初步完成構建,并已接入云端大模型供應商試運行或初步敲定供應商,其中不乏阿里云、騰訊云等云服務廠商以及智譜等大模型公司,2025年初再次接入DeepSeek,看重的包括:

強大的推理性能表現(xiàn),如推理模型R1的性能與OPEN AI 推理模型o1相當,甚至在數(shù)學邏輯方面更為突出;

更低的成本,在保證性能的同時,訓練與推理成本均保持在同行業(yè)較低水平。

DeepSeek R1與OPEN AI o1模型成本的比較

285b919e-edbd-11ef-9310-92fbcf53809c.png

來源:公開信息

以上2點優(yōu)勢均在DeepSeek的技術創(chuàng)新上有所體現(xiàn):

DeepSeek系列的部分技術對大模型性能和成本的影響

28669efe-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

通過接入DeepSeek,主機廠在部署智駕和座艙助手時,可以切實地降低大模型性能硬件采購、模型訓練與維護成本,同時保證性能不下降:

低計算開銷技術推動高階智駕、智艙平權,意味著低算力車載芯片(如邊緣計算單元)上也可實現(xiàn)部署高性能模型,降低對高成本GPU的依賴;再結合DualPipe算法、FP8混合精度訓練等技術,優(yōu)化算力利用率,從而實現(xiàn)中低端車型也能部署高階座艙功能、高階智駕系統(tǒng),加速智能座艙的普及。

實時性增強,在汽車行駛環(huán)境下,智駕系統(tǒng)需實時處理大量傳感器數(shù)據(jù),座艙助手需要快速響應用戶指令,而車端計算資源有限。DeepSeek 計算開銷的降低使傳感器數(shù)據(jù)的處理速度更快,可更高效的利用智駕芯片算力(服務器端訓練階段,DeepSeek實現(xiàn)了對英偉達A100芯片90%的算力利用率),同時降低延遲(如在高通8650平臺上,芯片算力同為100TOPS時,使用DeepSeek推理響應時間從20毫秒降至9 - 10毫秒)。在智駕系統(tǒng)中,可確保駕駛決策及時準確,提升駕駛安全性和用戶體驗。在座艙系統(tǒng)中,支持座艙助手快速響應用戶語音指令,實現(xiàn)流暢人機交互。

吉利星睿大模型的系統(tǒng)2接入DeepSeek R1

28862d00-edbd-11ef-9310-92fbcf53809c.png

來源:吉利

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    35164

    瀏覽量

    280041
  • 汽車
    +關注

    關注

    15

    文章

    3858

    瀏覽量

    39563
  • 大模型
    +關注

    關注

    2

    文章

    3146

    瀏覽量

    4076

原文標題:AI大模型及汽車應用研究:推理、降本和可解釋性

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎技術研究有限公司開發(fā)的新一代AI模型。其核心優(yōu)勢
    發(fā)表于 07-16 15:29

    模型推理顯存和計算量估計方法研究

    ,為實際應用提供了有益的參考。 未來,我們將繼續(xù)深入研究模型推理的優(yōu)化方法,以降低顯存和計算資源的需求,提高深度學習模型實際應用
    發(fā)表于 07-03 19:43

    模型自適應控制永磁同步電機轉(zhuǎn)速的仿真研究

    的可行和有效。 純分享帖,點擊下方附件免費獲取完整資料~~~ *附件:無模型自適應控制永磁同步電機轉(zhuǎn)速的仿真
    發(fā)表于 06-25 13:01

    中國科學院西安光機所在計算成像可解釋性深度學習重建方法取得進展

    圖1 MDFP-Net網(wǎng)絡結構 近日,中國科學院西安光機所空間光學技術研究計算成像可解釋性深度學習重建方法研究取得創(chuàng)新進展。相關
    的頭像 發(fā)表于 06-09 09:27 ?225次閱讀
    中國科學院西安光機所在計算成像<b class='flag-5'>可解釋性</b>深度學習重建方法取得進展

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應手

    PIX GP模型的整合,并且針對模型進行全鏈路微秒級分析,以確保最佳的端到端性能表現(xiàn)。雙方的整個合作流程,開發(fā)效率提升了30%。 天璣AI
    發(fā)表于 04-13 19:52

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇

    ) 擴展上下文+結構化推理(支持更長復雜輸入) 響應控制 通用流暢優(yōu)先 強化分步解釋與中間過程可解釋性 3. 技術架構差異 技術點 DeepSeek-V3 DeepSeek-R1 訓
    發(fā)表于 02-14 02:08

    Qwen大模型助力開發(fā)低成本AI推理方案

    阿里巴巴的開源Qwen2.5模型近期AI領域引發(fā)了廣泛關注。這一大模型的推出,為斯坦福大學與伯克利大學的研究人員提供了強大的技術支持,使他
    的頭像 發(fā)表于 02-12 09:19 ?663次閱讀

    小白學解釋性AI:從機器學習到大模型

    科學AI需要可解釋性人工智能的崛起,尤其是深度學習的發(fā)展,眾多領域帶來了令人矚目的進步。然而,伴隨這些進步而來的是一個關鍵問題——“黑箱”問題。許多人工智能模型,特別是復雜的
    的頭像 發(fā)表于 02-10 12:12 ?632次閱讀
    小白學<b class='flag-5'>解釋性</b><b class='flag-5'>AI</b>:從機器學習到大<b class='flag-5'>模型</b>

    AI模型思維鏈功能升級,提升透明度與可信度

    的透明度。 值得注意的是,此次更新發(fā)生在DeepSeek-R1推理模型發(fā)布之后。作為OpenAI的競爭對手,DeepSeek-R1同樣具備展示其反應背后思維過程的能力。兩大模型在這一功能上的不謀而合,無疑彰顯了AI領域?qū)τ谔嵘龥Q
    的頭像 發(fā)表于 02-10 09:06 ?545次閱讀

    阿里云開源推理模型QwQ

    推理能力,尤其在數(shù)學和編程方面表現(xiàn)突出。其整體推理水平已經(jīng)可以與OpenAI的o1模型相媲美,這充分展示了QwQ的強大實力和潛力。 QwQ(Qwen with Questions)是通義千問Qwen大
    的頭像 發(fā)表于 11-29 11:30 ?1173次閱讀

    高效大模型推理綜述

    模型由于其各種任務的出色表現(xiàn)而引起了廣泛的關注。然而,大模型推理的大量計算和內(nèi)存需求對其
    的頭像 發(fā)表于 11-15 11:45 ?1466次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    FPGA和ASIC模型推理加速的應用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言
    的頭像 發(fā)表于 10-29 14:12 ?2035次閱讀
    FPGA和ASIC<b class='flag-5'>在</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速<b class='flag-5'>中</b>的應用

    常見AI模型的比較與選擇指南

    選擇AI模型時,明確具體需求、了解模型的訓練數(shù)據(jù)、計算資源要求和成本,并考慮模型可解釋性
    的頭像 發(fā)表于 10-23 15:36 ?2674次閱讀

    AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    。 4. 物理與AI的融合 閱讀過程,我對于物理與AI的融合有了更加深入的認識。AI for Science不僅依賴于數(shù)據(jù),還需要結合物
    發(fā)表于 10-14 09:16

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型處理復雜任務
    的頭像 發(fā)表于 07-24 11:38 ?1826次閱讀