chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

終于有人把端側(cè)大模型說清楚了

穎脈Imgtec ? 2025-07-24 12:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近總聽到"端側(cè)大模型"這個(gè)詞,感覺很高大上,但到底是什么意思?和我們平時(shí)用的ChatGPT、DeepSeek各種大模型有什么區(qū)別?今天就來徹底搞清楚這件事。


1、為什么叫"端側(cè)"大模型?

在聊具體內(nèi)容之前,先解釋一下這個(gè)名字的由來。在計(jì)算機(jī)和通信領(lǐng)域,我們通常把整個(gè)系統(tǒng)分為幾個(gè)層次:

  • 云端(Cloud):遠(yuǎn)程的數(shù)據(jù)中心和服務(wù)器
  • 邊緣(Edge):靠近用戶的邊緣服務(wù)器和基站
  • 端側(cè)(Device/Client):用戶直接使用的終端設(shè)備

所以"端側(cè)大模型"這個(gè)名字,直接點(diǎn)出了它的核心特征:運(yùn)行在終端設(shè)備上的大語言模型。在英文里,通常叫做"On-Device Large Language Model"或者"Edge AI Model"。為什么不叫"本地大模型"或者"離線大模型"?因?yàn)?端側(cè)"這個(gè)詞更準(zhǔn)確地描述了它在整個(gè)計(jì)算架構(gòu)中的位置,也暗示了它可能與邊緣和云端進(jìn)行協(xié)同工作,而不是完全孤立運(yùn)行。


2、先說說什么是端側(cè)大模型

簡單來說,端側(cè)大模型就是能夠在你的手機(jī)、電腦、汽車這些"端設(shè)備"上直接運(yùn)行的大語言模型,不需要聯(lián)網(wǎng)到云端服務(wù)器。你想想平時(shí)用ChatGPT的場景:打開網(wǎng)頁或APP,輸入問題,等待幾秒鐘,然后得到回答。這個(gè)過程中,你的問題被發(fā)送到了OpenAI的服務(wù)器,在云端的大型GPU集群上處理,然后把結(jié)果傳回給你。而端側(cè)大模型呢?整個(gè)AI模型就"住"在你的設(shè)備里,不用聯(lián)網(wǎng),直接在本地處理你的問題。就像以前我們把軟件安裝在電腦上一樣,現(xiàn)在我們把AI"安裝"在設(shè)備上。


3、為什么突然火起來了?

云端模型的三大痛點(diǎn)1. 網(wǎng)絡(luò)依賴癥
沒有網(wǎng)絡(luò)就廢了,網(wǎng)絡(luò)不好就卡得要死。你在地下室、飛機(jī)上、山區(qū)里想用AI?抱歉,臣妾做不到。2. 隱私擔(dān)憂
你的聊天記錄、文檔內(nèi)容都要上傳到云端處理,萬一泄露怎么辦?特別是涉及商業(yè)機(jī)密、個(gè)人隱私的內(nèi)容,很多用戶心里都犯嘀咕。3. 個(gè)性化不足
云端模型要服務(wù)全球用戶,很難針對(duì)你個(gè)人的使用習(xí)慣和需求進(jìn)行深度定制。就像一個(gè)大眾化的產(chǎn)品,很難滿足每個(gè)人的個(gè)性化需求。硬件技術(shù)的突飛猛進(jìn)另一方面,我們的設(shè)備越來越強(qiáng)大了:

  • 手機(jī)芯片的AI算力提升了幾十倍
  • 內(nèi)存容量越來越大
  • 專門的AI芯片開始普及

這就給端側(cè)部署大模型提供了可能性。


4、端側(cè)大模型的"超能力"

端側(cè)大模型確實(shí)有著令人興奮的"超能力"。首先是閃電般的響應(yīng)速度,不用等網(wǎng)絡(luò)傳輸,本地直接處理,響應(yīng)速度可以快到毫秒級(jí),想象一下你說話的同時(shí)AI就開始實(shí)時(shí)翻譯的絲滑體驗(yàn)。其次是天然的隱私保護(hù),數(shù)據(jù)不出設(shè)備,你的聊天記錄、工作文檔都在本地處理,不用擔(dān)心被窺探。更重要的是個(gè)性化定制能力,可以根據(jù)你的使用習(xí)慣、語言偏好、專業(yè)領(lǐng)域進(jìn)行定制訓(xùn)練,真正成為專屬AI助手。最后還有永不掉線的優(yōu)勢,沒網(wǎng)也能用,飛機(jī)上、地下室、野外探險(xiǎn),隨時(shí)隨地都是你的AI伙伴。但現(xiàn)實(shí)往往很骨感,端側(cè)大模型聽起來美好,實(shí)際部署起來卻困難重重。最大的攔路虎是資源限制問題——大語言模型動(dòng)輒幾十GB、上百GB,參數(shù)量達(dá)到幾百億甚至上千億,而我們的手機(jī)內(nèi)存才8GB、12GB,這就像要把一頭大象裝進(jìn)冰箱。為了在設(shè)備上運(yùn)行,必須對(duì)模型進(jìn)行"瘦身",但瘦身就意味著能力下降,如何在保持性能的同時(shí)大幅減小模型體積是個(gè)巨大的技術(shù)難題。更復(fù)雜的是設(shè)備碎片化問題,不同廠商的硬件架構(gòu)千差萬別——iPhone用A系列芯片,Android手機(jī)有驍龍、麒麟、天璣等各種芯片,還有各種不同的AI專用芯片,同一個(gè)模型要適配這么多種硬件,難度可想而知。


5、技術(shù)大神們是怎么解決的?

1. 模型壓縮三板斧

  • 網(wǎng)絡(luò)剪枝

就像修剪花園一樣,把模型中不重要的連接"剪掉"。比如一個(gè)神經(jīng)網(wǎng)絡(luò)有1萬個(gè)連接,經(jīng)過剪枝后可能只保留3000個(gè)重要的連接,模型小了很多,但效果基本不變。

  • 低精度量化

原來用32位浮點(diǎn)數(shù)存儲(chǔ)參數(shù),現(xiàn)在改用8位甚至4位整數(shù)。就像照片從高清改成標(biāo)清,文件小了很多,但核心內(nèi)容還在。

  • 知識(shí)蒸餾

讓一個(gè)小模型去"學(xué)習(xí)"大模型的精華。就像武俠小說里的傳功,大師把內(nèi)力傳給徒弟,雖然徒弟的"硬件"不如師父,但能學(xué)到精髓。2. 運(yùn)行時(shí)優(yōu)化黑科技

  • KV-Cache優(yōu)化

這是個(gè)很技術(shù)的概念,簡單說就是把之前計(jì)算過的結(jié)果緩存起來,避免重復(fù)計(jì)算。就像你做數(shù)學(xué)題時(shí),把中間步驟的結(jié)果記下來,后面直接用,不用重新算。

  • 混合專家模型(MoE)

不是所有的"專家"都同時(shí)工作,而是根據(jù)問題類型激活對(duì)應(yīng)的專家。就像醫(yī)院里,感冒了找內(nèi)科醫(yī)生,骨折了找骨科醫(yī)生,不需要所有科室的醫(yī)生都出動(dòng)。3. 端邊云協(xié)同大招既然單個(gè)設(shè)備能力有限,那就多個(gè)設(shè)備協(xié)同作戰(zhàn):

  • 模型拆分

把大模型拆成幾部分,一部分在手機(jī)上,一部分在邊緣服務(wù)器上,一部分在云端。就像流水線作業(yè),每個(gè)環(huán)節(jié)負(fù)責(zé)自己擅長的部分。

  • 大小模型配合

平時(shí)用小模型處理簡單問題,遇到復(fù)雜問題再調(diào)用云端大模型。就像平時(shí)用計(jì)算器算數(shù),復(fù)雜的統(tǒng)計(jì)分析才用電腦。


6、誰在這個(gè)賽道上狂奔?

  • 手機(jī)廠商最積極

蘋果、華為、小米等都在自己的芯片中加入AI處理單元,推出各種本地AI功能:

  • 芯片廠商在狂飆

算能、高通英特爾都在推出專門的AI芯片,算力越來越強(qiáng),功耗越來越低。

  • AI公司也沒閑著

Meta推出了Llama系列,專門優(yōu)化了移動(dòng)端版本;谷歌的Gemini Nano可以在手機(jī)上運(yùn)行;國內(nèi)的百度、阿里、字節(jié)、面壁智能等也都有相應(yīng)布局。


7、現(xiàn)在能用到哪些端側(cè)AI?

雖然技術(shù)還在發(fā)展中,但已經(jīng)有不少產(chǎn)品可以體驗(yàn)了:手機(jī)上的AI助手

  • iPhone的Siri,語音識(shí)別和簡單對(duì)話已經(jīng)本地化
  • 華為手機(jī)的小藝,支持本地語音翻譯
  • 三星的Bixby,本地圖像識(shí)別和語音控制

專業(yè)工具

  • 一些代碼編輯器開始集成本地AI代碼補(bǔ)全
  • 本地運(yùn)行的AI寫作助手
  • 離線的AI翻譯工具

開源項(xiàng)目

  • Ollama:可以在個(gè)人電腦上運(yùn)行各種開源大模型
  • llama.cpp:專門優(yōu)化的本地運(yùn)行框架
  • MLX:蘋果推出的機(jī)器學(xué)習(xí)框架

8、還有哪些挑戰(zhàn)需要解決?

  • 技術(shù)挑戰(zhàn)

1. 模型壓縮的天花板目前的壓縮技術(shù)雖然能顯著減小模型大小,但壓縮比達(dá)到一定程度后,效果下降會(huì)很明顯。如何突破這個(gè)天花板?2. 硬件適配的復(fù)雜性不同設(shè)備的硬件差異巨大,如何讓同一個(gè)模型在各種設(shè)備上都能高效運(yùn)行?3. 實(shí)時(shí)學(xué)習(xí)和更新如何讓端側(cè)模型能夠持續(xù)學(xué)習(xí)用戶的偏好,同時(shí)保持模型的穩(wěn)定性?

  • 商業(yè)挑戰(zhàn)

1. 成本控制端側(cè)部署需要更強(qiáng)大的硬件,會(huì)推高設(shè)備成本,消費(fèi)者買賬嗎?2. 生態(tài)建設(shè)需要操作系統(tǒng)、芯片廠商、應(yīng)用開發(fā)者共同參與,如何構(gòu)建完整的生態(tài)?3. 標(biāo)準(zhǔn)化行業(yè)需要統(tǒng)一的標(biāo)準(zhǔn)和規(guī)范,避免各家自立門戶。


9、寫在最后

端側(cè)大模型不是要完全取代云端AI,而是要構(gòu)建一個(gè)更加靈活、高效、安全的AI服務(wù)體系。就像當(dāng)年云計(jì)算沒有完全取代本地計(jì)算一樣,未來的AI世界應(yīng)該是端云并存、各司其職的。對(duì)于普通用戶來說,最直觀的變化就是:AI會(huì)變得更快、更私密、更個(gè)性化。你的手機(jī)會(huì)真正成為你的智能助手,不再是一個(gè)需要聯(lián)網(wǎng)才能變聰明的"傻瓜"。對(duì)于開發(fā)者來說,這是一個(gè)全新的機(jī)遇。移動(dòng)互聯(lián)網(wǎng)時(shí)代誕生了無數(shù)優(yōu)秀的APP,端側(cè)AI時(shí)代同樣會(huì)催生新一代的應(yīng)用和服務(wù)。對(duì)于整個(gè)行業(yè)來說,這是AI技術(shù)從"集中式"向"分布式"的重要轉(zhuǎn)變,將推動(dòng)AI技術(shù)的進(jìn)一步普及和深入。技術(shù)的發(fā)展總是螺旋上升的,端側(cè)大模型現(xiàn)在還在早期階段,但發(fā)展速度非???。也許用不了幾年,我們就會(huì)習(xí)慣于擁有一個(gè)隨身攜帶、專屬定制、永不掉線的AI伙伴。那時(shí)候回頭看今天,可能會(huì)覺得現(xiàn)在的AI應(yīng)用還太原始。但這就是技術(shù)進(jìn)步的魅力所在——每一天的積累,都在為未來的突破做準(zhǔn)備。

文章來源于邊緣計(jì)算社區(qū)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    36982

    瀏覽量

    289882
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    566

    瀏覽量

    11173
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3348

    瀏覽量

    4701
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    廣和通發(fā)布側(cè)情感對(duì)話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的側(cè)情感對(duì)話大模型FiboEmo-LLM。該模型專注于情感計(jì)算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場景提供“情感理解-情感響應(yīng)”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1417次閱讀

    華為CANN與智譜GLM側(cè)模型完成適配

    已于7月28日正式開源其新一代基座模型GLM-4.5,其GLM側(cè)模型已完成與CANN的適配。這標(biāo)志著國產(chǎn)大模型與計(jì)算架構(gòu)在
    的頭像 發(fā)表于 08-11 11:00 ?1992次閱讀

    側(cè)模型迎來“輕”革命!移遠(yuǎn)通信 × RWKV 打造“輕量AI大腦”

    7月27日,移遠(yuǎn)通信宣布與RWKV公司建立全面合作關(guān)系,雙方將依托移遠(yuǎn)的算力平臺(tái),優(yōu)化并支持RWKV最新模型架構(gòu),共同推動(dòng)大模型側(cè)設(shè)備的低資源占用部署。此次合作成果于2025世界人
    的頭像 發(fā)表于 07-27 19:02 ?514次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>迎來“輕”革命!移遠(yuǎn)通信 × RWKV 打造“輕量AI大腦”

    面壁小鋼炮模型MiniCPM4.0發(fā)布,側(cè)智能更進(jìn)一步

    版和0.5B最強(qiáng)小小鋼炮。 ? ? 李大海表示,面壁智能是第一個(gè)全模態(tài)模型帶到側(cè)的公司。面壁智能小鋼炮,旨在
    的頭像 發(fā)表于 06-08 08:18 ?6547次閱讀
    面壁小鋼炮<b class='flag-5'>模型</b>MiniCPM4.0發(fā)布,<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>智能更進(jìn)一步

    德賽西威側(cè)模型重塑智能座艙體驗(yàn)

    智能汽車產(chǎn)業(yè)發(fā)展正從規(guī)模擴(kuò)張向質(zhì)量躍升轉(zhuǎn)變,其中大模型驅(qū)動(dòng)的智能化升級(jí)將成為產(chǎn)業(yè)突破的核心引擎。在日前召開的2025上海車展國際汽車關(guān)鍵技術(shù)論壇上,德賽西威技術(shù)中心人工智能實(shí)驗(yàn)室專家張書赫博士以《側(cè)智能·重塑體驗(yàn)》為題,分享
    的頭像 發(fā)表于 05-15 09:13 ?1432次閱讀

    德賽西威與面壁智能發(fā)布側(cè)模型語音交互方案

    日前,全球領(lǐng)先的移動(dòng)出行科技公司德賽西威與側(cè)模型技術(shù)領(lǐng)軍企業(yè)面壁智能共同發(fā)布業(yè)界首個(gè)基于高通座艙平臺(tái)(SA8255P,簡稱8255)的側(cè)
    的頭像 發(fā)表于 05-14 17:40 ?907次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓側(cè)AI模型接入得心應(yīng)手

    ,聯(lián)發(fā)科帶來了全面升級(jí)的天璣AI開發(fā)套件2.0,在模型庫規(guī)模、架構(gòu)開放程度、前沿側(cè)AI技術(shù)支持和側(cè)LoRA訓(xùn)練落地等方面均迎來全面躍遷,
    發(fā)表于 04-13 19:52

    AI大模型側(cè)部署正當(dāng)時(shí):移遠(yuǎn)端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術(shù)飛速發(fā)展的當(dāng)下,AI大模型的應(yīng)用正從云端向側(cè)加速滲透。 作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大模型
    發(fā)表于 03-27 11:26 ?351次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)部署正當(dāng)時(shí):移遠(yuǎn)端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    AI大模型側(cè)部署正當(dāng)時(shí):移遠(yuǎn)端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術(shù)飛速發(fā)展的當(dāng)下,AI大模型的應(yīng)用正從云端向側(cè)加速滲透。作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大模型
    的頭像 發(fā)表于 03-26 19:05 ?758次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)部署正當(dāng)時(shí):移遠(yuǎn)端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    一文說清楚什么是AI大模型

    目前,大模型(特別是在2023年及之后的語境中)通常特指大語言模型(LLM, Large Language Model),但其范圍也涵蓋其他領(lǐng)域的超大規(guī)模深度學(xué)習(xí)模型,例如圖像生成模型
    的頭像 發(fā)表于 01-02 09:53 ?3508次閱讀
    一文<b class='flag-5'>說清楚</b>什么是AI大<b class='flag-5'>模型</b>

    廣和通開啟側(cè)AI新時(shí)代

    AI發(fā)展正酣,隨著終端芯片算力越來越高、側(cè)模型能力越來越強(qiáng)、實(shí)時(shí)響應(yīng)及隱私保護(hù)的側(cè)應(yīng)用需求增加,
    的頭像 發(fā)表于 12-12 10:35 ?1110次閱讀

    訊飛星火側(cè)模型發(fā)布

    參數(shù)量小、內(nèi)存占比小的側(cè)模型,正成為“兵家必爭之地”。
    的頭像 發(fā)表于 12-04 16:07 ?1586次閱讀

    智譜推出四個(gè)全新側(cè)模型 攜英特爾按下AI普及加速鍵

    隨著AI的發(fā)展,側(cè)AI模型越來越受到廣大客戶及廠商的關(guān)注,業(yè)界領(lǐng)先的大模型公司智譜于近日推出了四個(gè)全新的
    的頭像 發(fā)表于 12-02 17:13 ?770次閱讀
    智譜推出四個(gè)全新<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b><b class='flag-5'>模型</b> 攜英特爾按下AI普及加速鍵

    把握關(guān)鍵節(jié)點(diǎn),美格智能持續(xù)推動(dòng)側(cè)AI規(guī)?;卣?/a>

    當(dāng)前,AI大模型走向側(cè)已經(jīng)是大勢所趨,側(cè)AI的發(fā)展將推動(dòng)人工智能成為影響世界的第四次工業(yè)革命。與傳統(tǒng)的云端大
    的頭像 發(fā)表于 11-26 01:00 ?700次閱讀
    把握關(guān)鍵節(jié)點(diǎn),美格智能持續(xù)推動(dòng)<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>AI規(guī)?;卣? />    </a>
</div>                              <div   id=

    從箱子里找出來的示例:Air780E軟件指南之TCP應(yīng)用

    今天翻箱倒柜,塵封已久的關(guān)于Air780E軟件指南之TCP應(yīng)用教程翻出來給大家展示展示:讓我從概述、環(huán)境準(zhǔn)備、問題等方面來給大家說清楚。
    的頭像 發(fā)表于 11-02 11:58 ?1124次閱讀
    從箱子里找出來的示例:Air780E軟件指南之TCP應(yīng)用