chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

終于有人把端側(cè)大模型說清楚了

穎脈Imgtec ? 2025-07-24 12:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近總聽到"端側(cè)大模型"這個詞,感覺很高大上,但到底是什么意思?和我們平時用的ChatGPT、DeepSeek各種大模型有什么區(qū)別?今天就來徹底搞清楚這件事。


1、為什么叫"端側(cè)"大模型?

在聊具體內(nèi)容之前,先解釋一下這個名字的由來。在計算機和通信領域,我們通常把整個系統(tǒng)分為幾個層次:

  • 云端(Cloud):遠程的數(shù)據(jù)中心和服務器
  • 邊緣(Edge):靠近用戶的邊緣服務器和基站
  • 端側(cè)(Device/Client):用戶直接使用的終端設備

所以"端側(cè)大模型"這個名字,直接點出了它的核心特征:運行在終端設備上的大語言模型。在英文里,通常叫做"On-Device Large Language Model"或者"Edge AI Model"。為什么不叫"本地大模型"或者"離線大模型"?因為"端側(cè)"這個詞更準確地描述了它在整個計算架構中的位置,也暗示了它可能與邊緣和云端進行協(xié)同工作,而不是完全孤立運行。


2、先說說什么是端側(cè)大模型

簡單來說,端側(cè)大模型就是能夠在你的手機、電腦、汽車這些"端設備"上直接運行的大語言模型,不需要聯(lián)網(wǎng)到云端服務器。你想想平時用ChatGPT的場景:打開網(wǎng)頁或APP,輸入問題,等待幾秒鐘,然后得到回答。這個過程中,你的問題被發(fā)送到了OpenAI的服務器,在云端的大型GPU集群上處理,然后把結(jié)果傳回給你。而端側(cè)大模型呢?整個AI模型就"住"在你的設備里,不用聯(lián)網(wǎng),直接在本地處理你的問題。就像以前我們把軟件安裝在電腦上一樣,現(xiàn)在我們把AI"安裝"在設備上。


3、為什么突然火起來了?

云端模型的三大痛點1. 網(wǎng)絡依賴癥
沒有網(wǎng)絡就廢了,網(wǎng)絡不好就卡得要死。你在地下室、飛機上、山區(qū)里想用AI?抱歉,臣妾做不到。2. 隱私擔憂
你的聊天記錄、文檔內(nèi)容都要上傳到云端處理,萬一泄露怎么辦?特別是涉及商業(yè)機密、個人隱私的內(nèi)容,很多用戶心里都犯嘀咕。3. 個性化不足
云端模型要服務全球用戶,很難針對你個人的使用習慣和需求進行深度定制。就像一個大眾化的產(chǎn)品,很難滿足每個人的個性化需求。硬件技術的突飛猛進另一方面,我們的設備越來越強大了:

  • 手機芯片的AI算力提升了幾十倍
  • 內(nèi)存容量越來越大
  • 專門的AI芯片開始普及

這就給端側(cè)部署大模型提供了可能性。


4、端側(cè)大模型的"超能力"

端側(cè)大模型確實有著令人興奮的"超能力"。首先是閃電般的響應速度,不用等網(wǎng)絡傳輸,本地直接處理,響應速度可以快到毫秒級,想象一下你說話的同時AI就開始實時翻譯的絲滑體驗。其次是天然的隱私保護,數(shù)據(jù)不出設備,你的聊天記錄、工作文檔都在本地處理,不用擔心被窺探。更重要的是個性化定制能力,可以根據(jù)你的使用習慣、語言偏好、專業(yè)領域進行定制訓練,真正成為專屬AI助手。最后還有永不掉線的優(yōu)勢,沒網(wǎng)也能用,飛機上、地下室、野外探險,隨時隨地都是你的AI伙伴。但現(xiàn)實往往很骨感,端側(cè)大模型聽起來美好,實際部署起來卻困難重重。最大的攔路虎是資源限制問題——大語言模型動輒幾十GB、上百GB,參數(shù)量達到幾百億甚至上千億,而我們的手機內(nèi)存才8GB、12GB,這就像要把一頭大象裝進冰箱。為了在設備上運行,必須對模型進行"瘦身",但瘦身就意味著能力下降,如何在保持性能的同時大幅減小模型體積是個巨大的技術難題。更復雜的是設備碎片化問題,不同廠商的硬件架構千差萬別——iPhone用A系列芯片,Android手機有驍龍、麒麟、天璣等各種芯片,還有各種不同的AI專用芯片,同一個模型要適配這么多種硬件,難度可想而知。


5、技術大神們是怎么解決的?

1. 模型壓縮三板斧

  • 網(wǎng)絡剪枝

就像修剪花園一樣,把模型中不重要的連接"剪掉"。比如一個神經(jīng)網(wǎng)絡有1萬個連接,經(jīng)過剪枝后可能只保留3000個重要的連接,模型小了很多,但效果基本不變。

  • 低精度量化

原來用32位浮點數(shù)存儲參數(shù),現(xiàn)在改用8位甚至4位整數(shù)。就像照片從高清改成標清,文件小了很多,但核心內(nèi)容還在。

  • 知識蒸餾

讓一個小模型去"學習"大模型的精華。就像武俠小說里的傳功,大師把內(nèi)力傳給徒弟,雖然徒弟的"硬件"不如師父,但能學到精髓。2. 運行時優(yōu)化黑科技

  • KV-Cache優(yōu)化

這是個很技術的概念,簡單說就是把之前計算過的結(jié)果緩存起來,避免重復計算。就像你做數(shù)學題時,把中間步驟的結(jié)果記下來,后面直接用,不用重新算。

  • 混合專家模型(MoE)

不是所有的"專家"都同時工作,而是根據(jù)問題類型激活對應的專家。就像醫(yī)院里,感冒了找內(nèi)科醫(yī)生,骨折了找骨科醫(yī)生,不需要所有科室的醫(yī)生都出動。3. 端邊云協(xié)同大招既然單個設備能力有限,那就多個設備協(xié)同作戰(zhàn):

  • 模型拆分

把大模型拆成幾部分,一部分在手機上,一部分在邊緣服務器上,一部分在云端。就像流水線作業(yè),每個環(huán)節(jié)負責自己擅長的部分。

  • 大小模型配合

平時用小模型處理簡單問題,遇到復雜問題再調(diào)用云端大模型。就像平時用計算器算數(shù),復雜的統(tǒng)計分析才用電腦。


6、誰在這個賽道上狂奔?

  • 手機廠商最積極

蘋果、華為、小米等都在自己的芯片中加入AI處理單元,推出各種本地AI功能:

  • 芯片廠商在狂飆

算能、高通、英特爾都在推出專門的AI芯片,算力越來越強,功耗越來越低。

  • AI公司也沒閑著

Meta推出了Llama系列,專門優(yōu)化了移動端版本;谷歌的Gemini Nano可以在手機上運行;國內(nèi)的百度、阿里、字節(jié)、面壁智能等也都有相應布局。


7、現(xiàn)在能用到哪些端側(cè)AI?

雖然技術還在發(fā)展中,但已經(jīng)有不少產(chǎn)品可以體驗了:手機上的AI助手

  • iPhone的Siri,語音識別和簡單對話已經(jīng)本地化
  • 華為手機的小藝,支持本地語音翻譯
  • 三星的Bixby,本地圖像識別和語音控制

專業(yè)工具

  • 一些代碼編輯器開始集成本地AI代碼補全
  • 本地運行的AI寫作助手
  • 離線的AI翻譯工具

開源項目

  • Ollama:可以在個人電腦上運行各種開源大模型
  • llama.cpp:專門優(yōu)化的本地運行框架
  • MLX:蘋果推出的機器學習框架

8、還有哪些挑戰(zhàn)需要解決?

  • 技術挑戰(zhàn)

1. 模型壓縮的天花板目前的壓縮技術雖然能顯著減小模型大小,但壓縮比達到一定程度后,效果下降會很明顯。如何突破這個天花板?2. 硬件適配的復雜性不同設備的硬件差異巨大,如何讓同一個模型在各種設備上都能高效運行?3. 實時學習和更新如何讓端側(cè)模型能夠持續(xù)學習用戶的偏好,同時保持模型的穩(wěn)定性?

  • 商業(yè)挑戰(zhàn)

1. 成本控制端側(cè)部署需要更強大的硬件,會推高設備成本,消費者買賬嗎?2. 生態(tài)建設需要操作系統(tǒng)、芯片廠商、應用開發(fā)者共同參與,如何構建完整的生態(tài)?3. 標準化行業(yè)需要統(tǒng)一的標準和規(guī)范,避免各家自立門戶。


9、寫在最后

端側(cè)大模型不是要完全取代云端AI,而是要構建一個更加靈活、高效、安全的AI服務體系。就像當年云計算沒有完全取代本地計算一樣,未來的AI世界應該是端云并存、各司其職的。對于普通用戶來說,最直觀的變化就是:AI會變得更快、更私密、更個性化。你的手機會真正成為你的智能助手,不再是一個需要聯(lián)網(wǎng)才能變聰明的"傻瓜"。對于開發(fā)者來說,這是一個全新的機遇。移動互聯(lián)網(wǎng)時代誕生了無數(shù)優(yōu)秀的APP,端側(cè)AI時代同樣會催生新一代的應用和服務。對于整個行業(yè)來說,這是AI技術從"集中式"向"分布式"的重要轉(zhuǎn)變,將推動AI技術的進一步普及和深入。技術的發(fā)展總是螺旋上升的,端側(cè)大模型現(xiàn)在還在早期階段,但發(fā)展速度非???。也許用不了幾年,我們就會習慣于擁有一個隨身攜帶、專屬定制、永不掉線的AI伙伴。那時候回頭看今天,可能會覺得現(xiàn)在的AI應用還太原始。但這就是技術進步的魅力所在——每一天的積累,都在為未來的突破做準備。

文章來源于邊緣計算社區(qū)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    89

    文章

    38002

    瀏覽量

    295921
  • 語言模型
    +關注

    關注

    0

    文章

    570

    瀏覽量

    11246
  • 大模型
    +關注

    關注

    2

    文章

    3435

    瀏覽量

    4955
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    引領側(cè)模型落地!Firefly-RK182X 開發(fā)套件上線發(fā)售

    海量參數(shù)的大模型給AI行業(yè)帶來顛覆性的體驗,然而在側(cè)設備中,由于有限的DRAM帶寬、硬件算力、存儲容量等瓶頸,讓
    的頭像 發(fā)表于 11-26 16:33 ?590次閱讀
    引領<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>落地!Firefly-RK182X 開發(fā)套件上線發(fā)售

    超高頻(UHF)多標簽RFID讀取器(面向項目落地的深度指南)

    超高頻(UHF)多標簽RFID讀取器:一次能讀多張,怎么做到?怎么用好?(面向工程與落地的深度指南)這篇文章“原理、設備要點、部署細節(jié)”都說清楚,既有技術維度,也有落地建議。
    的頭像 發(fā)表于 11-01 11:37 ?157次閱讀
    超高頻(UHF)多標簽RFID讀取器(面向項目落地的深度指南)

    廣和通發(fā)布側(cè)情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的側(cè)情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設備等終端場景提供“情感理解-情感響應”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1587次閱讀

    華為CANN與智譜GLM側(cè)模型完成適配

    已于7月28日正式開源其新一代基座模型GLM-4.5,其GLM側(cè)模型已完成與CANN的適配。這標志著國產(chǎn)大模型與計算架構在
    的頭像 發(fā)表于 08-11 11:00 ?2180次閱讀

    側(cè)模型迎來“輕”革命!移遠通信 × RWKV 打造“輕量AI大腦”

    7月27日,移遠通信宣布與RWKV公司建立全面合作關系,雙方將依托移遠的算力平臺,優(yōu)化并支持RWKV最新模型架構,共同推動大模型側(cè)設備的低資源占用部署。此次合作成果于2025世界人
    的頭像 發(fā)表于 07-27 19:02 ?614次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>迎來“輕”革命!移遠通信 × RWKV 打造“輕量AI大腦”

    面壁小鋼炮模型MiniCPM4.0發(fā)布,側(cè)智能更進一步

    版和0.5B最強小小鋼炮。 ? ? 李大海表示,面壁智能是第一個全模態(tài)模型帶到側(cè)的公司。面壁智能小鋼炮,旨在
    的頭像 發(fā)表于 06-08 08:18 ?6730次閱讀
    面壁小鋼炮<b class='flag-5'>模型</b>MiniCPM4.0發(fā)布,<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>智能更進一步

    德賽西威側(cè)模型重塑智能座艙體驗

    智能汽車產(chǎn)業(yè)發(fā)展正從規(guī)模擴張向質(zhì)量躍升轉(zhuǎn)變,其中大模型驅(qū)動的智能化升級將成為產(chǎn)業(yè)突破的核心引擎。在日前召開的2025上海車展國際汽車關鍵技術論壇上,德賽西威技術中心人工智能實驗室專家張書赫博士以《側(cè)智能·重塑體驗》為題,分享
    的頭像 發(fā)表于 05-15 09:13 ?1556次閱讀

    德賽西威與面壁智能發(fā)布側(cè)模型語音交互方案

    日前,全球領先的移動出行科技公司德賽西威與側(cè)模型技術領軍企業(yè)面壁智能共同發(fā)布業(yè)界首個基于高通座艙平臺(SA8255P,簡稱8255)的側(cè)
    的頭像 發(fā)表于 05-14 17:40 ?996次閱讀

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓側(cè)AI模型接入得心應手

    ,聯(lián)發(fā)科帶來了全面升級的天璣AI開發(fā)套件2.0,在模型庫規(guī)模、架構開放程度、前沿側(cè)AI技術支持和側(cè)LoRA訓練落地等方面均迎來全面躍遷,
    發(fā)表于 04-13 19:52

    AI大模型側(cè)部署正當時:移遠端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術飛速發(fā)展的當下,AI大模型的應用正從云端向側(cè)加速滲透。 作為全球領先的物聯(lián)網(wǎng)整體解決方案供應商,移遠通信憑借深厚的技術積累與前瞻性的戰(zhàn)略布局,在AI大模型
    發(fā)表于 03-27 11:26 ?409次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)部署正當時:移遠端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    AI大模型側(cè)部署正當時:移遠端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術飛速發(fā)展的當下,AI大模型的應用正從云端向側(cè)加速滲透。作為全球領先的物聯(lián)網(wǎng)整體解決方案供應商,移遠通信憑借深厚的技術積累與前瞻性的戰(zhàn)略布局,在AI大模型
    的頭像 發(fā)表于 03-26 19:05 ?947次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)部署正當時:移遠端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    一文說清楚什么是AI大模型

    目前,大模型(特別是在2023年及之后的語境中)通常特指大語言模型(LLM, Large Language Model),但其范圍也涵蓋其他領域的超大規(guī)模深度學習模型,例如圖像生成模型
    的頭像 發(fā)表于 01-02 09:53 ?3911次閱讀
    一文<b class='flag-5'>說清楚</b>什么是AI大<b class='flag-5'>模型</b>

    廣和通開啟側(cè)AI新時代

    AI發(fā)展正酣,隨著終端芯片算力越來越高、側(cè)模型能力越來越強、實時響應及隱私保護的側(cè)應用需求增加,
    的頭像 發(fā)表于 12-12 10:35 ?1248次閱讀

    訊飛星火側(cè)模型發(fā)布

    參數(shù)量小、內(nèi)存占比小的側(cè)模型,正成為“兵家必爭之地”。
    的頭像 發(fā)表于 12-04 16:07 ?1759次閱讀

    智譜推出四個全新側(cè)模型 攜英特爾按下AI普及加速鍵

    隨著AI的發(fā)展,側(cè)AI模型越來越受到廣大客戶及廠商的關注,業(yè)界領先的大模型公司智譜于近日推出了四個全新的
    的頭像 發(fā)表于 12-02 17:13 ?839次閱讀
    智譜推出四個全新<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b><b class='flag-5'>模型</b> 攜英特爾按下AI普及加速鍵