chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Liquid AI發(fā)布邊緣AI模型LFM2,實(shí)現(xiàn)毫秒級(jí)實(shí)時(shí)推理與離線運(yùn)行

Carol Li ? 來(lái)源:電子發(fā)燒友 ? 作者:李彎彎 ? 2025-07-15 08:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近日,美國(guó)初創(chuàng)公司Liquid AI宣布正式推出下一代Liquid基礎(chǔ)模型(LFM2),該模型在邊緣模型類別中創(chuàng)下了速度、能效和質(zhì)量的新紀(jì)錄。

LFM2的誕生源于對(duì)AI底層邏輯的重構(gòu)。與傳統(tǒng)基于Transformer的模型不同,LFM2采用結(jié)構(gòu)化、自適應(yīng)的算子構(gòu)建,其靈感源自動(dòng)態(tài)系統(tǒng)理論、信號(hào)處理與數(shù)值線性代數(shù)的深度融合。

這種設(shè)計(jì)使模型具備三大核心優(yōu)勢(shì):其一,訓(xùn)練效率較上一代提升300%,在CPU上吞吐量較Qwen3、Gemma等模型提升200%,延遲顯著降低;其二,在長(zhǎng)上下文處理(如32k token文檔分析)和資源受限場(chǎng)景(如移動(dòng)端、物聯(lián)網(wǎng)設(shè)備)中表現(xiàn)卓越;其三,通過(guò)優(yōu)化內(nèi)存占用(LFM-3B僅需16GB內(nèi)存,遠(yuǎn)低于Meta Llama-3.2-3B的48GB),實(shí)現(xiàn)毫秒級(jí)實(shí)時(shí)推理與離線運(yùn)行。

“我們以第一性原理構(gòu)建模型,如同工程師設(shè)計(jì)發(fā)動(dòng)機(jī)般嚴(yán)謹(jǐn)。”Liquid AI聯(lián)合創(chuàng)始人兼CEO Ramin Hasani在發(fā)布會(huì)上強(qiáng)調(diào),“LFM2的目標(biāo)是讓每臺(tái)設(shè)備都成為本地AI中心,釋放生成式AI在邊緣場(chǎng)景的潛力。”

從實(shí)測(cè)數(shù)據(jù)來(lái)看,在指令遵循、函數(shù)調(diào)用等智能體AI關(guān)鍵屬性上,LFM2平均表現(xiàn)顯著優(yōu)于同規(guī)模競(jìng)品,成為本地與邊緣用例的理想選擇;

在MMLU(多模態(tài)學(xué)習(xí)理解)、RULER(長(zhǎng)上下文推理)等權(quán)威評(píng)測(cè)中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B則以混合專家(MoE)架構(gòu)實(shí)現(xiàn)質(zhì)量與成本的平衡;

生態(tài)兼容性方面,模型權(quán)重已開(kāi)源至Hugging Face,支持通過(guò)Liquid Playground即時(shí)測(cè)試,并即將集成至邊緣AI平臺(tái)與iOS原生應(yīng)用。

LFM2的發(fā)布,恰逢全球邊緣AI市場(chǎng)爆發(fā)前夜。據(jù)預(yù)測(cè),僅消費(fèi)電子、機(jī)器人、智能家電等領(lǐng)域的邊緣AI技術(shù),即可在2035年推動(dòng)總潛在市場(chǎng)規(guī)模逼近1萬(wàn)億美元。Liquid AI已與《財(cái)富》500強(qiáng)企業(yè)展開(kāi)合作,通過(guò)提供超高效率的小型多模態(tài)基礎(chǔ)模型與安全的企業(yè)級(jí)部署方案,助力客戶實(shí)現(xiàn)數(shù)據(jù)主權(quán)與隱私保護(hù)。

“將大型生成式模型從云端遷移至設(shè)備端,是AI普惠化的必經(jīng)之路。”Hasani指出,“LFM2的毫秒級(jí)延遲與離線能力,對(duì)手機(jī)、汽車、衛(wèi)星等實(shí)時(shí)性要求極高的終端至關(guān)重要?!蹦壳?,該公司已與國(guó)防、航天、網(wǎng)絡(luò)安全等領(lǐng)域達(dá)成戰(zhàn)略合作,其技術(shù)棧正成為高安全性場(chǎng)景的首選方案。

LFM2的發(fā)布,只是Liquid AI技術(shù)長(zhǎng)征的第一步。據(jù)透露,未來(lái)幾個(gè)月內(nèi),公司將陸續(xù)推出系列強(qiáng)大模型,覆蓋更廣泛的模態(tài)與場(chǎng)景。隨著企業(yè)從云端LLM轉(zhuǎn)向經(jīng)濟(jì)高效、快速、私密的本地智能,LFM2或?qū)⒊蔀锳I技術(shù)民主化的關(guān)鍵推手。



聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 邊緣AI
    +關(guān)注

    關(guān)注

    0

    文章

    239

    瀏覽量

    6139
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在邊緣AI應(yīng)用場(chǎng)景中實(shí)現(xiàn)高性能、低功耗推理(上)

    。這種方法需要巨大的帶寬才能將海量數(shù)據(jù)傳輸?shù)皆贫恕?邊緣設(shè)備越來(lái)越多地使用AI推理技術(shù),以實(shí)現(xiàn)快速實(shí)時(shí)響應(yīng)并提高數(shù)據(jù)隱私和安全性,同時(shí)避免與
    的頭像 發(fā)表于 02-27 07:48 ?7700次閱讀
    如何在<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>應(yīng)用場(chǎng)景中<b class='flag-5'>實(shí)現(xiàn)</b>高性能、低功耗<b class='flag-5'>推理</b>(上)

    使用NORDIC AI的好處

    ; 自定義 Neuton 模型博客] Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的專用 AI 加速器,對(duì) TensorFlow Lite 模型實(shí)現(xiàn)最高約 1
    發(fā)表于 01-31 23:16

    工業(yè)視覺(jué)網(wǎng)關(guān):RK3576賦能多路檢測(cè)與邊緣AI

    ~150ms6TOPS NPU 邊緣AI推理易對(duì)接 MES / 追溯系統(tǒng) 一、產(chǎn)線痛點(diǎn):從“人看”到“機(jī)判”的轉(zhuǎn)變· 多工位/多角度同步:?jiǎn)螜C(jī)位覆蓋不足,典型項(xiàng)目需 8~12 路并發(fā),且畫(huà)面時(shí)序一致性要求高
    發(fā)表于 10-16 17:56

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    、分布式群體智能 1)物聯(lián)網(wǎng)AGI系統(tǒng) 優(yōu)勢(shì): 組成部分: 2)分布式AI訓(xùn)練 7、發(fā)展重點(diǎn):基于強(qiáng)化學(xué)習(xí)的后訓(xùn)練與推理 8、超越大模型:神經(jīng)符號(hào)計(jì)算 三、AGI芯片的
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    Transformer和視覺(jué)Transformer模型。 ViTA是一種高效數(shù)據(jù)流AI加速器,用于在邊緣設(shè)備上部署計(jì)算密集型視覺(jué)Transformer模型。
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    邊緣AI的不同特點(diǎn): 邊緣推理的優(yōu)勢(shì):可以提供數(shù)據(jù)處理速度和響應(yīng)速度,滿足實(shí)時(shí)需求;可以縮短網(wǎng)絡(luò)延遲,降低成本;可以提高安全性和隱私性,
    發(fā)表于 09-12 16:07

    【Sipeed MaixCAM Pro開(kāi)發(fā)板試用體驗(yàn)】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    能夠有效捕捉AI生成圖像與真實(shí)手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細(xì)微差異。 邊緣端部署:將模型量化、編譯,最終高效運(yùn)行在算力有限的MaixCAM-Pro開(kāi)發(fā)板上。
    發(fā)表于 08-21 13:59

    邊緣智能網(wǎng)關(guān)在水務(wù)行業(yè)中的應(yīng)用—龍興物聯(lián)

    、重金屬等),數(shù)據(jù)通過(guò)邊緣網(wǎng)關(guān)實(shí)時(shí)處理。 優(yōu)勢(shì):? 秒級(jí)異常報(bào)警:? 邊緣AI模型
    發(fā)表于 08-02 18:28

    愛(ài)芯元智重磅發(fā)布邊緣計(jì)算戰(zhàn)略

    近日,愛(ài)芯元智在2025世界人工智能大會(huì)上重磅發(fā)布邊緣計(jì)算戰(zhàn)略。展會(huì)現(xiàn)場(chǎng)匯聚了眾多行業(yè)精英,共同見(jiàn)證了愛(ài)芯元智邊緣計(jì)算與AI融合發(fā)展的新路徑,為AI普惠美好生活擘畫(huà)新的藍(lán)圖。
    的頭像 發(fā)表于 08-01 10:45 ?1307次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    網(wǎng)絡(luò)智能診斷平臺(tái)。通過(guò)對(duì)私有化網(wǎng)絡(luò)數(shù)據(jù)的定向訓(xùn)練,信而泰打造了高性能、高可靠性的網(wǎng)絡(luò)診斷模型,顯著提升了AI輔助診斷的精準(zhǔn)度與實(shí)用性。該方案實(shí)現(xiàn)了網(wǎng)絡(luò)全流量深度解析能力與AI智能
    發(fā)表于 07-16 15:29

    最新人工智能硬件培訓(xùn)AI基礎(chǔ)入門(mén)學(xué)習(xí)課程參考2025版(離線AI語(yǔ)音視覺(jué)識(shí)別篇)

    端側(cè)離線 AI 智能硬件作為 AI 技術(shù)的重要載體之一,憑借其無(wú)需依賴網(wǎng)絡(luò)即可實(shí)現(xiàn)智能功能的特性,在一些網(wǎng)絡(luò)條件受限或?qū)?shù)據(jù)隱私有較高要求的場(chǎng)景中,發(fā)揮著不可或缺的作用。本章基于CSK
    發(fā)表于 07-04 11:14

    Nordic收購(gòu) Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    與 Nordic 的 nRF54 系列超低功耗無(wú)線 SoC 結(jié)合,使得即使是資源極為有限的設(shè)備也能高效運(yùn)行邊緣 AI。Nordic 目前正在將 Neuton 深度集成到自身開(kāi)發(fā)生態(tài)中,未來(lái)會(huì)提供更多工具、固件
    發(fā)表于 06-28 14:18

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    套件2.0全面支持 DeepSeek四大關(guān)鍵技術(shù):混合專家模型(MoE)、多Token預(yù)測(cè)(MTP)多頭潛在注意力(MLA)、FP8推理(FP8 Inferencing),實(shí)現(xiàn)Token產(chǎn)生速度提升
    發(fā)表于 04-13 19:52

    新品 | Module LLM Kit,離線大語(yǔ)言模型推理模塊套裝

    ●●●PART.01產(chǎn)品簡(jiǎn)介ModuleLLMKit是一款專注于離線AI推理與數(shù)據(jù)通信接口應(yīng)用的智能模塊套件,整合了ModuleLLM與Module13.2LLMMate模塊,滿足多場(chǎng)景下的
    的頭像 發(fā)表于 03-28 18:49 ?1215次閱讀
    新品 | Module LLM Kit,<b class='flag-5'>離線</b>大語(yǔ)言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>模塊套裝

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入式開(kāi)發(fā)

    存儲(chǔ)設(shè)計(jì),輕松應(yīng)對(duì)復(fù)雜AI模型實(shí)時(shí)推理。其堅(jiān)固耐用的工業(yè)級(jí)品質(zhì)與超低成本,不僅適應(yīng)嚴(yán)苛環(huán)境的應(yīng)用,更為工程師提供了極致靈活的開(kāi)發(fā)體驗(yàn),堪稱
    發(fā)表于 03-19 17:54