華為技術(shù)有限公司宣布旗下 ModelEngine AI 平臺全面支持 DeepSeek 大模型 R1&V3 和蒸餾系列模型的本地部署與優(yōu)化,在 AI 領(lǐng)域引發(fā)廣泛關(guān)注。
華為 ModelEngine 是大模型訓(xùn)練、推理和應(yīng)用開發(fā)的 AI 平臺,提供從數(shù)據(jù)預(yù)處理到模型訓(xùn)練、優(yōu)化及部署的一站式服務(wù)。此次基于昇騰 AI 芯片,ModelEngine 通過推理框架優(yōu)化和 MoE 存算協(xié)同,提供動態(tài)換入換出和全局統(tǒng)一緩存,實現(xiàn)推理高并發(fā)和低時延,讓用戶能更好地體驗 DeepSeek 的推理能力。
對于開發(fā)者而言,這一支持意義重大。ModelEngine 全面兼容 DeepSeek 系列模型 R1&V3 671B 以及蒸餾系列模型,開發(fā)者借助它可實現(xiàn) “一鍵部署”,免去硬件選型、兼容性驗證和環(huán)境配置等繁瑣流程,極大降低企業(yè) AI 應(yīng)用門檻。并且,ModelEngine 高度的開放性和模塊化設(shè)計,大幅縮短了 DeepSeek 的本地部署時間。
在實際操作上,以 DeepSeek-R1 為例,開發(fā)者登錄 ModelEngine 模型管理頁面,上傳 DeepSeek-R1 FP8 權(quán)重并進行格式轉(zhuǎn)換,在模型服務(wù)頁面選擇 BF16 精度的模型權(quán)重版本下發(fā)推理服務(wù)、啟動任務(wù)部署,隨后 ModelEngine 使用 MindIE 推理框架啟動 DeepSeek-R1 推理服務(wù),支持 OpenAI API 調(diào)用風(fēng)格的推理服務(wù)接口和訪問方式,用戶便可將該 API 集成到對話、RAG 以及 Agent 應(yīng)用中。
不僅如此,ModelEngine 還提供負載均衡、模型安全接入、多用戶配額管理等高階特性,支持大規(guī)模生產(chǎn)環(huán)境下的穩(wěn)定運行。某證券公司引入 DCS AI 全棧解決方案后,運維成本降低 42%,便是有力證明。
-
華為
+關(guān)注
關(guān)注
218文章
36212瀏覽量
262711 -
AI
+關(guān)注
關(guān)注
91文章
41295瀏覽量
302669 -
DeepSeek
+關(guān)注
關(guān)注
2文章
855瀏覽量
3412
發(fā)布評論請先 登錄
開放原子AtomGit平臺首發(fā)適配DeepSeek-V4系列模型
國產(chǎn)AI算力:從DeepSeek V4與華為昇騰協(xié)同看全棧自主之路
技嘉與趨境科技聯(lián)合部署AMaaS平臺 推動本地大模型應(yīng)用加速落地
中科曙光AI超集群系統(tǒng)和scaleX640超節(jié)點等產(chǎn)品全面適配DeepSeek V3.2
工業(yè)物聯(lián)網(wǎng)平臺適合私有本地部署還是云端部署?
DeepSeek模型如何在云服務(wù)器上部署?
曙光AI超集群系統(tǒng)全面支持DeepSeek-V3.2-Exp
本地部署openWebUI + ollama+DeepSeek 打造智能知識庫并實現(xiàn)遠程訪問
信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代
RT-Thread BSP全面支持玄鐵全系列RISC-V 處理器 | 技術(shù)集結(jié)
Arm Neoverse N2平臺實現(xiàn)DeepSeek-R1滿血版部署
華為ModelEngine AI平臺全面支持DeepSeek全系列本地部署
評論