11月21日,2025AI容器應用落地與發(fā)展論壇在上海舉行。華為公司副總裁、數(shù)據(jù)存儲產(chǎn)品線總裁周躍峰博士在論壇上正式發(fā)布AI容器技術——Flex:ai,同時,華為聯(lián)合上海交通大學、西安交通大學與廈門大學共同宣布,將此項產(chǎn)學合作成果向外界開源,助力破解算力資源利用難題。
當前,AI產(chǎn)業(yè)高速發(fā)展催生海量算力需求,但全球算力資源利用率偏低的問題日益凸顯,“算力資源浪費”成為產(chǎn)業(yè)發(fā)展的關鍵桎梏:小模型任務獨占整卡導致資源閑置,大模型任務單機算力不足難以支撐,大量缺乏GPU/NPU的通用服務器更是處于算力“休眠”狀態(tài),供需錯配造成嚴重的資源浪費。
本次發(fā)布并開源的Flex:aiXPU池化與調(diào)度軟件,是基于Kubernetes容器編排平臺構建,通過對GPU、NPU等智能算力資源的精細化管理與智能調(diào)度,實現(xiàn)AI工作負載與算力資源的精準匹配,可大幅提升算力利用率。該技術深度融合了三大高校與華為的科研力量,形成三大核心技術突破:
|算力資源切分,一卡變多卡,服務多個AI工作負載
針對AI小模型訓推場景中“一張卡跑一個任務”的資源浪費問題,華為與上海交通大學聯(lián)合研發(fā)XPU池化框架,可將單張GPU或NPU算力卡切分為多份虛擬算力單元,切分粒度精準至10%。這一技術實現(xiàn)了單卡同時承載多個AI工作負載,且通過彈性靈活的資源隔離技術,可實現(xiàn)算力單元的按需切分,“用多少,切多少”,使此類場景下的整體算力平均利用率提升30%,提高單卡服務能力。
|跨節(jié)點算力資源聚合,充分利用空閑算力
針對大量通用服務器因缺乏智能計算單元而無法服務于AI工作負載的問題,華為與廈門大學聯(lián)合研發(fā)跨節(jié)點拉遠虛擬化技術。該技術將集群內(nèi)各節(jié)點的空閑XPU算力聚合形成“共享算力池”,一方面為高算力需求的AI工作負載提供充足資源支撐;另一方面,可讓不具備智能計算能力的通用服務器通過高速網(wǎng)絡,將AI工作負載轉(zhuǎn)發(fā)到遠端“資源池”中的GPU/NPU算力卡中執(zhí)行,從而促進通用算力與智能算力資源融合。
|多級智能調(diào)度,實現(xiàn)AI工作負載與算力資源的精準匹配
面對算力集群中多品牌、多規(guī)格異構算力資源難以統(tǒng)一調(diào)度的痛點,華為與西安交通大學共同打造Hi Scheduler智能調(diào)度器。該調(diào)度器可自動感知集群負載與資源狀態(tài),結合AI工作負載的優(yōu)先級、算力需求等多維參數(shù),對本地及遠端的虛擬化GPU、NPU資源進行全局最優(yōu)調(diào)度,實現(xiàn)AI工作負載分時復用資源。即便在負載頻繁波動的場景下,也能保障AI工作負載的平穩(wěn)運行,讓每一份算力都“物盡其用”。
Flex:ai的全面開源開放將向產(chǎn)學研各界開發(fā)者開放所有核心技術能力。通過匯聚全球創(chuàng)新力量,共同推動異構算力虛擬化與AI應用平臺對接的標準構建,形成算力高效利用的標準化解決方案,為全球AI產(chǎn)業(yè)的高質(zhì)量發(fā)展注入強勁動能。
-
華為
+關注
關注
218文章
36190瀏覽量
262689 -
AI
+關注
關注
91文章
41114瀏覽量
302597 -
開源
+關注
關注
3文章
4346瀏覽量
46442
原文標題:算力利用效率躍升,華為聯(lián)合三大高校發(fā)布并開源AI容器技術Flex:ai
文章出處:【微信號:huaweicorp,微信公眾號:華為】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
華為發(fā)布并開源創(chuàng)新AI容器技術Flex:ai
評論