微軟正式發(fā)布了兩款芯片,不知道它們是不是傳說中的Athena。
北京時間周四凌晨1點(diǎn),微軟(Microsoft)Ignite技術(shù)大會在西雅圖揭幕,該公司CEO薩蒂亞·納德拉進(jìn)行了接近1個小時的開幕演講,介紹了AI龍頭取得的最新進(jìn)步。
此次,微軟發(fā)布了首款自家研發(fā)的人工智能(AI)芯片Maia 100,以及應(yīng)用于云端軟件服務(wù)的芯片Cobalt。兩款芯片將由臺積電代工,采用5nm制程技術(shù)。
目前,AI芯片市場由英偉達(dá)(Nvidia)獨(dú)霸,有大量AI芯片需求的科技大廠極力尋求可替代的供應(yīng)來源; 微軟自行研發(fā),希望增強(qiáng)ChatGPT等生成式AI產(chǎn)品的性能,同時降低成本。
Cobalt是基于Arm架構(gòu)的通用型芯片,具有128個核心,Maia 100為特定AI加速器,用于云端訓(xùn)練和推理的,晶體管數(shù)量達(dá)到1050億個。這兩款芯片明年將導(dǎo)入微軟Azure數(shù)據(jù)中心,支持OpenAI、Copilot等服務(wù)。
目前,英偉達(dá)在AI芯片市場的市占高達(dá)80%左右,需求強(qiáng)勁,高端產(chǎn)品一顆有時可賣到3萬到4萬美元。日經(jīng)亞洲指出,用于ChatGPT的芯片被認(rèn)為大概就需要有1萬顆,這對AI公司是個龐大成本。
負(fù)責(zé)Azure芯片部門的副總裁Rani Borkar表示,微軟已開始用Bing和Office AI產(chǎn)品測試Maia 100芯片,微軟主要AI合作伙伴、ChatGPT開發(fā)商OpenAI,也在進(jìn)行測試中。
彭博資訊指出,微軟的多年投資顯示,芯片對于在AI和云計(jì)算領(lǐng)域取得優(yōu)勢至關(guān)重要。自研芯片可以讓微軟從硬件中獲得性能和價格優(yōu)勢,還可以避免微軟過度依賴任何一家供應(yīng)商。目前業(yè)界對英偉達(dá)AI芯片的爭奪戰(zhàn),更加凸顯了這個問題。
在微軟進(jìn)軍自研處理器之前,在云計(jì)算市場上的競爭對手也采取類似策略。亞馬遜在2015年收購了一家芯片制造商,并提供多種云端運(yùn)算與AI芯片服務(wù)。Google 從2018年開始,也已讓客戶使用其AI加速處理器。
除了發(fā)布的這兩款芯片,業(yè)界一直在傳,微軟有一個代號為“Athena”的AI芯片項(xiàng)目,2019年就開始了內(nèi)部研發(fā)。據(jù)悉,微軟希望Athena芯片的性能優(yōu)于目前從其它供應(yīng)商處購買的芯片,從而節(jié)省其在昂貴的AI業(yè)務(wù)上的時間和成本。
有市場評論認(rèn)為,微軟 AI 芯片立項(xiàng)的時機(jī)很巧,正好在微軟、OpenAI 等公司培養(yǎng)的大型語言模型已經(jīng)開始騰飛之際。兩位知情人士表示,OpenAI的ChatGPT聊天機(jī)器人的發(fā)布讓人們興奮──根據(jù)分析師預(yù)估,截至今年1月,也就是ChatGPT發(fā)布兩個月后,該機(jī)器人已經(jīng)擁有超過1億用戶──這促使微軟加快Athena的研發(fā)和推出。
知情人士說,微軟最快可以在明年讓 Athena 在公司和 OpenAI 內(nèi)部廣泛使用。不過其中一名知情人士表示,微軟內(nèi)部仍在爭論是否會向其 Azure 云計(jì)算服務(wù)的客戶提供這些芯片。
如果微軟確實(shí)走向其云計(jì)算客戶提供芯片,它還必須為其打造比英偉達(dá)當(dāng)前產(chǎn)品更具吸引力的軟件,英偉達(dá)在該領(lǐng)域已深耕15年,其軟件產(chǎn)品已在全球廣泛使用。
調(diào)研公司SemiAnalysis的首席分析師Dylan Patel估算,ChatGPT的運(yùn)營成本為每天約70萬美元或每次查詢0.36美元。Patel 說:“大部分成本來自其所需的昂貴服務(wù)器。和英偉達(dá)產(chǎn)品相比,若 Athena 具競爭力,可以將每個芯片的成本降低三分之一?!?/p>
Patel 還表示,微軟希望他們在所有的應(yīng)用程序中都使用這個大型語言模型,包括 Bing、Microsoft 365 和 GitHub。如果采用英偉達(dá)現(xiàn)成的軟件進(jìn)行大規(guī)模部屬,光芯片這一項(xiàng)成本每年就要燒掉數(shù)百億美元。
微軟并不認(rèn)為自己的 AI 芯片可以廣泛替代英偉達(dá)的產(chǎn)品。有分析認(rèn)為,微軟的這一努力如果成功的話,也有可能幫助它在未來與英偉達(dá)的談判中更具優(yōu)勢。
此次,微軟還推出了名為 Sidekicks 的定制液冷硬件,該硬件安裝在包含 Maia 服務(wù)器的機(jī)架旁邊的機(jī)架中。一位發(fā)言人表示,該公司無需改造即可安裝服務(wù)器機(jī)架和 Sidekick 機(jī)架。
在網(wǎng)絡(luò)連接方面,為了滿足AI和未來工作負(fù)載的要求,微軟推出了新一代空芯光纖(Hollow Core Fiber),利用空氣作為光纖的導(dǎo)光介質(zhì),能夠?qū)鬏斔俣忍岣?7%。當(dāng)然這也與微軟的“鈔能力”有關(guān),公司在去年12月底收購了這條賽道的領(lǐng)跑者英國Lumenisity。
會上,納德拉宣布Azure Boost數(shù)據(jù)中心硬件也將正式投入商用。該系統(tǒng)能夠?qū)⒋鎯途W(wǎng)絡(luò)進(jìn)程將主機(jī)轉(zhuǎn)移到專用硬件和軟件上,從而提高速度。
據(jù)千芯科技董事長陳巍博士分析,就Maia 100性能來看,MXFP4算力達(dá)到了3200TFLOPS,MXInt8算力達(dá)到1600TFLOPS(這里有可能是新聞筆誤,因?yàn)镮NT8算力一般按照TOPS單位)。SIMD算力為48TFLOPS,具備140MB L1緩存和448MB L2緩存,HBM3容量為64GB,TDP功耗860W,采用TSMC N5工藝,面積820mm^2,105BIllion晶體管。
? 對比一下Maia 100和其他幾個家世顯赫的芯片性能,可以看到Maia具有大量的片上SRAM(單芯片合計(jì)588MB),甚至超過了特斯拉D1,有可能是存算一體(近存計(jì)算)架構(gòu)的AI DSA。初步猜測其架構(gòu)和液冷方式與特斯拉Dojo接近。
緊密聯(lián)系合作伙伴
基于微軟與AI軟件龍頭OpenAI的緊密關(guān)系,所以微軟Azure云服務(wù)也將在第一時間向用戶提供OpenAI的最新產(chǎn)品,例如GPT-4 Trubo和多模態(tài)能力,以及基于GPT-4的微調(diào)。
微軟也在今天宣布推出“MAAS”產(chǎn)業(yè)模式(Models as a Service/模型即服務(wù)),用戶可以直接通過微軟的服務(wù)來調(diào)用API、微調(diào)和部署各類開源大模型。微軟也已經(jīng)與Meta等一眾大模型開發(fā)商達(dá)成合作,將Llama 2等知名LLM作為一項(xiàng)服務(wù)推出。
納德拉宣布,Azure云將發(fā)布英偉達(dá)的AI工坊服務(wù)(AI foundry service),為此他還請來了黃仁勛,講述兩家AI巨頭從硬件到軟件的全面合作。
據(jù)悉,英偉達(dá)AI工坊涵蓋英偉達(dá)的AI基礎(chǔ)模型、NeMo框架和工具,以及英偉達(dá)DGX Cloud AI超級計(jì)算和服務(wù)三大要素。微軟用戶將可以在Azure云上利用英偉達(dá)的AI軟件生成并部署模型。
黃仁勛表示,AI的第一波浪潮源自O(shè)penAI等一批創(chuàng)業(yè)公司,而現(xiàn)在整個產(chǎn)業(yè)已經(jīng)進(jìn)入了第二波浪潮,由微軟Copilot推動的企業(yè)級AI。在他看來,第三波也是最大的那一波將會是整個世界的重工業(yè)數(shù)字化,并從生成式AI中獲益。
審核編輯:黃飛
?
評論