自從OpenAI?發(fā)布ChatGPT后,生成式 AI 造成市場(chǎng)大熱,引發(fā)各家科技大廠競(jìng)相投入?,F(xiàn)階段提供算力的主要來源,以英偉達(dá)(NVIDIA)提供的AI加速器為大宗,但同時(shí)造成其AI加速器在市場(chǎng)上的供不應(yīng)求,就連OpenAI也因?yàn)椴幌朐俦痪o缺的供應(yīng)鏈牽制,而打算自行開發(fā)芯片。
多家科技大廠決心自研 AI 加速器以滿足需求之外,另一方面,受中美科技戰(zhàn)限制,雖然英偉達(dá)提供中國(guó)客戶減規(guī)版產(chǎn)品,但近期又有消息,減規(guī)版產(chǎn)品不受中國(guó)客戶青睞,中國(guó)廠商轉(zhuǎn)向華為求助,或自研芯片,不落人后繼續(xù)發(fā)展大型語言模型。
這波AI浪潮發(fā)展下,英偉達(dá)無疑是AI算力領(lǐng)先者,A100/H100系列芯片拿下全球AI市場(chǎng)頂尖客戶訂單,研究公司Gartner和Moor Insights&Strategy表示,英偉達(dá)的全球人工智能芯片市占率最高可能達(dá)90%創(chuàng)新高,但英偉達(dá)寡占市場(chǎng)使客戶須有成本高漲認(rèn)知,還要面對(duì)可能搶不到貨,或購(gòu)買數(shù)量太少不知道何時(shí)能到貨的壓力。
華爾街投資銀行Bernstein Research資深分析師Stacy Rasgon分析,ChatGPT每次查詢的成本約為0.04美元,如果ChatGPT查詢量增長(zhǎng)至Google搜尋規(guī)模的十分之一,最初需要部署價(jià)值約481億美元的GPU進(jìn)行運(yùn)算,每年還需要價(jià)值約160億美元的芯片才能維持運(yùn)作。還有相當(dāng)于 160 億美元的相關(guān)芯片來執(zhí)行工作。所以,無論是為了減少成本,還是降低對(duì)英偉達(dá)的過度依賴、甚至是進(jìn)一步提高議價(jià)能力,全球科技大廠都已開始其自研AI加速器的計(jì)劃。
根據(jù)科技媒體 The Information 引述知情人士的說法報(bào)導(dǎo)指出,全球科技大廠包括微軟、OpenAI、特斯拉、Google、亞馬遜、Meta 等六家科技公司,都正投入研發(fā)自家 AI 加速器芯片,預(yù)計(jì)將會(huì)與英偉達(dá)的旗艦級(jí) H100 AI 加速器芯片競(jìng)爭(zhēng)。
全球大廠自研芯片進(jìn)度
微軟自研AI芯片傳聞未曾停過
一年一度 Microsoft Ignite 2023 大會(huì),終于發(fā)布數(shù)據(jù)中心 AI 芯片 Azure Maia 100 和云計(jì)算處理器 Azure Cobalt 100。微軟 2019 年后就傳出開發(fā) AI 專用芯片,為大型語言模型提供動(dòng)力。大會(huì)推出的 Azure Maia 100 是 AI 加速器芯片,能用于 OpenAI 模型、ChatGPT、Bing、GitHub Copilot 等 AI 工作執(zhí)行。
微軟介紹,Azure Maia 100 是系列第一代產(chǎn)品,5 納米制程生產(chǎn)。Azure Cobalt 為Arm 架構(gòu)的云端運(yùn)算處理器,配備128 個(gè)運(yùn)算核心,與目前幾代Azure Arm 芯片相比,效能提升40%,支持 Microsoft Teams、Azure SQL 等服務(wù)。
兩款芯片均由臺(tái)積電生產(chǎn),微軟已在設(shè)計(jì)第二代。 有分析師表示,以ChatGPT每天運(yùn)營(yíng)成本約70萬美元,且大部分算力源于昂貴服務(wù)器計(jì)算,Azure Maia 100與英偉達(dá)產(chǎn)品有同等競(jìng)爭(zhēng)力,每芯片成本可降低三分之一。?
Open AI 也正在探索制造自研 AI 加速器芯片,并已開始評(píng)估潛在的收購(gòu)目標(biāo)。
先前路透社引述知情人士的消息指出,至少?gòu)?022年開始,OpenAI就已討論各種方案,以解決AI芯片短缺問題。盡管OpenAI尚未做最終決定,但希望解決AI芯片短缺的選項(xiàng)包括打造自家AI芯片、與英偉達(dá)等芯片制造商合作研發(fā),OpenAI并未正式評(píng)論。
電動(dòng)車大廠特斯拉也是積極投入AI 加速器芯片的科技大廠。
特斯拉以自動(dòng)駕駛需求為主,至今推出兩種AI芯片,分別是全自動(dòng)駕駛的FSD芯片和Dojo D1芯片。FSD 芯片用于特斯拉車自動(dòng)駕駛系統(tǒng),Dojo D1 芯片用于特斯拉超級(jí)計(jì)算機(jī),為通用 CPU,構(gòu)建 AI 訓(xùn)練芯片,為 Dojo 系統(tǒng)提供驅(qū)動(dòng)力。?
Google 也早在 2013 年就秘密研發(fā)專注 AI 機(jī)器學(xué)習(xí)算法芯片,并用于云計(jì)算數(shù)據(jù)中心,取代英偉達(dá) GPU。
這款TPU自研芯片2016年公開,為深度學(xué)習(xí)模型執(zhí)行大規(guī)模矩陣運(yùn)算,如自然語言處理、計(jì)算機(jī)視覺和推薦系統(tǒng)模型。Google 其實(shí) 2020 年資料中心便建構(gòu) AI 芯片 TPU v4,直到 2023 年 4 月才首次公開細(xì)節(jié)。
亞馬遜旗下云端運(yùn)算服務(wù)提供商AWS,從2013年推出首顆Nitro1芯片至今,為最先自研芯片的云端廠商,擁有網(wǎng)路芯片、服務(wù)器芯片、人工智能機(jī)器學(xué)習(xí)自研芯片三條產(chǎn)品線。
AWS 自研 AI 芯片版圖包括推理芯片 Inferentia 和訓(xùn)練芯片 Trainium。?
另一方面,AWS 專為人工智能打造的Inferentia 2(Inf2)2023年初發(fā)布,計(jì)算性能提高三倍,加速器總內(nèi)存提高25%,可透過芯片直接超高速連接支持分布式推理,最多支持1,750億個(gè)參數(shù),為AI芯片市場(chǎng)最強(qiáng)自研廠商。
Meta則到2022年仍使用CPU和專為加速AI算法設(shè)計(jì)的定制芯片組合執(zhí)行AI工作,但因CPU的AI工作效率不如GPU,Meta取消2022年大規(guī)模定制芯片計(jì)劃,轉(zhuǎn)而訂購(gòu)數(shù)十億美元的英偉達(dá)GPU。
就在其他各家大廠紛紛投入自研AI加速器芯片,Meta也發(fā)布了自研芯片,并2023年5月19日公布AI訓(xùn)練與推理芯片。芯片功耗僅25瓦,為英偉達(dá)相同產(chǎn)品功耗的0.05%,并采RISC-V開源架構(gòu)。市場(chǎng)消息指出,芯片為臺(tái)積電7納米生產(chǎn)。
中國(guó)大廠的自研芯片之路,又是另一種光景。
美國(guó)去年10月擴(kuò)大禁止向中國(guó)出售先進(jìn)人工智能(AI)芯片,英偉達(dá)雖然迅速為中國(guó)市場(chǎng)量身訂造新芯片,以符合美國(guó)出口規(guī)定。但近日有消息指出,阿里巴巴、騰訊等中國(guó)云計(jì)算大客戶,并不熱中買功能降低的減規(guī)版H20芯片,轉(zhuǎn)成國(guó)內(nèi)采購(gòu),如向華為買。策略轉(zhuǎn)變顯示透過部分先進(jìn)半導(dǎo)體訂單轉(zhuǎn)給中國(guó)公司,將更依賴中國(guó)本土廠商芯片。
TrendForce表示,中國(guó)云端業(yè)者約八成高階AI芯片購(gòu)自英偉達(dá),五年內(nèi)可能降至50%~60%。若美國(guó)繼續(xù)加強(qiáng)芯片管制,可能對(duì)英偉達(dá)中國(guó)地區(qū)銷售造成額外壓力。
審核編輯:黃飛
?
電子發(fā)燒友App













評(píng)論