chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

數(shù)據(jù)中心AI芯片上升趨勢(shì)能夠持續(xù)多久呢?

SDNLAB ? 來(lái)源:SDNLAB ? 2024-01-24 16:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2024年很有可能成為AI芯片的元年。

有預(yù)測(cè)稱,今年AI芯片可能會(huì)迎來(lái)強(qiáng)勁甚至迅猛的增長(zhǎng)。然而,一個(gè)令人關(guān)注的問(wèn)題是,這種上升趨勢(shì)能夠持續(xù)多久呢?

2023年底,AMD大膽地宣稱,到2027年,數(shù)據(jù)中心AI芯片的總潛在市場(chǎng)(TAM)將達(dá)到4000億美元,復(fù)合年增長(zhǎng)率(CAGR)超過(guò)70%。這一預(yù)測(cè)引起了不同的反應(yīng),但也從側(cè)面說(shuō)明了大型語(yǔ)言模型(LLM)作為處理生成式人工智能(GenAI)應(yīng)用核心的驅(qū)動(dòng)力。

作為圖形處理單元(GPU)市場(chǎng)的領(lǐng)導(dǎo)者,英偉達(dá)的成功證明了這些芯片的潛在市場(chǎng)規(guī)模。英偉達(dá)過(guò)去一年的股價(jià)上漲了217%,在過(guò)去三年增長(zhǎng)了140%。

在最新的11月財(cái)報(bào)中,英偉達(dá)公布的營(yíng)收為181.2億美元,其中數(shù)據(jù)中心營(yíng)收為145.1億美元。整體銷售額同比增長(zhǎng)206%,而數(shù)據(jù)中心銷售額同期增長(zhǎng)了279%。所有這些都證實(shí)了數(shù)據(jù)中心芯片的銷售正經(jīng)歷急劇上升的趨勢(shì)。然而,關(guān)鍵問(wèn)題是,這個(gè)增長(zhǎng)趨勢(shì)是否能夠達(dá)到4000 億美元的高度。

英偉達(dá)在數(shù)據(jù)中心AI GPU市場(chǎng)至少占據(jù)80%的份額,未來(lái)三年預(yù)計(jì)將迎來(lái)巨大增長(zhǎng)。然而,要實(shí)現(xiàn)高達(dá)4000億美元的市場(chǎng)規(guī)模,英偉達(dá)的表現(xiàn)需要比目前更出色,同時(shí)其他廠商也需要超出預(yù)期。

競(jìng)爭(zhēng)者不甘示弱

AMD

AMD 認(rèn)為其將在未來(lái)三年內(nèi)實(shí)現(xiàn)大幅增長(zhǎng)。2023 年 12 月,AMD發(fā)布了MI300 系列芯片,旨在在推理方面超越英偉達(dá)的GPU。同時(shí)發(fā)布的另一款產(chǎn)品AMD Instinct MI300A加速處理單元(APU),將CPU和GPU核心與內(nèi)存集成在一個(gè)平臺(tái)中。

MI300X 專為云提供商和企業(yè)設(shè)計(jì),專為生成式 AI 應(yīng)用而打造,MI300X GPU 擁有超過(guò) 1500 億個(gè)晶體管,以 2.4 倍的內(nèi)存超越了英偉達(dá)的 H100。峰值內(nèi)存帶寬達(dá)到 5.3 TB/s ,是H100 3.3 TB/s 的 1.6 倍。

wKgaomWwyh2AanXtAAFoeSiXcEU384.jpg

AMD Instinct MI300A APU 配備 128GB HBM3 內(nèi)存。據(jù)稱,與之前的 M250X 處理器相比,MI300A 在 HPC 和 AI 工作負(fù)載上的每瓦性能提高了 1.9 倍。

AMD 總裁兼首席執(zhí)行官蘇姿豐 (Lisa Su) 在去年 10 月的公司第三季度電話會(huì)議上表示:“隨著 2024 年的到來(lái),我們預(yù)計(jì)收入將持續(xù)增長(zhǎng),而且主要來(lái)源將是AI?!薄霸贏I領(lǐng)域,我們的客戶覆蓋面很廣,包括從超大規(guī)模企業(yè)到原始設(shè)備制造商、企業(yè)客戶以及一些新的人工智能初創(chuàng)企業(yè)。從工作負(fù)載的角度來(lái)看,我們希望 MI300 能夠同時(shí)處理訓(xùn)練和推理工作負(fù)載?!?/p>

英特爾

英特爾上個(gè)月推出了AI芯片 Gaudi3 以及第五代 Xeon 處理器,作為進(jìn)一步進(jìn)軍數(shù)據(jù)中心AI市場(chǎng)的一部分。

英特爾表示,Gaudi3 是專為深度學(xué)習(xí)和創(chuàng)建大規(guī)模生成人工智能模型而設(shè)計(jì)的下一代人工智能加速器,將與英偉達(dá)的 H100 和 AMD 的 MI300X 展開競(jìng)爭(zhēng)。

英特爾聲稱Xeon 是唯一內(nèi)置 AI 加速的主流數(shù)據(jù)中心處理器,全新第五代 Xeon 在多達(dá) 200 億個(gè)參數(shù)的模型上提供高達(dá) 42% 的推理和微調(diào)能力。它也是唯一一款具有一致且不斷改進(jìn)的 MLPerf 訓(xùn)練和推理基準(zhǔn)測(cè)試結(jié)果的 CPU。

Xeon的內(nèi)置人工智能加速器,加上優(yōu)化的軟件和增強(qiáng)的遙測(cè)功能,可以為通信服務(wù)提供商、內(nèi)容交付網(wǎng)絡(luò)和包括零售、醫(yī)療保健和制造在內(nèi)的廣泛垂直市場(chǎng)實(shí)現(xiàn)更易于管理、更高效的高要求網(wǎng)絡(luò)和邊緣工作負(fù)載部署。

云廠商各顯神通

AWS、谷歌等云廠商一直在為自己的大型數(shù)據(jù)中心打造定制芯片。一方面是不想過(guò)度依賴英偉達(dá),另外針對(duì)自身需求定制芯片也有助于提高性能和降低成本。

AWS

亞馬遜的AI芯片Trainium和Inferentia專為訓(xùn)練和運(yùn)行大型人工智能模型而設(shè)計(jì)。

AWS Trainium2是 AWS 專門為超過(guò) 1000 億個(gè)參數(shù)模型的深度學(xué)習(xí)訓(xùn)練打造的第二代機(jī)器學(xué)習(xí) (ML) 加速器。AWS CEO Adam Selipsky 表示,近期推出的Trainium2的速度是其前身的4倍,能源效率是其之前的2倍。Tranium2 將在 AWS 云中由 16 個(gè)芯片組成的集群中的 EC Trn2 實(shí)例中使用,在 AWS 的 EC2 UltraCluster 產(chǎn)品中可擴(kuò)展到多達(dá) 10萬(wàn)個(gè)芯片。AWS表示,10萬(wàn)個(gè) Trainium 芯片可提供 65 exaflops 的計(jì)算能力,相當(dāng)于每個(gè)芯片可提供 650 teraflops 的計(jì)算能力。

AWS Inferentia2 加速器與第一代相比在性能和功能方面實(shí)現(xiàn)了重大飛躍。Inferentia2 的吞吐量提高了 4 倍,延遲低至 1/10。

wKgZomWwyh2AAQ50AATwyIe9CyQ876.jpg

AWS Inferentia2 支持多種數(shù)據(jù)類型,包括 FP32、TF32、BF16、FP16 和 UINT8,還支持新的可配置 FP8 (cFP8) 數(shù)據(jù)類型,因?yàn)樗鼫p少了模型的內(nèi)存占用和 I/O 要求。AWS Inferentia2 具有嵌入式通用數(shù)字信號(hào)處理器 (DSP),可實(shí)現(xiàn)動(dòng)態(tài)執(zhí)行,因此無(wú)需在主機(jī)上展開或執(zhí)行控制流運(yùn)算符。AWS Inferentia2 還支持動(dòng)態(tài)輸入形狀,這對(duì)于輸入張量大小未知的模型(例如處理文本的模型)至關(guān)重要。AWS Inferentia2 支持用 C++ 編寫的自定義運(yùn)算符。

谷歌

2023 年 12 月,谷歌發(fā)布最新的Cloud TPU v5p,并號(hào)稱是迄今最強(qiáng)大的TPU。每個(gè) TPU v5p Pod由 8,960 個(gè)芯片組成,采用 3D 環(huán)面拓?fù)洌ミB速度達(dá) 4,800 Gbps。與 TPU v4 相比,TPU v5p 的FLOPS 提高了 2 倍以上,高帶寬內(nèi)存 (HBM) 提高了 3 倍以上。

TPU v5p 專為性能、靈活性和規(guī)模而設(shè)計(jì),訓(xùn)練大型 LLM 模型的速度比上一代 TPU v4 快 2.8 倍。此外,借助第二代SparseCores,TPU v5p訓(xùn)練嵌入密集模型的速度比 TPU v4 2快 1.9 倍。

wKgZomWwyh2AKBWwAAEk7HCtivA186.jpg

除了性能改進(jìn)之外,TPU v5p 在每個(gè) pod 的總可用 FLOP 方面的可擴(kuò)展性也比 TPU v4 高 4 倍。與 TPU v4 相比,每秒浮點(diǎn)運(yùn)算次數(shù) (FLOPS) 加倍,并且單個(gè) Pod 中的芯片數(shù)量加倍,可顯著提高訓(xùn)練速度的相對(duì)性能。

wKgaomWwyh2AJzznAAVYDmdWezI186.jpg

微軟

2023 年 11 月,微軟推出了AI芯片Azure Maia 100。Maia 100 是 Maia AI 加速器系列中的首款產(chǎn)品。

Maia 采用 5 nm臺(tái)積電工藝制造,擁有 1050 億個(gè)晶體管,比 AMD MI300X AI GPU的 1530 億個(gè)晶體管少約 30% 。微軟表示,“Maia 支持我們首次實(shí)現(xiàn)低于 8 位數(shù)據(jù)類型(MX 數(shù)據(jù)類型),以便共同設(shè)計(jì)硬件和軟件,這有助于我們支持更快的模型訓(xùn)練和推理時(shí)間。”

Maia 100 目前正在 GPT 3.5 Turbo 上進(jìn)行測(cè)試,該模型也為 ChatGPT、Bing AI 工作負(fù)載和 GitHub Copilot 提供支持。微軟正處于部署的早期階段,還不愿意發(fā)布確切的 Maia 規(guī)范或性能基準(zhǔn)。

總的來(lái)說(shuō),從AMD 4000億美元市場(chǎng)的預(yù)測(cè)中至少可以得出三個(gè)結(jié)論:首先,數(shù)據(jù)中心仍是短期內(nèi)AI芯片的焦點(diǎn);其次,數(shù)據(jù)中心 AI芯片領(lǐng)域正急劇上升,盡管上升的幅度仍然是一個(gè)問(wèn)題;第三, 英偉達(dá)將繼續(xù)在該領(lǐng)域占據(jù)主導(dǎo)地位,但包括 AMD 在內(nèi)的其他供應(yīng)商正努力削弱其地位。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20084

    瀏覽量

    243775
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5050

    瀏覽量

    134011
  • 晶體管
    +關(guān)注

    關(guān)注

    78

    文章

    10103

    瀏覽量

    145142
  • HPC
    HPC
    +關(guān)注

    關(guān)注

    0

    文章

    342

    瀏覽量

    24757
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2035

    瀏覽量

    36439

原文標(biāo)題:數(shù)據(jù)中心AI芯片市場(chǎng)有多大?

文章出處:【微信號(hào):SDNLAB,微信公眾號(hào):SDNLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    鑫澈導(dǎo)熱與屏蔽方案助力AI數(shù)據(jù)中心高效散熱

    隨著AI數(shù)據(jù)中心持續(xù)擴(kuò)張,高功率密度AI芯片帶來(lái)過(guò)量熱負(fù)荷與電磁干擾問(wèn)題,散熱與電磁屏蔽已成為影響系統(tǒng)穩(wěn)定與能效的核心挑戰(zhàn)。
    的頭像 發(fā)表于 10-11 09:34 ?193次閱讀

    AI數(shù)據(jù)中心供電系統(tǒng)的發(fā)展現(xiàn)狀和未來(lái)趨勢(shì)

    AI數(shù)據(jù)中心作為數(shù)字時(shí)代的核心基礎(chǔ)設(shè)施,承擔(dān)著海量數(shù)據(jù)的存儲(chǔ)、處理和傳輸任務(wù),而供電系統(tǒng)是其穩(wěn)定運(yùn)行的“生命線”。隨著云計(jì)算、大數(shù)據(jù)、人工智能等技術(shù)的快速發(fā)展,
    的頭像 發(fā)表于 09-24 17:07 ?2557次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>供電系統(tǒng)的發(fā)展現(xiàn)狀和未來(lái)<b class='flag-5'>趨勢(shì)</b>

    睿海光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G光模塊升級(jí)

    引領(lǐng)AI時(shí)代網(wǎng)絡(luò)變革:睿海光電的核心競(jìng)爭(zhēng)力 在AI時(shí)代,數(shù)據(jù)中心正經(jīng)歷從傳統(tǒng)架構(gòu)向AI工廠與AI云的轉(zhuǎn)型。
    發(fā)表于 08-13 19:01

    加速AI未來(lái),睿海光電800G OSFP光模塊重構(gòu)數(shù)據(jù)中心互聯(lián)標(biāo)準(zhǔn)

    定義數(shù)據(jù)中心互聯(lián)的新范式。 一、技術(shù)實(shí)力:800G OSFP光模塊的卓越性能表現(xiàn) 睿海光電800G OSFP光模塊系列采用行業(yè)領(lǐng)先的PAM4調(diào)制技術(shù),具備以下核心優(yōu)勢(shì): 超高速率 :?jiǎn)文鬏斔俾蔬_(dá)
    發(fā)表于 08-13 16:38

    適用于數(shù)據(jù)中心AI時(shí)代的800G網(wǎng)絡(luò)

    隨著人工智能(AI)技術(shù)的迅猛發(fā)展,數(shù)據(jù)中心面臨著前所未有的計(jì)算和網(wǎng)絡(luò)壓力。從大語(yǔ)言模型(LLM)訓(xùn)練到生成式AI應(yīng)用,海量數(shù)據(jù)處理需求推動(dòng)了網(wǎng)絡(luò)帶寬的快速增長(zhǎng)。在此背景下,800G網(wǎng)
    發(fā)表于 03-25 17:35

    華為全新升級(jí)星河AI數(shù)據(jù)中心網(wǎng)絡(luò)

    在華為中國(guó)合作伙伴大會(huì)2025期間,以 “星河AI數(shù)據(jù)中心網(wǎng)絡(luò),賦AI時(shí)代新動(dòng)能”為主題的數(shù)據(jù)中心網(wǎng)絡(luò)分論壇圓滿落幕。本次論壇匯聚了來(lái)自全國(guó)的300多位客戶和伙伴,共同探討
    的頭像 發(fā)表于 03-24 14:46 ?758次閱讀

    優(yōu)化800G數(shù)據(jù)中心:高速線纜、有源光纜和光纖跳線解決方案

    高速線纜支持熱插拔功能,具有低功耗和小彎曲半徑,便于靈活布線,可實(shí)現(xiàn)高穩(wěn)定性、低成本、節(jié)省空間和高散熱等優(yōu)勢(shì),非常適合數(shù)據(jù)中心布線需求。這些高速線纜能夠與交換機(jī)、路由器和服務(wù)器無(wú)縫集成,確保網(wǎng)絡(luò)
    發(fā)表于 03-24 14:20

    Cadence顛覆AI數(shù)據(jù)中心設(shè)計(jì)

    日前舉辦的英偉達(dá) GTC 2025 開發(fā)者大會(huì)匯聚了眾多行業(yè)精英,共同探討人工智能的未來(lái)。而人工智能正在重塑全球數(shù)據(jù)中心的格局。據(jù)預(yù)測(cè),未來(lái)將有 1 萬(wàn)億美元用于 AI 驅(qū)動(dòng)的數(shù)據(jù)中心升級(jí)。然而
    的頭像 發(fā)表于 03-21 15:43 ?712次閱讀

    數(shù)據(jù)中心發(fā)展與改造

    全球多數(shù)數(shù)據(jù)中心基礎(chǔ)設(shè)施已超六年,能耗高而效率低。隨著AI的發(fā)展,企業(yè)正致力于整合與提升能效的現(xiàn)代化改造。同時(shí)數(shù)據(jù)中心呈現(xiàn)規(guī)?;?、高密化、綠色化發(fā)展趨勢(shì)。19821800313 一、目
    的頭像 發(fā)表于 02-28 16:50 ?615次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>發(fā)展與改造

    韓國(guó)將建全球最大AI數(shù)據(jù)中心

    據(jù)最新報(bào)道,韓國(guó)即將啟動(dòng)一項(xiàng)雄心勃勃的計(jì)劃——建設(shè)全球最大的人工智能(AI)數(shù)據(jù)中心。該數(shù)據(jù)中心不僅在規(guī)模上令人矚目,更在技術(shù)和投資上展現(xiàn)了韓國(guó)的強(qiáng)大實(shí)力。 據(jù)悉,該數(shù)據(jù)中心的電力容量
    的頭像 發(fā)表于 02-20 09:24 ?810次閱讀

    新思科技助力下一代數(shù)據(jù)中心AI芯片設(shè)計(jì)

    Multi-Die設(shè)計(jì)正成為增強(qiáng)數(shù)據(jù)中心現(xiàn)代計(jì)算性能、可擴(kuò)展性和靈活性的關(guān)鍵解決方案。通過(guò)將傳統(tǒng)的單片設(shè)計(jì)拆分為更小的異構(gòu)或同構(gòu)芯片(也稱小芯片),開發(fā)者可以針對(duì)特定任務(wù)優(yōu)化每個(gè)組件,進(jìn)而
    的頭像 發(fā)表于 02-20 09:17 ?685次閱讀
    新思科技助力下一代<b class='flag-5'>數(shù)據(jù)中心</b><b class='flag-5'>AI</b><b class='flag-5'>芯片</b>設(shè)計(jì)

    華為發(fā)布2025數(shù)據(jù)中心能源十大趨勢(shì)

    今日,華為舉辦2025數(shù)據(jù)中心能源十大趨勢(shì)發(fā)布會(huì),華為數(shù)據(jù)中心能源領(lǐng)域總裁堯權(quán)全面解讀數(shù)據(jù)中心能源十大趨勢(shì),為
    的頭像 發(fā)表于 01-14 10:24 ?775次閱讀

    AI數(shù)據(jù)中心驅(qū)動(dòng)下 芯片電感的技術(shù)革命

    面對(duì)人工智能技術(shù)的飛速發(fā)展,數(shù)據(jù)中心的高功率計(jì)算需求給芯片電感帶來(lái)了哪些前所未有的挑戰(zhàn)與機(jī)遇? 隨著人工智能技術(shù)的持續(xù)進(jìn)步和應(yīng)用領(lǐng)域的不斷拓展,數(shù)
    的頭像 發(fā)表于 12-18 16:12 ?884次閱讀
    <b class='flag-5'>AI</b>與<b class='flag-5'>數(shù)據(jù)中心</b>驅(qū)動(dòng)下 <b class='flag-5'>芯片</b>電感的技術(shù)革命

    AmpereOne如何滿足現(xiàn)代數(shù)據(jù)中心需求

    在當(dāng)今要求苛刻的技術(shù)環(huán)境中,數(shù)據(jù)中心和企業(yè)面臨著嚴(yán)峻的挑戰(zhàn)。不斷上升的能源成本促使公司尋求更節(jié)能的解決方案,以滿足可持續(xù)性和成本目標(biāo)。對(duì)可擴(kuò)展計(jì)算密度的需求也在增長(zhǎng),以跟上日益復(fù)雜的應(yīng)用程序和云原生
    的頭像 發(fā)表于 12-09 17:33 ?909次閱讀

    Meta AI數(shù)據(jù)中心網(wǎng)絡(luò)用了哪家的芯片

    ? 在Meta,我們相信開放的硬件會(huì)推動(dòng)創(chuàng)新。在當(dāng)今世界,越來(lái)越多的數(shù)據(jù)中心基礎(chǔ)設(shè)施致力于支持新興的AI技術(shù),開放硬件在協(xié)助分解方面發(fā)揮著重要作用。通過(guò)將傳統(tǒng)數(shù)據(jù)中心技術(shù)分解為其核心組件,我們可以
    的頭像 發(fā)表于 11-25 10:05 ?1668次閱讀
    Meta <b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>網(wǎng)絡(luò)用了哪家的<b class='flag-5'>芯片</b>