chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

分析 丨 AI數(shù)據(jù)中心堪比超算,NVIDIA與AMD同場競技

芯查查 ? 來源:芯查查 ? 作者:芯查查 ? 2023-07-17 10:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

超級計算機對于科學研究、能源、工程設計領域具有重要意義,在商業(yè)用途中也發(fā)揮重要作用。2022年高性能計算專業(yè)大會發(fā)布的全球超級計算機Top500排行榜顯示,美國橡樹嶺國家實驗室(ORNL)的Frontier系統(tǒng)位列榜首,自2022年6月以來,F(xiàn)rontier一直是全球超級計算機Top500名單上的強大設備。

wKgaomS0o3WAHNjJAACA-ItwBNA72.webp

圖注:全球超級計算機Top10,發(fā)布時間為2022年11月(來源:中科院網(wǎng)信工作網(wǎng))

進入2023年,超級計算機的排行將發(fā)生改變。

芯查查APP顯示,在美國勞倫斯利弗莫爾國家實驗室(LLNL)安裝的“El Capitan”超級計算機最快于2023年底啟動,從而可能刷新全球超級計算機榜單。El Capitan估計FP64峰值性能約為2.3 exaflops,比Frontier超級計算機的1.68 exaflops性能高出約37%。

同時,人工智能AI)應用掀起,超大規(guī)模云服務企和AI初創(chuàng)企業(yè)都開始構(gòu)建大型數(shù)據(jù)中心,比如,NVIDIA和CoreWeave正在為Inflection AI開發(fā)數(shù)據(jù)中心;Microsoft Azure正在為OpenAI構(gòu)建的數(shù)據(jù)中心。從下圖可以看出,目前在建的這兩個AI數(shù)據(jù)中心在TFLOPS算力性能上雖然不如現(xiàn)有的超級計算機,但是在成本上已經(jīng)超出很多。

wKgZomS0o3WAcF1_AAqzKgfquTo13.webp

圖注:超級計算機與AI數(shù)據(jù)中心對比(來源:nextplatform網(wǎng)站)

AI數(shù)據(jù)中心面向AI訓練和推理進行配置,在建的AI數(shù)據(jù)中心進程如何?使用了哪些處理器

Inflection AI使用處理器:NVIDIA H100Inflection AI是一家由Deep Mind前負責人創(chuàng)建,并由Microsoft和Nvidia支持的新創(chuàng)業(yè)公司。目前估值約為40億美元,產(chǎn)品為AI聊天機器人,支持計劃、調(diào)度和信息收集。

在籌集了13億美元的資金之后,Inflection AI將建立一個由多達22000個NVIDIA H100 GPU驅(qū)動的超級計算機集群,其峰值理論計算能力將與Frontier相當。理論上能夠提供1.474 exaflops的FP64性能。在CUDA內(nèi)核上運行通用FP64代碼時,峰值吞吐量僅為其一半:0.737 FP64 exaflops(與前文圖表數(shù)值略有出入,但相差不大)。雖然FP64性能對于許多科學工作負載很重要,但對于面向AI的任務,該系統(tǒng)可能會更快。FP16/BF16的峰值吞吐量為43.5 exaflops,F(xiàn)P8吞吐量的峰值吞吐量是87.1 exaflops。

圖片來源:NVIDIA

Inflection AI的服務器集群成本尚不清楚,但NVIDIA H100 GPU零售價超過30000美元,預計該集群的GPU成本將達到數(shù)億美元。加上所有機架服務器和其他硬件,將占13億美元資金的大部分。

在市場需求遠遠超過供應的情況下,NVIDIA或AMD不會為其GPU計算引擎給予大幅折扣就,其服務器OEM和ODM合作伙伴同樣如此。因此,與美國的百億億次高性能計算系統(tǒng)相比,這些設備非常昂貴。Inflection AI的FP16半精度性能為21.8 exaflops,足以驅(qū)動一些非常大的LLM和DLRM(大型語言模型和深度學習推薦模型)。

El Capitan使用處理器:AMD Instinct MI300A為超級計算機“El Capitan”提供算力的處理器是“Antares”AMD Instinct MI300A CPU-GPU混合體,其FP16矩陣數(shù)學性能仍然未知。

wKgZomS0o3aAJ_eFAAgqMM3KNEw45.webp

圖注:基于AMD MI300的刀片設施(來源:http://tomshardware.com

Instinct MI300是一款數(shù)據(jù)中心APU,它混合了總共13個chiplet,其中許多是3D堆疊的,形成一個單芯片封裝,其中包含24個Zen 4 CPU內(nèi)核,融合CDNA 3圖形引擎和八個總?cè)萘繛?28GB的HBM3內(nèi)存堆棧。這個芯片擁有1460億個晶體管,使其成為AMD投入生產(chǎn)的最大芯片。其中,由9個計算die構(gòu)成的5nm CPU和GPU混合體,在4個6nm die上進行3D堆疊,這4個die主要處理內(nèi)存和I/O流量。

預計每個MI300A在2.32 GHz時鐘頻率下可提供784 teraflops性能,常規(guī)MI300的時鐘頻率約為1.7GHz。惠普公司(HPE)或許在El Capitan系統(tǒng)中為每個滑軌配置8個MI300A,El Capitan的計算部分應該有大約2931個節(jié)點、46個機柜和8行設備?;谏鲜霾聹y,El Capitan應該有大約23500個MI300 GPU,具備大約18.4 exaflops的FP16矩陣數(shù)學峰值性能。相比Inflection AI,用更少的錢,發(fā)揮出更大性能。

Microsoft/OpenAI使用處理器:NVIDIA H100傳聞Microsoft正在為OpenAI構(gòu)建25000 GPU集群,用于訓練GPT-5。

從歷史上看,Microsoft Azure使用PCI-Express版本的NVIDIA加速器構(gòu)建其HPC和AI集群,并使用InfiniBand網(wǎng)絡將它們連接在一起。

為OpenAI構(gòu)建的集群使用NVIDIA H100 PCI-Express板卡,假設為每個20000美元,即5億美元。另外,使用英特爾“Sapphire Rapids”至強SP主機處理器、2TB的主內(nèi)存和合理數(shù)量的本地存儲,每個節(jié)點再增加150000美元,這將為容納這25000個GPU的3125個節(jié)點再增加4.69億美元。InfiniBand網(wǎng)絡將增加2.42億美元。合計12.1億美元,這些費用要比國家實驗室的超級計算機貴很多。

全球超級計算機追求新穎的架構(gòu),為最終商業(yè)化而進行研發(fā)。超大規(guī)模云服務商可以做同樣的數(shù)學運算,構(gòu)建自己的計算引擎,包括亞馬遜網(wǎng)絡服務、谷歌、百度和Facebook都是如此。即使有50%的折扣,諸如Inflection AI和OpenAI的設備單位價格仍然比國家實驗室為超級計算機昂貴。

“神威·太湖之光”使用處理器:申威26010以2022年的全球超級計算機榜單來看,進入Top10的我國超級計算機是“神威·太湖之光”。資料顯示,該計算機安裝了40960個中國自主研發(fā)的申威26010眾核處理器,采用64位自主神威指令系統(tǒng),峰值性能為12.5億億次每秒,持續(xù)性能為9.3億億次每秒,核心工作頻率1.5GHz。

申威和龍芯目前是我國自研處理器的代表,兩者均采用自研處理器的指令集架構(gòu)。CPU國產(chǎn)化目前有3種方式,一個是獲得x86內(nèi)核授權(quán),一個是獲得Arm指令集架構(gòu)授權(quán),另一種是自研指令集架構(gòu),這種方式的安全可控程度較高,也是自主化較為徹底的一種方式。

wKgaomS0o3aAKjaPAAC8Au-mzr868.webp

圖注:國內(nèi)服務器處理器廠商

小 結(jié)隨著人工智能應用發(fā)酵,超級計算機與AI數(shù)據(jù)中心的界限可能變得模糊,兩者的硬件和架構(gòu)已經(jīng)發(fā)展到可以更快地處理更多數(shù)據(jù),因此其配置將會逐步超越,芯查查認為,整體呈現(xiàn)為幾點趨勢:面向AI應用,高性能處理器采用更多核心、異質(zhì)架構(gòu)將更加普遍,以支持更多的并行計算和更快的數(shù)據(jù)處理速度,處理器的內(nèi)存管理和緩存設計也得到了優(yōu)化,以減少對主存儲器的訪問延遲。專門的加速器,比如圖形處理單元(GPU)和神經(jīng)網(wǎng)絡處理單元(NPU),將被引入處理器,高效地執(zhí)行矩陣計算和神經(jīng)網(wǎng)絡。能效是AI數(shù)據(jù)中心和超級計算機共同難點,處理器能效成為要點,設計趨向于降低功耗和散熱需求,采用更先進的制程技術(shù)、優(yōu)化的電源管理以及動態(tài)頻率調(diào)節(jié)等方法。AI數(shù)據(jù)中心和超級計算機建設的需求推動了處理器的發(fā)展,也推動了存儲、結(jié)構(gòu)和GPU的進步,這些組件都將服務于系統(tǒng)的數(shù)據(jù)吞吐量和效率。


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    17

    文章

    5604

    瀏覽量

    74848
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39270

    瀏覽量

    300146
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    數(shù)據(jù)中心缺電,英偉達又有新動作!

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)近日,英偉達宣布將舉辦一私人峰會,邀請聚焦數(shù)據(jù)中心電力問題的初創(chuàng)公司參會,共同應對可能阻礙人工智能發(fā)展的電力難題。當下,大模型訓練與推理對力的需求呈指數(shù)級增長
    的頭像 發(fā)表于 12-14 00:06 ?1.3w次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>缺電,英偉達又有新動作!

    派恩杰SiC器件在數(shù)據(jù)中心中的應用

    從傳統(tǒng)互聯(lián)網(wǎng)數(shù)據(jù)中心(IDC)到人工智能數(shù)據(jù)中心(AIDC)的演進,本質(zhì)上是一能源效率與力密度的極限競賽。AI
    的頭像 發(fā)表于 12-24 15:47 ?2061次閱讀
    派恩杰SiC器件在<b class='flag-5'>數(shù)據(jù)中心</b>中的應用

    微軟最新AI技術(shù)數(shù)據(jù)中心即將啟用

    微軟在美國威斯康星州 Mount Pleasant 建設的最新AI技術(shù)數(shù)據(jù)中心即將投入使用,預計 2026 年初正式啟用。第二座規(guī)模中心也在規(guī)劃中,總投資將超過 70 億美元。
    的頭像 發(fā)表于 11-05 16:37 ?848次閱讀

    華為星河AI數(shù)據(jù)中心網(wǎng)絡亮相ODCC 2025

    以“擁抱AI變革 點燃網(wǎng)引擎”為主題的2025開放數(shù)據(jù)中心大會(以下簡稱“ODCC 2025”)在北京國際會議中心召開。在這場匯集了數(shù)據(jù)中心
    的頭像 發(fā)表于 09-16 14:54 ?2559次閱讀
    華為星河<b class='flag-5'>AI</b>高<b class='flag-5'>算</b>效<b class='flag-5'>數(shù)據(jù)中心</b>網(wǎng)絡亮相ODCC 2025

    睿海光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G光模塊升級

    合作案例,成為AI數(shù)據(jù)中心升級的關(guān)鍵推動者。 一、技術(shù)實力:AI光模塊的研發(fā)與量產(chǎn)先鋒 睿海光電作為全球AI光模塊的領先品牌,專注于為數(shù)據(jù)中心
    發(fā)表于 08-13 19:01

    加速AI未來,睿海光電800G OSFP光模塊重構(gòu)數(shù)據(jù)中心互聯(lián)標準

    客戶的共同選擇 中心應用 :為某國家實驗室提供800G OSFP SR8模塊,構(gòu)建E級互聯(lián)網(wǎng)絡
    發(fā)表于 08-13 16:38

    華為面向拉美地區(qū)發(fā)布全新星河AI數(shù)據(jù)中心網(wǎng)絡方案

    在華為數(shù)據(jù)通信創(chuàng)新峰會2025拉美站期間,以“星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能”為主題的分論壇上,華為面向拉美地區(qū)發(fā)布全新升級的星河AI
    的頭像 發(fā)表于 08-11 10:42 ?2212次閱讀

    PCIe協(xié)議分析儀在數(shù)據(jù)中心中有何作用?

    案例:PCIe分析儀在數(shù)據(jù)中心中的成功應用 案例1:AI訓練集群性能提升 問題:某AI訓練集群中,8塊GPU通過PCIe交換機互聯(lián),訓練任務完成時間
    發(fā)表于 07-29 15:02

    國民技術(shù)發(fā)布面向AI數(shù)據(jù)中心的3 kW數(shù)字電源參考設計方案

    報告記錄,電力消耗已占AI數(shù)據(jù)中心運營成本的60%以上,AI電源是驅(qū)動瓦特向比特轉(zhuǎn)化的智能神經(jīng)中樞,通過極致能效與動態(tài)調(diào)度實現(xiàn)“每度電產(chǎn)出最大有效
    的頭像 發(fā)表于 07-22 14:01 ?1677次閱讀
    國民技術(shù)發(fā)布面向<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>的3 kW數(shù)字電源參考設計方案

    國民技術(shù)發(fā)布面向AI數(shù)據(jù)中心的3 kW數(shù)字電源參考設計方案

    2024報告記錄,電力消耗已占AI數(shù)據(jù)中心運營成本的60%以上,AI電源是驅(qū)動瓦特向比特轉(zhuǎn)化的智能神經(jīng)中樞,通過極致能效與動態(tài)調(diào)度實現(xiàn)“每度電產(chǎn)出最大有效
    的頭像 發(fā)表于 07-16 17:13 ?1395次閱讀
    國民技術(shù)發(fā)布面向<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>的3 kW數(shù)字電源參考設計方案

    簡單認識安森美AI數(shù)據(jù)中心電源解決方案

    面對AI力需求爆發(fā)式增長,數(shù)據(jù)中心電力系統(tǒng)正面臨前所未有的挑戰(zhàn)。安森美(onsemi)推出的AI數(shù)據(jù)中心電源解決方案,直擊能效、尺寸等痛點
    的頭像 發(fā)表于 07-05 13:03 ?3377次閱讀
    簡單認識安森美<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>電源解決方案

    晶科能源N型TOPCon組件滿足AI數(shù)據(jù)中心的能源剛需

    人工智能的爆發(fā)式發(fā)展正將數(shù)據(jù)中心推向能源消耗的“臨界點”——一座大型數(shù)據(jù)中心年用電量一座小型城市的居民用電總和,而國際能源署預測,到2030年全球
    的頭像 發(fā)表于 04-23 09:33 ?940次閱讀

    適用于數(shù)據(jù)中心AI時代的800G網(wǎng)絡

    隨著人工智能(AI)技術(shù)的迅猛發(fā)展,數(shù)據(jù)中心面臨著前所未有的計算和網(wǎng)絡壓力。從大語言模型(LLM)訓練到生成式AI應用,海量數(shù)據(jù)處理需求推動了網(wǎng)絡帶寬的快速增長。在此背景下,800G網(wǎng)
    發(fā)表于 03-25 17:35

    數(shù)據(jù)中心發(fā)展與改造

    存在的問題 1.?電費成本高企,占40% 數(shù)據(jù)中心電力成本占運營總成本的40%-60%,部分AI力密集型場景甚至高達70%。以年耗電2
    的頭像 發(fā)表于 02-28 16:50 ?925次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>發(fā)展與改造

    AI力需求激增,數(shù)據(jù)中心如何應對能源挑戰(zhàn)

    ? “AI的爆發(fā)帶來了巨大的力需求,為了滿足AI大模型的訓練和應用推理,智中心的建設將加速。根據(jù)工信部的規(guī)劃,中國智能
    的頭像 發(fā)表于 02-22 09:49 ?1275次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>算</b>力需求激增,<b class='flag-5'>數(shù)據(jù)中心</b>如何應對能源挑戰(zhàn)