chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用NVIDIA HGX H100加速計(jì)算數(shù)據(jù)中心平臺(tái)應(yīng)用

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:William Tsu ? 2022-04-20 10:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA 的使命是加快我們的時(shí)代達(dá)芬奇和愛因斯坦的工作,并賦予他們解決社會(huì)的巨大挑戰(zhàn)。隨著 人工智能AI )、 高性能計(jì)算 ( HPC )和數(shù)據(jù)分析的復(fù)雜性呈指數(shù)級(jí)增長(zhǎng),科學(xué)家需要一個(gè)先進(jìn)的計(jì)算平臺(tái),能夠在一個(gè)十年內(nèi)實(shí)現(xiàn)百萬次的加速,以解決這些非同尋常的挑戰(zhàn)。

為了回答這個(gè)需求,我們介紹了NVIDIA HGX H100 ,一個(gè)由 NVIDIA Hopper 架構(gòu) 供電的密鑰 GPU 服務(wù)器構(gòu)建塊。這一最先進(jìn)的平臺(tái)安全地提供了低延遲的高性能,并集成了從網(wǎng)絡(luò)到數(shù)據(jù)中心級(jí)計(jì)算(新的計(jì)算單元)的全套功能。

在這篇文章中,我將討論NVIDIA HGX H100 是如何幫助我們加速計(jì)算數(shù)據(jù)中心平臺(tái)的下一個(gè)巨大飛躍。

HGX H100 8-GPU

HGX H100 8- GPU 是新一代 Hopper GPU 服務(wù)器的關(guān)鍵組成部分。它擁有八個(gè) H100 張量核 GPU 和四個(gè)第三代 NV 交換機(jī)。每個(gè) H100 GPU 都有多個(gè)第四代 NVLink 端口,并連接到所有四個(gè) NVLink 交換機(jī)。每個(gè) NVSwitch 都是一個(gè)完全無阻塞的交換機(jī),完全連接所有八個(gè) H100 Tensor Core GPU 。

The HGX H100 8-GPU represents the key building block of the new Hopper generation GPU server and hosts eight H100 Tensor Core GPUs and four third generation NVSwitch.

圖 1 。 HGX H100 8-GPU 的高級(jí)框圖

NVSwitch 的這種完全連接的拓?fù)浣Y(jié)構(gòu)使任何 H100 都可以同時(shí)與任何其他 H100 通話。值得注意的是,這種通信以每秒 900 千兆字節(jié)( GB / s )的 NVLink 雙向速度運(yùn)行,這是當(dāng)前 PCIe Gen4 x16 總線帶寬的 14 倍多。

第三代 NVSwitch 還為集體運(yùn)營提供了新的硬件加速,多播和 NVIDIA 的網(wǎng)絡(luò)規(guī)模大幅縮減。結(jié)合更快的 NVLink 速度,像all-reduce這樣的普通人工智能集體操作的有效帶寬比 HGX A100 增加了 3 倍。集體的 NVSwitch 加速也顯著降低了 GPU 上的負(fù)載。

表 1 。將 HGX A100 8- GPU 與新的 HGX H100 8-GPU 進(jìn)行比較

*注: FP 性能包括稀疏性

HGX H100 8- GPU 支持 NVLink 網(wǎng)絡(luò)

新興的 exascale HPC 和萬億參數(shù)人工智能模型(用于精確對(duì)話人工智能等任務(wù))需要數(shù)月的訓(xùn)練,即使是在超級(jí)計(jì)算機(jī)上。將其壓縮到業(yè)務(wù)速度并在數(shù)小時(shí)內(nèi)完成培訓(xùn)需要服務(wù)器集群中每個(gè) GPU 之間的高速、無縫通信。

為了解決這些大的使用案例,新的 NVLink 和 NVSwitch 旨在使 HGX H100 8- GPU 能夠通過新的 NVLink 網(wǎng)絡(luò)擴(kuò)展并支持更大的 NVLink 域。 HGX H100 8- GPU 的另一個(gè)版本具有這種新的 NVLink 網(wǎng)絡(luò)支持。

The HGX H100 8-GPU was designed to scale up to support a larger NVLink domain with the new NVLink-Network.

圖 2 。支持 NVLink 網(wǎng)絡(luò)的 HGX H100 8- GPU 的高級(jí)框圖

使用 HGX H100 8- GPU 和 NVLink 網(wǎng)絡(luò)支持構(gòu)建的系統(tǒng)節(jié)點(diǎn)可以通過八進(jìn)制小尺寸可插拔( OSFP ) LinkX 電纜和新的外部 NVLink 交換機(jī)完全連接到其他系統(tǒng)。此連接最多支持 256 個(gè) GPU NVLink 域。圖 3 顯示了集群拓?fù)洹?/p>

表 2 。比較 256 個(gè) A100 GPU 吊艙和 256 個(gè) H100 GPU 吊艙

*注: FP 性能包括稀疏性

目標(biāo)用例和性能優(yōu)勢(shì)

隨著 HGX H100 計(jì)算和網(wǎng)絡(luò)能力的大幅增加, AI 和 HPC 應(yīng)用程序的性能得到了極大的提高。

今天的主流 AI 和 HPC 模型可以完全駐留在單個(gè)節(jié)點(diǎn)的聚合 GPU 內(nèi)存中。例如, BERT -Large 、 Mask R-CNN 和 HGX H100 是最高效的培訓(xùn)解決方案。

對(duì)于更先進(jìn)、更大的 AI 和 HPC 模型,該模型需要多個(gè)聚合 GPU 內(nèi)存節(jié)點(diǎn)才能適應(yīng)。例如,具有 TB 級(jí)嵌入式表的深度學(xué)習(xí)推薦模型( DLRM )、大量混合專家( MoE )自然語言處理模型,以及具有 NVLink 網(wǎng)絡(luò)的 HGX H100 加速了關(guān)鍵通信瓶頸,是此類工作負(fù)載的最佳解決方案。

圖 4 來自 NVIDIA H100 GPU 體系結(jié)構(gòu) 白皮書顯示了 NVLink 網(wǎng)絡(luò)帶來的額外性能提升。

所有性能數(shù)據(jù)都是基于當(dāng)前預(yù)期的初步數(shù)據(jù),可能會(huì)隨著運(yùn)輸產(chǎn)品的變化而變化。 A100 集群: HDR IB 網(wǎng)絡(luò)。 H100 集群: NDR IB 網(wǎng)絡(luò)和 NVLink 網(wǎng)絡(luò),如圖所示。

# GPU :氣候建模 1K , LQCD 1K ,基因組學(xué) 8 , 3D-FFT 256 , MT-NLG 32 (批次大小: A100 為 4 , 1 秒 H100 為 60 , A100 為 8 , 1.5 和 2 秒 H100 為 64 ), MRCNN 8 (批次 32 ), GPT-3 16B 512 (批次 256 ), DLRM 128 (批次 64K ), GPT-3 16K (批次 512 ), MoE 8K (批次 512 ,每個(gè) GPU 一名專家)?

HGX H100 4-GPU

除了 8- GPU 版本外, HGX 系列還具有一個(gè) 4-GPU 版本,該版本直接與第四代 NVLink 連接。

H100 對(duì) H100 點(diǎn)對(duì)點(diǎn)對(duì)等 NVLink 帶寬為 300 GB / s 雙向,比今天的 PCIe Gen4 x16 總線快約 5 倍。

HGX H100 4- GPU 外形經(jīng)過優(yōu)化,可用于密集 HPC 部署:

多個(gè) HGX H100 4- GPU 可以裝在 1U 高液體冷卻系統(tǒng)中,以最大化每個(gè)機(jī)架的 GPU 密度。

帶有 HGX H100 4- GPU 的完全無 PCIe 交換機(jī)架構(gòu)直接連接到 CPU ,降低了系統(tǒng)材料清單并節(jié)省了電源

對(duì)于 CPU 更密集的工作負(fù)載, HGX H100 4- GPU 可以與兩個(gè) CPU 插槽配對(duì),以提高 CPU 與 GPU 的比率,從而實(shí)現(xiàn)更平衡的系統(tǒng)配置。

人工智能和高性能計(jì)算的加速服務(wù)器平臺(tái)

NVIDIA 正與我們的生態(tài)系統(tǒng)密切合作,在今年晚些時(shí)候?qū)⒒?HGX H100 的服務(wù)器平臺(tái)推向市場(chǎng)。我們期待著把這個(gè)強(qiáng)大的計(jì)算工具交給你們,使你們能夠以人類歷史上最快的速度創(chuàng)新和完成你們一生的工作。

關(guān)于作者

William Tsu NVIDIA HGX 數(shù)據(jù)中心產(chǎn)品線的產(chǎn)品管理。他與客戶和合作伙伴合作,將世界上性能最高的人工智能、深度學(xué)習(xí)和 HPC 服務(wù)器平臺(tái)推向市場(chǎng)。威廉最初加入NVIDIA 是作為一名圖形處理器芯片設(shè)計(jì)師。他是最初的 PCI Express 行業(yè)標(biāo)準(zhǔn)規(guī)范的共同作者,也是 12 項(xiàng)專利的共同發(fā)明人。威廉獲得了他的學(xué)士學(xué)位,碩士學(xué)位在計(jì)算機(jī)科學(xué)和 MBA 從加利福尼亞大學(xué),伯克利。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5570

    瀏覽量

    109383
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    17

    文章

    5586

    瀏覽量

    74809
  • 人工智能
    +關(guān)注

    關(guān)注

    1814

    文章

    49960

    瀏覽量

    263625
  • H100
    +關(guān)注

    關(guān)注

    0

    文章

    33

    瀏覽量

    572
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    48V電壓在數(shù)據(jù)中心計(jì)算平臺(tái)中至關(guān)重要

    引言 隨著AI和云計(jì)算對(duì)電力需求的加速增長(zhǎng),數(shù)據(jù)中心的設(shè)計(jì)也在以前所未有的速度發(fā)展演變。像±400V DC和800V DC等新的高壓直流輸電(HVDC)架構(gòu)能夠帶來更高的功率密度、更低的傳輸損耗
    的頭像 發(fā)表于 12-05 14:03 ?502次閱讀

    科通技術(shù)亮相2025上海國際數(shù)據(jù)中心及云計(jì)算產(chǎn)業(yè)展覽會(huì)

    2025年11月18日至20日,CDCE國際數(shù)據(jù)中心及云計(jì)算展在上海新國際博覽中心成功舉辦。作為NVIDIA Networking及NVIDIA
    的頭像 發(fā)表于 12-02 10:21 ?725次閱讀

    Cadence 借助 NVIDIA DGX SuperPOD 模型擴(kuò)展數(shù)字孿生平臺(tái)庫,加速 AI 數(shù)據(jù)中心部署與運(yùn)營

    [1]? 利用搭載 DGX GB200 系統(tǒng)的 NVIDIA DGX SuperPOD[2]?數(shù)字孿生系統(tǒng)實(shí)現(xiàn)了庫的重大擴(kuò)展 。借助 NVIDIA 高性能加速
    的頭像 發(fā)表于 09-15 15:19 ?1398次閱讀

    加速AI未來,睿海光電800G OSFP光模塊重構(gòu)數(shù)據(jù)中心互聯(lián)標(biāo)準(zhǔn)

    定義數(shù)據(jù)中心互聯(lián)的新范式。 一、技術(shù)實(shí)力:800G OSFP光模塊的卓越性能表現(xiàn) 睿海光電800G OSFP光模塊系列采用行業(yè)領(lǐng)先的PAM4調(diào)制技術(shù),具備以下核心優(yōu)勢(shì): 超高速率 :?jiǎn)文鬏斔俾蔬_(dá)
    發(fā)表于 08-13 16:38

    借助美光9550高性能SSD提升AI工作負(fù)載

    推理將成為數(shù)據(jù)中心最常見的工作負(fù)載,這一點(diǎn)毋庸置疑。隨著數(shù)據(jù)中日益廣泛采用NVIDIA H100,以及非NVL72系統(tǒng)開始部署NVIDIA
    的頭像 發(fā)表于 07-14 15:58 ?1599次閱讀
    借助美光9550高性能SSD提升AI工作負(fù)載

    中型數(shù)據(jù)中心中的差分晶體振蕩器應(yīng)用與匹配方案

    對(duì)時(shí)鐘源的穩(wěn)定性與抖動(dòng)性能要求顯著提升,差分晶體振蕩器在其中扮演著核心角色。 中型數(shù)據(jù)中心典型案例 1. 大型制造企業(yè)工業(yè)數(shù)據(jù)中心 應(yīng)用背景: 服務(wù)于制造集團(tuán)的MES系統(tǒng)、IIoT平臺(tái)、設(shè)備監(jiān)控與調(diào)度
    發(fā)表于 07-01 16:33

    小型數(shù)據(jù)中心晶振選型關(guān)鍵參數(shù)全解

    邊緣計(jì)算數(shù)據(jù)中心 應(yīng)用背景:該數(shù)據(jù)中心用于處理來自IoT設(shè)備和遠(yuǎn)程傳感器的數(shù)據(jù),具備快速數(shù)據(jù)傳輸和高效存儲(chǔ)能力。 使用設(shè)備:邊緣交換機(jī)、邊緣路由器、存儲(chǔ)設(shè)備(NAS)、無線接入點(diǎn)等。
    發(fā)表于 06-11 13:37

    磁懸浮冷站引領(lǐng)綠色革命,維諦技術(shù)(Vertiv)助力中國電信江西云計(jì)算數(shù)據(jù)中心制冷系統(tǒng)實(shí)現(xiàn)PUE1.2

    ,如何讓數(shù)據(jù)中心既當(dāng)“最強(qiáng)大腦”又做“節(jié)能標(biāo)兵”?在中國電信江西云計(jì)算數(shù)據(jù)中心,維諦技術(shù)(Vertiv)搭建的業(yè)界首個(gè)集成自然冷和余熱回收的磁懸浮集成冷站,正在上
    的頭像 發(fā)表于 05-22 14:18 ?863次閱讀
    磁懸浮冷站引領(lǐng)綠色革命,維諦技術(shù)(Vertiv)助力中國電信江西云<b class='flag-5'>計(jì)算數(shù)據(jù)中心</b>制冷系統(tǒng)實(shí)現(xiàn)PUE1.2

    利用NVIDIA技術(shù)構(gòu)建從數(shù)據(jù)中心到邊緣的智慧醫(yī)院解決方案

    全球領(lǐng)先的電子制造商正在利用 NVIDIA 技術(shù),構(gòu)建從數(shù)據(jù)中心到邊緣的智慧醫(yī)院解決方案。
    的頭像 發(fā)表于 05-22 09:50 ?858次閱讀

    GPU 維修干貨 | 英偉達(dá) GPU H100 常見故障有哪些?

    上漲,英偉達(dá)H100GPU憑借其強(qiáng)大的算力,成為AI訓(xùn)練、高性能計(jì)算領(lǐng)域的核心硬件。然而,隨著使用場(chǎng)景的復(fù)雜化,H100服務(wù)器故障率也逐漸攀升,輕則影響業(yè)務(wù)進(jìn)度,重
    的頭像 發(fā)表于 05-05 09:03 ?2767次閱讀
    GPU 維修干貨 | 英偉達(dá) GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    適用于數(shù)據(jù)中心和AI時(shí)代的800G網(wǎng)絡(luò)

    數(shù)據(jù)中心依賴數(shù)千甚至上萬個(gè)GPU集群進(jìn)行高性能計(jì)算,對(duì)帶寬、延遲和數(shù)據(jù)交換效率提出極高要求。 AI云:以生成式AI為核心的云平臺(tái),為多租戶環(huán)境提供推理服務(wù)。這類
    發(fā)表于 03-25 17:35

    NVIDIA加速的Apache Spark助力企業(yè)節(jié)省大量成本

    隨著 NVIDIA 推出 Aether 項(xiàng)目,通過采用 NVIDIA 加速的 Apache Spark 企業(yè)得以自動(dòng)加速數(shù)據(jù)中心規(guī)模的分析
    的頭像 發(fā)表于 03-25 15:09 ?1035次閱讀
    <b class='flag-5'>NVIDIA</b><b class='flag-5'>加速</b>的Apache Spark助力企業(yè)節(jié)省大量成本

    優(yōu)化800G數(shù)據(jù)中心:高速線纜、有源光纜和光纖跳線解決方案

    隨著技術(shù)的飛速發(fā)展,數(shù)據(jù)中心正在從100G和400G演進(jìn)到800G時(shí)代,對(duì)高速數(shù)據(jù)傳輸?shù)男枨笈c日俱增。因此,選擇高效且可靠的布線解決方案對(duì)于800G數(shù)據(jù)中心至關(guān)重要。本文將深入探討80
    發(fā)表于 03-24 14:20

    英偉達(dá)A100H100比較

    英偉達(dá)A100H100都是針對(duì)高性能計(jì)算和人工智能任務(wù)設(shè)計(jì)的GPU,但在性能和特性上存在顯著差異。以下是對(duì)這兩款GPU的比較: 1. 架構(gòu)與核心規(guī)格: A100: 架構(gòu): 基于Amp
    的頭像 發(fā)表于 02-10 17:05 ?1.2w次閱讀
    英偉達(dá)A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比較

    利用NVIDIA DPF引領(lǐng)DPU加速計(jì)算的未來

    越來越多的企業(yè)開始采用加速計(jì)算,從而滿足生成式 AI、5G 電信和主權(quán)云的需求。NVIDIA 推出了 DOCA 平臺(tái)框架(DPF),該框架提供了基礎(chǔ)構(gòu)建模塊來釋放
    的頭像 發(fā)表于 01-24 09:29 ?1464次閱讀
    <b class='flag-5'>利用</b><b class='flag-5'>NVIDIA</b> DPF引領(lǐng)DPU<b class='flag-5'>加速</b>云<b class='flag-5'>計(jì)算</b>的未來