chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達發(fā)布新一代H200,搭載HBM3e,推理速度是H100兩倍!

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-11-15 01:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/李彎彎)日前,英偉達正式宣布,在目前最強AI芯片H100的基礎(chǔ)上進行一次大升級,發(fā)布新一代H200芯片。H200擁有141GB的內(nèi)存、4.8TB/秒的帶寬,并將與H100相互兼容,在推理速度上幾乎達到H100的兩倍。H200預計將于明年二季度開始交付。此外,英偉達還透露,下一代Blackwell B100 GPU也將在2024年推出。

wKgZomVTSeqAc4mwAABD6e_8I4c101.jpg
英偉達新發(fā)布的H200性能大幅提升(來源:英偉達官網(wǎng))


首款搭載HBM3e的GPU,推理速度幾乎是H100的兩倍

與A100和H100相比,H200最大的變化就是內(nèi)存。搭載世界上最快的內(nèi)存HBM3e技術(shù)的H200在性能上得到了直接提升,141GB的內(nèi)存幾乎是A100和H100最高80GB內(nèi)存的2倍,4.8TB每秒的帶寬達到A100的2.4倍,顯著高于H100 3.35TB每秒的帶寬。

今年早些時候,就有消息稱,包括英偉達在內(nèi),全球多個科技巨頭都在競購SK海力士第五代高帶寬內(nèi)存HBM3e。 HBM是由AMD和SK海力士發(fā)起的基于3D堆棧工藝的高性能DRAM,適用于高存儲器帶寬需求的應(yīng)用場合。如今HBM已經(jīng)發(fā)展出HBM2、HBM2e以及HBM3,HBM3e是HBM3的新一代產(chǎn)品。英偉達、AMD等企業(yè)的高端AI芯片大多搭載HBM。

電子發(fā)燒友此前報道過,英偉達歷代主流訓練芯片基本都配置HBM,其2016年發(fā)布的首個采用帕斯卡架構(gòu)的顯卡TeslaP100已搭載了HBM2,隨后TeslaV100也采用了HBM2;2017年初,英偉達發(fā)布的Quadro系列專業(yè)卡中的旗艦GP100也采用了HBM2;2021年推出的TeslaA100計算卡也搭載了HBM2E,2022年推出了面向大陸地區(qū)的A800,同樣也配置HBM2E;2022年推出了市面上最強的面向AI服務(wù)器的GPU卡H100,采用的HBM3。

AMD今年6月推出的號稱是最強的AI芯片MI300X,就是搭載由SK海力士及三星電子供應(yīng)的HBM。AMD稱,MI300X提供的HBM密度最高是英偉達AI芯片H100的2.4倍,其HBM帶寬最高是H100的1.6倍。這意味著,AMD的芯片可以運行比英偉達芯片更大的模型。

如今英偉達新發(fā)布的H200搭載HBM3e,可想而知在性能上將會更上一層。H200配備141GB的HBM3e內(nèi)存,運行速率約為6.25 Gbps,六個HBM3e堆棧為每個GPU帶來4.8 TB/s的總帶寬。原有的H100配備80GB的HBM3,對應(yīng)的總帶寬為3.35 TB/s,這是一個巨大的進步。相比于H100的SXM版本,H200的SXM版本將內(nèi)存容量和總帶寬分別提高了76%和43%。

英偉達表示,基于與H100相同的Hopper架構(gòu),H200將具有H100的一切功能,例如可以用來加速基于Transformer架構(gòu)搭建的深度學習模型的Transformer Engine功能。

根據(jù)其官網(wǎng)信息,H200在大模型Llama 2、GPT-3.5的輸出速度上分別是H100的1.9倍和1.6倍,在高性能計算HPC方面的速度更是達到了雙核x86 CPU的110倍。

TF32 Tensor Core(張量核心)中,H200可達到989萬億次浮點運算;INT8張量核心下提供3,958 TFLOPS(每秒3958萬億次的浮點運算)。

不僅如此,基于H200芯片構(gòu)建的HGX H200加速服務(wù)器平臺,擁有 NVLink 和 NVSwitch的高速互連支持。8個HGX H200則提供超過32 petaflops(每秒1000萬億次的浮點運算)的FP8深度學習計算和 1.1TB 聚合高帶寬內(nèi)存,可為科學研究和 AI 等應(yīng)用的工作負載提供更高的性能支持,包括超1750億參數(shù)的大模型訓練和推理。

英偉達副總裁Ian Buck表示,為了訓練生成式AI和高性能計算應(yīng)用,必須使用高性能GPU。有了H200,行業(yè)領(lǐng)先的AI超級計算平臺可以更快地解決一些世界上最重要的挑戰(zhàn)。

目前,英偉達的全球合作伙伴服務(wù)器制造商生態(tài)系統(tǒng)包括華擎 Rack、華碩、戴爾科技、Eviden、技嘉、慧與、英格拉科技、聯(lián)想、QCT、Supermicro、緯創(chuàng)資通和緯穎科技等,可以直接使用H200更新其現(xiàn)有系統(tǒng)。除了英偉達自己投資的CoreWeave、Lambda和 Vultr之外,亞馬遜網(wǎng)絡(luò)服務(wù)、谷歌云、微軟Azure 和甲骨文云等云服務(wù)提供商將從明年開始首批部署H200。

如果沒有獲得出口許可,新H200不會銷往中國

這款H200能否對華出口也是大家關(guān)心的問題。對此,英偉達表示,如果沒有出口許可,新的H200將不會銷往中國。去年9月,英偉達高端GPU對中國出口就受到限制,當時英偉達表示,美國通過公司向中國出口A100和H100芯片將需要新的許可證要求,同時DGX或任何其他包含A100或H100芯片的產(chǎn)品,以及未來性能高于A100的芯片都將受到新規(guī)管制。

根據(jù)美國商務(wù)部的法規(guī),其主要限制的是算力和帶寬,算力上線是4800 TOPS,帶寬上線是600 GB/s。為了應(yīng)對這個問題,英偉達后來向中國企業(yè)提供了替代版本A800和H800。A800的帶寬為400GB/s,低于A100的600GB/s,H800據(jù)透露約為H100的一半。這意味著A800、H800在進行AI模型訓練的時候,需要耗費更長的時間。

然而美國政府認為,H800在某些情況下算力仍然不亞于H100。為了進一步加強對AI芯片的出口管制,美國計劃用多項新的標準來替換掉之前針對“帶寬參數(shù)”。今年10月,美國商務(wù)部工業(yè)與安全局(BIS)發(fā)布更新針對AI芯片的出口管制規(guī)定,根據(jù)新規(guī)定,美國商務(wù)部計劃引入一項被稱為“性能密度”的參數(shù),來防止企業(yè)尋找到變通的方案,修訂后的出口管制措施將禁止美國企業(yè)向中國出售運行速度達到300teraflops(即每秒可計算 3億次運算)及以上的數(shù)據(jù)中心芯片。根據(jù)這樣的規(guī)定,在沒有獲得許可的情況下,英偉達新發(fā)布的H200必然是沒有辦法向中國企業(yè)出售。


事實上,在美國政府今年10月發(fā)布的新規(guī)下,英偉達不少產(chǎn)品都在限制范圍內(nèi),包括但并不限于A100、A800、H100、H800、L40、L40 以及RTX 4090。任何集成了一個或多個以上芯片的系統(tǒng),包括但不限于英偉達DGX、HGX系統(tǒng),也在新規(guī)涵蓋范圍之內(nèi)。

針對此情況,有消息稱,本月初英偉達已經(jīng)向經(jīng)銷商公布“中國特供版”HGX H20、L20 PCle、L2 PCle產(chǎn)品信息,分別針對訓練、推理和邊緣場景,最快將于11月16日公布,量產(chǎn)時間為2023年12月至2024年1月。其中,HGX H20在帶寬、計算速度等方面均有所限制,理論綜合算力要比英偉達H100降80%左右。

此外,據(jù)英特爾供應(yīng)鏈透露,英特爾也已經(jīng)針對最新發(fā)布的Gaudi2推出降規(guī)版出貨,預計將不受新禁令影響。不過無論是英偉達,還是英特爾針對中國市場推出的特供版,可想而知性能必然是會大打折扣的,而且從美國政府的舉措來看,特供版是否能夠長久供應(yīng)也是未知數(shù)。

總結(jié)

可以看到,英偉達此次發(fā)布的H100,是全球首款搭載HBM3e的GPU,擁有141GB的內(nèi)存、4.8TB/秒的帶寬,推理速度幾乎達到H100的兩倍??上攵?,有了H200,當前備受關(guān)注的AI大模型的訓練和部署應(yīng)用將會得到更快速地發(fā)展。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    23

    文章

    4014

    瀏覽量

    96791
  • HBM3
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    440
  • HBM3E
    +關(guān)注

    關(guān)注

    0

    文章

    82

    瀏覽量

    686
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    英偉 H100 GPU 掉卡?做好這五點,讓算力穩(wěn)如泰山!

    H100服務(wù)器停工天損失的算力成本可能比維修費還高。今天,我們給大家總結(jié)套“防掉卡秘籍”,從日常管理到環(huán)境把控,手把手教你把掉卡風險壓到最低。、供電是“生命線”,這
    的頭像 發(fā)表于 09-05 11:03 ?473次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b> <b class='flag-5'>H100</b> GPU 掉卡?做好這五點,讓算力穩(wěn)如泰山!

    英偉自研HBM基礎(chǔ)裸片

    電子發(fā)燒友網(wǎng)綜合報道,據(jù)臺媒消息,傳聞英偉已開始開發(fā)自己的HBM基礎(chǔ)裸片,預計英偉的自研HBM
    的頭像 發(fā)表于 08-21 08:16 ?2334次閱讀

    英偉認證推遲,但三星HBM3E有了新進展

    明年。目前博通憑借自有半導體設(shè)計能力,正為谷歌代工第七TPU"Ironwood"及Meta自研AI芯片"MTIA v3"。 ? 此外,三星電子也積極推進向亞馬遜云服務(wù)(AWS)供應(yīng)HBM3E 12層產(chǎn)品,近期已在平澤園區(qū)啟動實
    的頭像 發(fā)表于 07-12 00:16 ?3180次閱讀

    英偉Q3發(fā)布新一代人工智能系統(tǒng)

    5月19日消息,據(jù)外媒報道,在臺北國際電腦展上;黃仁勛宣布英偉將于2025年第三季度推出下一代GB300人工智能系統(tǒng)。 據(jù)悉,GB300 雖然與上一代 GB
    的頭像 發(fā)表于 05-19 18:02 ?471次閱讀

    GPU 維修干貨 | 英偉 GPU H100 常見故障有哪些?

    ABSTRACT摘要本文主要介紹英偉H100常見的故障類型和問題。JAEALOT2025年5月5日今年,國家政府報告提出要持續(xù)推進“人工智能+”行動,大力發(fā)展人工智能行業(yè),市場上對算力的需求持續(xù)
    的頭像 發(fā)表于 05-05 09:03 ?2023次閱讀
    GPU 維修干貨 | <b class='flag-5'>英偉</b><b class='flag-5'>達</b> GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    特朗普要叫停英偉對華特供版 英偉H20出口限制 或損失55億美元

    是“中國特供版”人工智能芯片;是英偉公司為符合美國出口規(guī)定專門為中國市場開發(fā)的定制芯片,H20芯片在訓練AI模型方面不如英偉其他芯片
    的頭像 發(fā)表于 04-16 16:59 ?1715次閱讀

    三星與英偉高層會晤,商討HBM3E供應(yīng)

    其高帶寬存儲器HBM3E產(chǎn)品中的初始缺陷問題,并就三星第五HBM3E產(chǎn)品向英偉供應(yīng)的相關(guān)事宜進行了深入討論。 此次高層會晤引發(fā)了外界的廣
    的頭像 發(fā)表于 02-18 11:00 ?781次閱讀

    英偉A100H100比較

    英偉A100H100都是針對高性能計算和人工智能任務(wù)設(shè)計的GPU,但在性能和特性上存在顯著差異。以下是對這款GPU的比較: 1. 架構(gòu)
    的頭像 發(fā)表于 02-10 17:05 ?1w次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比較

    GMI Cloud推出基于英偉H200的DeepSeek系列模型

    近日,GMI Cloud宣布成功上架了基于英偉H200 GPU的DeepSeek系列模型。這舉措標志著DeepSeek在AI應(yīng)用領(lǐng)域邁出了重要
    的頭像 發(fā)表于 02-08 09:41 ?664次閱讀

    三星電子將供應(yīng)改良版HBM3E芯片

    三星電子在近期舉行的業(yè)績電話會議中,透露了其高帶寬內(nèi)存(HBM)的最新發(fā)展動態(tài)。據(jù)悉,該公司的第五HBM3E產(chǎn)品已在2024年第三季度實現(xiàn)大規(guī)模生產(chǎn)和銷售,并在第四季度成功向多家GPU廠商及數(shù)據(jù)中心供貨。與上
    的頭像 發(fā)表于 02-06 17:59 ?908次閱讀

    顆芯片面積頂4顆H200,博通推出3.5D XDSiP封裝平臺

    平方毫米的3D堆疊硅晶片和12個HBM模塊集成到個系統(tǒng)級封裝中。這是什么概念? ? 目前手機移動端的旗艦處理器驍龍8Elite核心面積是124.1平方毫米;英偉
    的頭像 發(fā)表于 12-10 09:15 ?3254次閱讀
    <b class='flag-5'>一</b>顆芯片面積頂4顆<b class='flag-5'>H200</b>,博通推出3.5D XDSiP封裝平臺

    英偉加速認證三星AI內(nèi)存芯片

    芯片。作為當前市場上最先進的內(nèi)存技術(shù)之,HBM3E(High Bandwidth Memory 3 Enhanced)以其超高的帶寬和低功耗特性而備受矚目。英偉
    的頭像 發(fā)表于 11-25 14:34 ?867次閱讀

    SK海力士發(fā)布HBM3e 16hi產(chǎn)品

    在近日舉辦的SK AI Summit 2024活動中,SK hynix(SK海力士)透露了項令人矚目的新產(chǎn)品計劃。據(jù)悉,該公司正在積極開發(fā)HBM3e 16hi產(chǎn)品,這款產(chǎn)品的每顆HBM芯片容量高達48GB,將為用戶帶來前所未有
    的頭像 發(fā)表于 11-14 18:20 ?1183次閱讀

    英偉H100芯片市場降溫

    隨著英偉新一代AI芯片GB200需求的不斷攀升,其上一代明星產(chǎn)品H100芯片卻遭遇了市場的冷落
    的頭像 發(fā)表于 10-28 15:42 ?2245次閱讀

    三星電子HBM3E商業(yè)化遇阻,或重新設(shè)計1a DRAM電路

    近日,業(yè)界傳出三星電子HBM3E商業(yè)化進程遲緩的消息,據(jù)稱這狀況或與HBM核心芯片DRAM有關(guān)。具體而言,1a DRAM的性能問題成為了三星電子向英偉
    的頭像 發(fā)表于 10-23 17:15 ?1107次閱讀