從云端到邊緣完善的系統(tǒng)組合,支持NVIDIA HGX H100系統(tǒng)、L40和L4 GPU及OVX 3.0系統(tǒng)
【2023 年 3 月 21 日美國加州圣何塞訊】Super Micro Computer, Inc. (NASDAQ:SMCI) 為AI/ML、云端、存儲和5G/智能邊緣應(yīng)用的全方位IT解決方案供應(yīng)商,宣布其配備最新NVIDIA HGX H100 8-GPU系統(tǒng)的頂級全新GPU服務(wù)器開始出貨。該服務(wù)器整合了最新的NVIDIA L4 Tensor Core GPU至從邊緣到數(shù)據(jù)中心的各種應(yīng)用優(yōu)化服務(wù)器中。
Supermicro總裁暨首席執(zhí)行官梁見后(Charles Liang)表示:“Supermicro提供業(yè)界最全面的 GPU系統(tǒng)產(chǎn)品組合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的服務(wù)器,并支持全系列新NVIDIA H100 GPU的工作站和SuperBlade系統(tǒng)。 通過這款NVIDIA HGX H100 Delta-Next 服務(wù)器,客戶將獲得相較上一代 AI 訓(xùn)練應(yīng)用9倍的性能提升。 我們的GPU服務(wù)器采用創(chuàng)新的氣流設(shè)計,能全面降低風(fēng)扇轉(zhuǎn)速、噪音和功耗,進(jìn)而降低總擁有成本(TCO)。 此外,對于正在尋找符合未來需求的數(shù)據(jù)中心的客戶,我們也為其提供完整的機(jī)柜級(rack-scale)液冷選項。 ”
Supermicro的高性能新型8U GPU服務(wù)器現(xiàn)已大量出貨。 這款全新 Supermicro 8U 服務(wù)器特別針對AI、DL、ML和HPC工作負(fù)載進(jìn)行了優(yōu)化,搭載能達(dá)到高GPU-to-GPU通信的NVIDIA HGX H100 8-GPU,使用高速NVIDIA NVLink? 4.0技術(shù)、NVSwitch 互連,以及 NVIDIA Quantum-2 InfiniBand 和 Spectrum-4 以太網(wǎng),從而大幅突破 AI 的障礙。 此外,Supermicro還提供多種性能優(yōu)化的GPU服務(wù)器配置,包括直連/單根(single-root)/ 雙根(dual-root) CPU-to-GPU,另外還有前置或后置 I/O 機(jī)型,在標(biāo)準(zhǔn)和OCP DC機(jī)柜 配置中使用AC與DC 電源。 Supermicro X13 SuperBlade? 機(jī)殼可在一個 8U 機(jī)殼內(nèi)放入 20 個 NVIDIA H100 Tensor Core PCIe GPU 或 40 個 NVIDIA L40 GPU,6U機(jī)殼則最多可使用10個NVIDIA H100 PCIe GPU或20個NVIDIA L4 TensorCore GPU。 這些新系統(tǒng)為運(yùn)行NVIDIA AI 平臺軟件層 NVIDIA AI Enterprise提供理想的優(yōu)化加速功能。
此類服務(wù)器內(nèi)置的液冷系統(tǒng)也適用于其他眾多GPU 服務(wù)器。 此外,Supermicro 發(fā)布了一款液冷式 AI 開發(fā)系統(tǒng) (塔式或機(jī)架式配置皆可),內(nèi)含兩個 CPU 和四個NVIDIA A100 Tensor Core GPU,適合辦公室和家庭辦公環(huán)境,并能部署在部門和企業(yè)集群中。
Supermicro系統(tǒng)支持新的 NVIDIA L4 GPU,與前幾代產(chǎn)品相比,加速和能效均提升數(shù)倍。 此系統(tǒng)同樣適用于企業(yè)、云和邊緣的 AI 推理、視頻流、虛擬工作站和圖形應(yīng)用程序。 L4 采用NVIDIA的AI平臺和全堆疊方法,經(jīng)過優(yōu)化調(diào)整,適合進(jìn)行各種 AI 應(yīng)用程序的大規(guī)模推理,包括推薦、語音型 AI 虛擬人物助理、聊天機(jī)器人、視覺搜索和客服中心自動化等,能提供出色的個性化體驗。 L4是適用于主流服務(wù)器的高效NVIDIA加速器,擁有高達(dá)4倍的AI性能、更高的能源使用效率,還有3倍以上的視頻流容量與效率,因此能支持 AV1 編碼/解碼。 L4 GPU擁有多樣化的推理和可視化功能,加上輕巧、節(jié)能、單插槽、薄型、72W的低功耗規(guī)格,是包括邊緣位置在內(nèi)全局部署的理想選擇。
NVIDIA 加速計算產(chǎn)品主管Dave Salvator 表示:“Supermicro 服務(wù)器配備新的 NVIDIA L4 Tensor Core GPU,擁有無與倫比的強(qiáng)大性能,讓客戶能高效且可持續(xù)地加快工作負(fù)載速度。 NVIDIA L4經(jīng)過優(yōu)化,適合用于主流部署,加上外型輕薄,可在72W的低功耗范圍內(nèi)作業(yè),將邊緣AI性能和效率提升至全新境界?!?br />
Supermicro最新的PCIe加速解決方案支持打造3D世界、數(shù)字孿生、3D模擬模型和工業(yè)元宇宙。 除了支持前幾代NVIDIA OVX?系統(tǒng),Supermicro也提供OVX 3.0 配置,配備四個NVIDIA L40 GPU、兩個NVIDIA ConnectX-7? SmartNIC、一個NVIDIA BlueField-3? DPU及新的NVIDIA Omniverse Enterprise?軟件。
?
深入了解所有 Supermicro 先進(jìn)的新GPU系統(tǒng),請訪問:https://www.supermicro.com/en/accelerators/nvidia
歡迎至2023 NVIDIA GTC深入了解Supermicro:- https://register.nvidia.com/events/widget/nvidia/gtcspring2023/sponsorcatalog/exhibitor/1564778120132001ghs2/?ncid=ref-spo-128510
?
?
Supermicro推出配備NVIDIA HGX及PCIe型H100 8-GPU尖端服務(wù)器系統(tǒng),適用于AI 訓(xùn)練、深度學(xué)習(xí)、HPC和生成式AI,加速AI和
- AI(298911)
- Supermicro(9677)
- H100(570)
- 生成式AI(1051)
相關(guān)推薦
熱點(diǎn)推薦
云服務(wù)、OEM 借助 NVIDIA AI讓AI訓(xùn)練更上層樓
借助 NVIDIA AI,戴爾、浪潮、Microsoft Azure 和 Supermicro 在今天發(fā)布的新 MLPerf 基準(zhǔn)測試中創(chuàng)下快速訓(xùn)練 AI 模型的記錄。
2021-12-03 10:19:52
1853
1853
深度學(xué)習(xí)模型部署與優(yōu)化:策略與實踐;L40S與A100、H100的對比分析
隨著生成式AI應(yīng)用的迅猛發(fā)展,我們正處在前所未有的大爆發(fā)時代。在這個時代,深度學(xué)習(xí)模型的部署成為一個亟待解決的問題。盡管GPU在訓(xùn)練和推理中扮演著關(guān)鍵角色,但關(guān)于它在生成式AI領(lǐng)域的誤解仍然存在。近期英偉達(dá)L40S GPU架構(gòu)成為了熱門話題,那么與A100和H100相比,L40S有哪些優(yōu)勢呢?
2023-10-07 09:43:18
2930
2930
基于NVIDIA GPU的加速服務(wù) 為AI、機(jī)器學(xué)習(xí)和AI工作負(fù)載提速
2019年8月26日 ——NVIDIA和VMware今日宣布將為VMware Cloud on AWS推出基于NVIDIA GPU的加速服務(wù),為AI、機(jī)器學(xué)習(xí)和數(shù)據(jù)分析工作流程等現(xiàn)代化企業(yè)應(yīng)用提供支持。
2019-08-30 09:36:37
1696
1696華碩推出最新一代支持11路PCIe 4.0的2U單插槽GPU服務(wù)器
華碩這個服務(wù)器適用于數(shù)據(jù)中心,適合執(zhí)行AI、數(shù)據(jù)分析及HPC運(yùn)算,因為它同時支持AMD及NVIDIA最新產(chǎn)品,包括EYPC 7002系列CPU及NVIDIA A100加速卡,這兩款都是最新的7nm工藝芯片。
2020-09-15 16:23:44
4001
4001Supermicro推出直接液冷優(yōu)化的NVIDIA Blackwell解決方案
機(jī)架中的NVIDIA HGX B200 8-GPU系統(tǒng)數(shù)量,與Supermicro目前領(lǐng)先業(yè)界的搭載NVIDIA HGX H100和H200的液冷型SuperCluster相比,GPU計算密度得到大幅提升。此
2024-11-25 10:39:23
1214
1214
AI開發(fā)者福音!阿里云推出國內(nèi)首個基于英偉達(dá)NGC的GPU優(yōu)化容器
云計算服務(wù)異構(gòu)加速平臺,為人工智能產(chǎn)業(yè)提供多場景化的全球加速能力。2017年11月,阿里云發(fā)布了國內(nèi)首個支持 NVIDIA ?Tesla ?V100 GPU 的實例GN6,可帶來數(shù)倍的深度學(xué)習(xí)性能提升
2018-04-04 14:39:24
AI芯片界的領(lǐng)頭羊進(jìn)軍機(jī)器人行業(yè)
戰(zhàn)略合作,共同設(shè)計開發(fā)新型超級計算機(jī)系統(tǒng)和服務(wù)器。英偉達(dá)開發(fā)的圖形處理單元芯片(GPU),很好適用于浮點(diǎn)計算,表現(xiàn)勝于英特爾的傳統(tǒng)CPU Xeon和AMD的Opteron。排名第二位的“泰坦”也搭載了
2018-06-11 08:20:23
NVIDIA 在首個AI推理基準(zhǔn)測試中大放異彩
分為四個場景:與數(shù)據(jù)中心應(yīng)用關(guān)聯(lián)性最高的服務(wù)器和離線場景,以及用于滿足邊緣設(shè)備地芯片系統(tǒng)需求的單流和多流場景。 NVIDIA在兩個數(shù)據(jù)中心場景(離線和服務(wù)器)的全部五項基準(zhǔn)測試中均排在第一位
2019-11-08 19:44:51
深度學(xué)習(xí)推理和計算-通用AI核心
商業(yè)發(fā)行之前就已經(jīng)過時了。算法明天需要對架構(gòu)、內(nèi)存/數(shù)據(jù)進(jìn)行徹底改革資源和能力。推理的夢幻建筑重新定義重寫在計算和交付突破性的人工智能加速和靈活的計算能力超越了服務(wù)器級CPU和比GPU/ASIC通用
2020-11-01 09:28:57
適用于數(shù)據(jù)中心和AI時代的800G網(wǎng)絡(luò)
100Gbps,整體速率高達(dá)800Gbps。這意味著在AI模型訓(xùn)練過程中,服務(wù)器之間的數(shù)據(jù)傳輸速率更快,顯著提升訓(xùn)練效率。相比NRZ,PAM4在相同頻譜范圍內(nèi)可以承載雙倍數(shù)據(jù)量,從而提升網(wǎng)絡(luò)吞吐能力
2025-03-25 17:35:05
Arm Neoverse NVIDIA Grace CPU 超級芯片:為人工智能的未來設(shè)定步伐
和數(shù)據(jù)吞吐量進(jìn)行優(yōu)化的服務(wù)器和數(shù)據(jù)中心人工智能和機(jī)器學(xué)習(xí) (ML) 的需求。否則,人工智能所需的成本、電力和碳將開始超過收益。NVIDIA 率先使用 GPU 來提高數(shù)據(jù)中心中 HPC 和 AI 的性能
2022-03-29 14:40:21
BPI-AIM7 RK3588 AI與 Nvidia Jetson Nano 生態(tài)系統(tǒng)兼容的低功耗 AI 模塊
.264)
主要接口
12x MIPI CSI-2(多攝像頭同步);PCIe 3.0 x4(AI 加速器支持);HDMI 2.1 + DP 1.4(雙 8K 輸出)
操作系統(tǒng)支持
Linux 5.10
2025-10-11 09:08:33
Banana Pi BPI-CM6 計算模塊將 8 核 RISC-V 處理器帶入 CM4 外形尺寸
具有顯著優(yōu)勢。
該模塊通過載板提供 PCIe 和以太網(wǎng)接口,可用于構(gòu)建 NAS 設(shè)備、小型網(wǎng)絡(luò)設(shè)備或輕量級服務(wù)器。其顯示和 USB 功能也可供開發(fā)者用于制作小型 PC、自助服務(wù)終端和嵌入式 Linux
2025-12-20 09:01:01
FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class="flag-6" style="color: red">GPU
、筆記本電腦或機(jī)架式服務(wù)器上訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,這不是什么大問題。但是,許多部署深度學(xué)習(xí)模型的環(huán)境對 GPU 并不友好,比如自動駕駛汽車、工廠、機(jī)器人和許多智慧城市環(huán)境,在這些環(huán)境中硬件必須忍受熱、灰塵、濕度
2024-03-21 15:19:45
ST MCU邊緣AI開發(fā)者云 - STM32Cube.AI
STM32微控制器生成優(yōu)化的C代碼,無需事先安裝軟件。數(shù)據(jù)科學(xué)家和開發(fā)人員受益于STM32Cube.AI久經(jīng)考驗的神經(jīng)網(wǎng)絡(luò)優(yōu)化性能,以開發(fā)邊緣AI項目。? 訪問STM32模型庫,這是一個可訓(xùn)練的深度學(xué)習(xí)
2023-02-02 09:52:43
《AI Agent 應(yīng)用與項目實戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用
再次感謝發(fā)燒友提供的閱讀體驗活動。本期跟隨《AI Agent 應(yīng)用與項目實戰(zhàn)》這本書學(xué)習(xí)如何構(gòu)建開發(fā)一個視頻應(yīng)用。AI Agent是一種智能應(yīng)用,能夠根據(jù)用戶需求和環(huán)境變化做出相應(yīng)響應(yīng)。通常基于深度
2025-03-05 19:52:08
【CC3200AI實驗教程11】瘋殼·AI語音人臉識別-AI語音系統(tǒng)架構(gòu)
傳送到CC3200,CC3200通過wifi把采集到的語音信號發(fā)送給服務(wù)器,服務(wù)器再使用百度AI語音識別的API把語音信號傳送到百度AI的服務(wù)器上;當(dāng)語音識別成功后,百度AI返回識別后的字符串給到服務(wù)器
2022-08-30 14:54:38
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)
當(dāng)今社會,AI已經(jīng)發(fā)展很迅速了,但是你了解AI的發(fā)展歷程嗎?本章作者將為我們打開AI的發(fā)展歷程以及需求和挑戰(zhàn)的面紗。
從2017年開始生成式AI開創(chuàng)了新的時代,經(jīng)歷了三次熱潮和兩次低谷。
生成式
2025-09-12 16:07:57
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)
運(yùn)算符用于編碼器層和解碼器層。
②LightSeq2采用了混合精度更新進(jìn)行訓(xùn)練。
③LightSeq2推出了加速整個Transformer訓(xùn)練過程的方案。
4、基于FPGA的大模型計算
4.1加速矩陣
2025-09-12 17:30:42
【產(chǎn)品活動】阿里云GPU云服務(wù)器年付5折!阿里云異構(gòu)計算助推行業(yè)發(fā)展!
用于搭建深度學(xué)習(xí)訓(xùn)練加速平臺的云端利器。GN5采用了NVIDIA Pascal架構(gòu)P100 GPU,可在云端按需構(gòu)建敏捷彈性、高性能和高性價比的深度學(xué)習(xí)平臺,讓用戶以最簡便地方式享用阿里云遍布全球的高效
2017-12-26 11:22:09
【米爾FZ3深度學(xué)習(xí)計算卡試用體驗】搭建Vitis Ai系統(tǒng)平臺并測試
1 Vitis AiVitis? AI 開發(fā)環(huán)境是 Xilinx 的開發(fā)平臺,適用于在 Xilinx 硬件平臺(包括邊緣器件和 Alveo 卡)上進(jìn)行人工智能推斷。它由優(yōu)化的 IP、工具、庫、模型
2020-12-03 19:22:13
人工智能AI-卷積神經(jīng)網(wǎng)絡(luò)LabVIEW之Yolov3+tensorflow深度學(xué)習(xí)有用嗎?
python編程語言的前提下,使用labview訓(xùn)練和部署深度學(xué)習(xí)模型,并配備相關(guān)案例視頻以及源碼。適用人群:1、適用于工業(yè)自動化行業(yè)從業(yè)者利用labview或者C#進(jìn)行深度學(xué)習(xí)應(yīng)用;2、適用于plc
2020-11-27 11:19:37
華迅光通AI計算加速800G光模塊部署
,都需要更多的光模塊來進(jìn)行光纖通信。對于使用gpu的廣泛AI訓(xùn)練應(yīng)用,在NVIDIA的DGX H100服務(wù)器中,集成了8個H100 gpu,對計算和存儲網(wǎng)絡(luò)的需求相當(dāng)于大約12個800G光模塊和18個
2024-11-13 10:16:44
可以在同一臺服務(wù)器上混合使用不同的NVIDIA GPU
擁有相同的(Dell R740xd)服務(wù)器是否可能(或甚至有意義):1. P40- 用于VMWare Horizo??n VDI圖形2. V100- 用于深度學(xué)習(xí)/ HPC開發(fā)或者是否需要/建議在
2018-10-10 16:11:04
如何加速電信領(lǐng)域AI開發(fā)?
在即將開展的“中國移動全球合作伙伴大會”上,華為將發(fā)布一款面向運(yùn)營商電信領(lǐng)域的一站式AI開發(fā)平臺——SoftCOM AI平臺,幫助電信領(lǐng)域開發(fā)者解決AI開發(fā)在數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、模型發(fā)布以及部署驗證
2021-02-25 06:53:41
嵌入式AI的相關(guān)資料下載
,小網(wǎng)絡(luò)是一個學(xué)生讓小網(wǎng)絡(luò)逐漸學(xué)習(xí)到大網(wǎng)絡(luò)的能力三、邊緣側(cè)的訓(xùn)練方法傳統(tǒng)的機(jī)器學(xué)習(xí)訓(xùn)練方法是把數(shù)據(jù)在服務(wù)器上訓(xùn)練好,然后使用聯(lián)邦學(xué)習(xí)是用戶不把數(shù)據(jù)上傳,而是把模型下發(fā)到對應(yīng)的用戶那里用戶訓(xùn)練以后用戶會把訓(xùn)練好的模型上傳到服務(wù)器,服務(wù)器再把訓(xùn)練的模型進(jìn)行合成,
2021-12-14 06:57:15
嵌入式邊緣AI應(yīng)用開發(fā)指南
、PyTorch和MXNet框架中常用的開源深度學(xué)習(xí)模型。這些模型在公共數(shù)據(jù)集上經(jīng)過預(yù)訓(xùn)練和優(yōu)化,可以在TI適用于邊緣AI的處理器上高效運(yùn)行。TI會定期使用開源社區(qū)中的新模型以及TI設(shè)計的模型對Model Zoo
2022-11-03 06:53:28
當(dāng)AI遇上FPGA會產(chǎn)生怎樣的反應(yīng)
、LSTM以及強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)等算法在內(nèi)的應(yīng)用加速平臺和完整的生態(tài)系統(tǒng)。深度學(xué)習(xí)包含兩個計算環(huán)節(jié),即線下訓(xùn)練和線上推理環(huán)節(jié)。GPU在深度學(xué)習(xí)算法模型訓(xùn)練上非常高效,但在推理時,一次性只能對于一個輸入項進(jìn)行
2021-09-17 17:08:32
新思科技發(fā)布業(yè)界首款全棧式AI驅(qū)動型EDA解決方案Synopsys.ai
技(Synopsys, Inc.,納斯達(dá)克股票代碼:SNPS)隆重推出了業(yè)界首款全棧式AI驅(qū)動型EDA解決方案Synopsys.ai,覆蓋了先進(jìn)數(shù)字與模擬芯片的設(shè)計、驗證、測試和制造環(huán)節(jié)?;诖?,開發(fā)者第一次
2023-04-03 16:03:26
海思SD3403邊緣計算AI數(shù)據(jù)訓(xùn)練概述
AI數(shù)據(jù)訓(xùn)練:基于用戶特定應(yīng)用場景,用戶采集照片或視頻,通過AI數(shù)據(jù)訓(xùn)練工程師**(用戶公司****員工)** ,進(jìn)行特征標(biāo)定后,將標(biāo)定好的訓(xùn)練樣本,通過AI訓(xùn)練服務(wù)器,進(jìn)行AI學(xué)習(xí)訓(xùn)練獲得訓(xùn)練
2025-04-28 11:11:47
硬件幫助將AI移動到邊緣
工廠中,機(jī)器學(xué)習(xí)技術(shù)可能適用于工業(yè)過程控制中的復(fù)雜傳感器融合,或工業(yè)機(jī)器中的異常檢測和預(yù)測性維護(hù)方案。AspenCore Media深入研究了人工智能在邊緣的應(yīng)用,超越了收集大部分媒體的語音和視覺系統(tǒng)
2019-05-29 10:38:09
請問FP_AI_VISION1工程是否可以適用于stm32f746 discovery開發(fā)板?
FP_AI_VISION1工程是否可以適用于stm32f746discovery開發(fā)板?使用STM32CUBEIDE打開FP_AI_VISION1工程為什么沒有stm32可運(yùn)行文件,不能編譯?
2023-08-07 08:37:02
進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片
架構(gòu)打造的頂尖生成式 AI 系統(tǒng)可應(yīng)用于數(shù)據(jù)中心,為企業(yè)提供高效的人工智能解決方案。
**4.**科學(xué)研究
Blackwell 架構(gòu)的 GPU 可用于科學(xué)研究中的數(shù)據(jù)分析、模擬和計算,加速研究進(jìn)程
2024-05-13 17:16:22
阿里云CPFS在人工智能/深度學(xué)習(xí)領(lǐng)域的實踐
眾多的計算核心可以大量并行的運(yùn)行更多的AI訓(xùn)練/推理線程,使得AI訓(xùn)練/推理在更短的時間內(nèi)完成更多的計算任務(wù)。簡單的說,GPU讓AI更快,更準(zhǔn)。這種變化使得服務(wù)器的形態(tài)發(fā)生了很大的變化,用于AI/DL
2018-08-23 17:39:35
英偉達(dá)首推HGX-2云服務(wù)器平臺,統(tǒng)合AI與計算
HGX-2云服務(wù)器平臺可加速多精度工作負(fù)載;2千萬億次浮點(diǎn)計算處理能力創(chuàng)下全新AI性能紀(jì)錄。
2018-06-01 15:31:38
5989
5989英偉達(dá)HGX-2 GPU加速平臺構(gòu)建更強(qiáng)大的AI服務(wù)
百度、騰訊借助 HGX-2 構(gòu)建更強(qiáng)大的AI服務(wù);浪潮、聯(lián)想、華為和曙光推出基于全新 HGX-2 的服務(wù)器。
2018-11-23 09:23:24
4405
4405浪潮推出全新5款AI服務(wù)器,可應(yīng)對多種人工智能計算場景
5月14日,全球領(lǐng)先的AI計算基礎(chǔ)架構(gòu)廠商浪潮宣布全新發(fā)布5款AI服務(wù)器,全面支持全新的NVIDIA A100 Tensor Core GPU。浪潮此次發(fā)布的5款AI服務(wù)器將應(yīng)對多種人工智能計算場景,可支持8到16顆最新NVIDIA A100 Tensor Core GPU。
2020-05-18 14:58:27
3289
3289NVIDIA發(fā)布了首款基于NVIDIA Ampere架構(gòu)的GPU ——NVIDIA A100 GPU
全球超強(qiáng)大的AI和HPC服務(wù)器平臺HGX A100,最大可組成AI算力達(dá)10 PFLOPS的超大型服務(wù)器。
2020-06-02 17:11:45
5102
5102NVIDIA GPU加速AI推理洞察,推動跨行業(yè)創(chuàng)新
這些AI模型被運(yùn)行在裝載了V100Tensor Core GPU的NVIDIADGX系統(tǒng)上的數(shù)據(jù)中心服務(wù)器上,以及裝載了JetsonAGX Xavier模塊的邊緣計算網(wǎng)絡(luò)中。該硬件運(yùn)行NVIDIA
2020-07-02 15:00:54
2470
2470浪潮宣布支持NVIDIA最新GPU的AI服務(wù)器全球量產(chǎn)供貨
美國當(dāng)?shù)貢r間11月16日,SC20大會期間,浪潮宣布支持NVIDIA最新的A100 80G GPU的AI服務(wù)器NF5488M5-D和NF5488A5全球量產(chǎn)供貨。 浪潮NF5488A5
2020-11-18 17:50:20
3126
3126NVIDIA公布通過NVIDIA認(rèn)證系統(tǒng)測試的全球首批加速服務(wù)器 企業(yè) AI 使用量倍增
芯東西1月27日報道,剛剛,NVIDIA公布通過NVIDIA認(rèn)證系統(tǒng)測試的全球首批加速服務(wù)器,它們是目前業(yè)內(nèi)唯一通過現(xiàn)代工作負(fù)載測試的服務(wù)器,可用于機(jī)器學(xué)習(xí)和分析。 通過NVIDIA認(rèn)證系統(tǒng)的產(chǎn)品
2021-01-27 16:25:59
2431
2431Microsoft Azure推出VIDIA A100 GPU VM系列
近日 Microsoft Azure 宣布正式推出 ND A100 v4 VM 系列,這是適用于超級計算級 AI 和 HPC 負(fù)載的強(qiáng)大虛擬機(jī),由 NVIDIA A100 Tensor Core
2021-06-11 16:53:54
2913
2913VIDIA宣布在AI超級計算平臺中加入融合了AI與高性能計算的新技術(shù)
NVIDIA A100 80G PCIe、NVIDIA NDR 400G InfiniBand和NVIDIA Magnum IO三箭齊發(fā)!超強(qiáng)HGX助力廣大HPC系統(tǒng)和云服務(wù) NVIDIA宣布在
2021-06-29 09:50:06
2928
2928GTC2022大會亮點(diǎn):NVIDIA發(fā)布全新AI計算系統(tǒng)—DGX H100
GTC2022大會亮點(diǎn):NVIDIA發(fā)布全新AI計算系統(tǒng)—DGX H100,借助NVLink連接,DGX使八塊H100成為了一個巨型GPU。
2022-03-24 15:06:31
2414
2414
NVIDIA發(fā)布DGX H100系統(tǒng) 羅德與施瓦茨提供O-RAN無線電單元方案
NVIDIA 近日宣布推出第四代 NVIDIA? DGX? 系統(tǒng),這是世界上第一個使用全新NVIDIA H100 Tensor Core GPU 構(gòu)建的 AI 平臺。
2022-03-25 11:44:23
5729
5729藍(lán)海大腦服務(wù)器全力支持NVIDIA H100 GPU
藍(lán)海大腦宣布服務(wù)器產(chǎn)品線全力支持最新的 NVIDIA H100 GPU。藍(lán)海大腦服務(wù)器產(chǎn)品在單機(jī)上最多可支持4、8甚至9個H100 GPU,可為多種人工智能場景提供超強(qiáng)算力、靈活的資源調(diào)度和成熟的生態(tài)支持。
2022-03-31 11:47:09
1979
1979利用NVIDIA HGX H100加速計算數(shù)據(jù)中心平臺應(yīng)用
HGX H100 8- GPU 是新一代 Hopper GPU 服務(wù)器的關(guān)鍵組成部分。它擁有八個 H100 張量核 GPU 和四個第三代 NV 交換機(jī)。每個 H100 GPU 都有多個第四代
2022-04-20 10:54:19
4180
4180
NVIDIA GPU助力加速先進(jìn)對話式AI技術(shù)
NVIDIA Riva 是一種 GPU 加速應(yīng)用程序框架,允許公司使用視頻和語音數(shù)據(jù),為自己的行業(yè)、產(chǎn)品和客戶定制最先進(jìn)的對話式 AI 服務(wù)。
2022-05-06 14:28:33
2247
2247
關(guān)于NVIDIA H100 GPU的問題解答
今年的 GTC22 上 NVIDIA 發(fā)布其首款基于 Hopper 架構(gòu)的 GPU —NVIDIA H100。
2022-07-18 10:35:23
2913
2913AI服務(wù)器的應(yīng)用場景有哪些?
關(guān)鍵詞:人工智能、高性能計算、HPC、GPU、CPU、服務(wù)器、人工智能服務(wù)器、人工智能工作站、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、液冷散熱、冷板式液冷、水冷工作站、液冷服務(wù)器、AI服務(wù)器 如今,市場上有越來越多熟悉
2023-01-30 10:06:42
3990
3990
NVIDIA 推出用于邊緣 AI、5G 和 Omniverse 數(shù)字孿生的 GPU 加速 AI-on-5G 系統(tǒng)
上運(yùn)行 5G、AI 應(yīng)用和沉浸式圖形工作負(fù)載的行業(yè)標(biāo)準(zhǔn)解決方案,以用于計算機(jī)視覺和元宇宙等領(lǐng)域。 為了滿足這一需求,NVIDIA 正在開發(fā)一款新的 AI-on-5G 解決方案, 它將 5G vRAN、邊緣 AI 和數(shù)字孿生工作負(fù)載整合于同一個一體化、超融合的 GPU 加速系統(tǒng)上。 該系統(tǒng)的較低擁
2023-03-13 09:25:02
1537
1537NVIDIA 為全球企業(yè)帶來生成式 AI 推出用于創(chuàng)建大型語言模型和視覺模型的云服務(wù)
為AI驅(qū)動的應(yīng)用構(gòu)建自定義模型 ? 加利福尼亞州圣克拉拉 – GTC – 太平洋時間 2023年3月21日 – 為了加速企業(yè)應(yīng)用生成式AI,NVIDIA今日宣布推出一套云服務(wù),使企業(yè)能夠構(gòu)建、完善
2023-03-22 13:45:40
608
608
NVIDIA推出用于大型語言模型和生成式AI工作負(fù)載的推理平臺
日 – NVIDIA于今日推出四款推理平臺。這些平臺針對各種快速興起的生成式AI應(yīng)用進(jìn)行了優(yōu)化,能夠幫助開發(fā)人員快速構(gòu)建用于提供新服務(wù)和洞察的AI驅(qū)動的專業(yè)應(yīng)用。 ? 這些平臺將NVIDIA的全棧推理
2023-03-22 14:48:39
533
533
GTC23 | NVIDIA 為全球企業(yè)帶來生成式 AI,推出用于創(chuàng)建大型語言模型和視覺模型的云服務(wù)
Foundations 云服務(wù)為 AI 驅(qū)動的應(yīng)用構(gòu)建 自定義模型 加利福尼亞州圣克拉拉 – GTC – 太平洋時間 2023年3月21日 – 為了加速企業(yè)應(yīng)用生成式 AI,NVIDIA 宣布推出一套云服務(wù),使企業(yè)
2023-03-23 06:50:04
907
907GTC23 | NVIDIA 推出用于大型語言模型和生成式 AI 工作負(fù)載的推理平臺
– NVIDIA 于今日推出四款推理平臺。這些平臺針對各種快速興起的生成式 AI 應(yīng)用進(jìn)行了優(yōu)化,能夠幫助開發(fā)人員快速構(gòu)建用于提供新服務(wù)和洞察的 AI 驅(qū)動的專業(yè)應(yīng)用。 這些平臺將 NVIDIA
2023-03-23 06:55:02
1494
1494NVIDIA 與微軟合作加速企業(yè)就緒的生成式 AI
月 23 日——? NVIDIA 今天宣布將 NVIDIA AI Enterprise 軟件套件 集成到微軟的 Azure 機(jī)器學(xué)習(xí)中,以幫助企業(yè)加速推進(jìn) AI 計劃。 此次集成將創(chuàng)建一個安全、企業(yè)
2023-05-25 09:15:02
994
994
什么是生成式AI?生成式AI的四大優(yōu)勢
生成式AI是一種特定類型的AI,專注于生成新內(nèi)容,如文本、圖像和音樂。這些系統(tǒng)在大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,并使用機(jī)器學(xué)習(xí)算法生成與訓(xùn)練數(shù)據(jù)相似的新內(nèi)容。這在各種應(yīng)用程序中都很有用,比如創(chuàng)建藝術(shù)、音樂和聊天機(jī)器人生成文本等。最近網(wǎng)絡(luò)爆火的AI繪畫,就是屬于生成式 AI的推廣應(yīng)用。
2023-05-29 14:12:31
5147
5147AMD甩出最強(qiáng)AI芯片 單個GPU跑大模型
專為生成式AI設(shè)計的GPU:HBM密度是英偉達(dá)H100的2.4倍,帶寬是英偉達(dá)H100的1.6倍。
2023-06-20 10:47:47
1625
1625AI服務(wù)器與傳統(tǒng)服務(wù)器的區(qū)別是什么?
AI 服務(wù)器確實是整個服務(wù)器市場的一部分,但它們是專門為基于云的 AI 模型訓(xùn)練或推理而設(shè)計的。在規(guī)格方面,廣義的AI服務(wù)器是指搭載AI芯片(如前面提到的GPU、FPGA、ASIC)的服務(wù)器,而狹義的定義則包括至少搭載一塊GPU的服務(wù)器。
2023-06-21 12:40:02
3013
3013華碩新品將搭載英偉達(dá)AI芯片,新品未上市訂單已排至明年!
華碩今日宣布正式推出旗下搭載英偉達(dá)(NVIDIA)HGX H100的AI高階服務(wù)器產(chǎn)品,且新品未上市就已有超高詢問度,目前手上訂單已滿到明年。
2023-07-20 16:32:20
1505
1505SIGGRAPH 2023 | NVIDIA 與全球數(shù)據(jù)中心系統(tǒng)制造商大力推動 AI 與工業(yè)數(shù)字化的發(fā)展
OVX 服務(wù)器采用全新 NVIDIA GPU 以加速訓(xùn)練和推理以及圖形密集型工作負(fù)載,將通過戴爾科技、慧與、聯(lián)想、超微等公司提供。 洛杉磯 — SIGGRAPH — 太平洋時間 2023 年 8 月
2023-08-09 19:10:06
858
858AI服務(wù)器架構(gòu)的五大硬件拆解
AI 服務(wù)器我們瞄準(zhǔn)英偉達(dá) DGX A100 和 DGX H100 兩款具有標(biāo)桿性產(chǎn)品力的產(chǎn)品進(jìn)行分析,鑒于 H100 發(fā)布時間較短、資料詳盡度不夠,我們首先從 DGX A100 出發(fā)來觀測具有產(chǎn)品力的 AI 服務(wù)器的基本架構(gòu)。
2023-08-11 09:24:59
7861
7861
《開放加速規(guī)范AI服務(wù)器設(shè)計指南》發(fā)布,應(yīng)對生成式AI算力挑戰(zhàn)
》面向生成式AI應(yīng)用場景,進(jìn)一步發(fā)展和完善了開放加速規(guī)范AI服務(wù)器的設(shè)計理論和設(shè)計方法,將助力社區(qū)成員高效開發(fā)符合開放加速規(guī)范的AI加速卡,并大幅縮短與AI服務(wù)器的適配周期,為用戶提供最佳匹配應(yīng)用場景的AI算力產(chǎn)品方案,把握生成式AI爆發(fā)帶來的算力產(chǎn)業(yè)巨大機(jī)遇。 當(dāng)前,生成式A
2023-08-14 09:49:31
1470
1470全球領(lǐng)先系統(tǒng)制造商推出 NVIDIA AI 就緒型服務(wù)器,為企業(yè)大幅提升生成式 AI 性能
with NVIDIA 拉斯維加斯 — VMware Explore — 太平洋時間 2023 年 8 月 22 日 — NVIDIA 宣布,全球領(lǐng)先的系統(tǒng)制造商將推出 AI 就緒型服務(wù)器,其支持同發(fā)布的 VMware
2023-08-23 19:10:09
1064
1064AI芯片CoWoS封裝產(chǎn)能受限,中介層不足成關(guān)鍵
大語言模型訓(xùn)練和推理生成式AI(Generative AI)應(yīng)用,帶動高端AI服務(wù)器和高性能計算(HPC)數(shù)據(jù)中心市場,內(nèi)置集成高帶寬內(nèi)存(HBM)的通用繪圖處理器(GPGPU)供不應(yīng)求,主要大廠英偉達(dá)(Nvidia)A100和H100繪圖芯片更是嚴(yán)重缺貨。
2023-08-30 17:09:49
1720
1720Apple 預(yù)定 3 納米芯片,谷歌云 A3 虛擬機(jī)將改變 AI 訓(xùn)練
Nvidia 的 H100 GPU 和谷歌自主設(shè)計的 200 Gbps 基礎(chǔ)設(shè)施處理器(IPU)。主要用于訓(xùn)練和運(yùn)行生成式 AI 模型以及大型語言模型。 谷歌云表示,A3 虛擬機(jī)將
2023-08-31 13:00:07
1192
1192
NVIDIA AI Enterprise 4.0 推出,助力企業(yè)構(gòu)建生產(chǎn)就緒的生成式 AI 為業(yè)務(wù)賦能
式 AI 進(jìn)行創(chuàng)新的企業(yè)加速開發(fā),為企業(yè)提供生產(chǎn)就緒型支持、可管理性、安全性和可靠性。 使用 NVIDIA NeMo 快速大規(guī)模 訓(xùn)
2023-09-19 20:20:04
1232
1232
深度學(xué)習(xí)模型部署與優(yōu)化:策略與實踐;L40S與A100、H100的對比分析
深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、生成式AI、深度神經(jīng)網(wǎng)絡(luò)、抽象學(xué)習(xí)、Seq2Seq、VAE、GAN、GPT、BERT、預(yù)訓(xùn)練語言模型、Transformer、ChatGPT、GenAI、多模態(tài)大模型、視覺大模型
2023-09-22 14:13:09
2411
2411
Oracle 云基礎(chǔ)設(shè)施提供新的 NVIDIA GPU 加速計算實例
也即將在 OCI Compute 上推出。 OCI 上的 NVIDIA? H100 Tensor Core GPU 實例 OCI Co mpute 裸機(jī)實例配備了具有? NVIDIA Hopper ? 架構(gòu) 的 NVIDIA H
2023-09-25 20:40:02
1220
1220
NVIDIA 擴(kuò)展機(jī)器人平臺,迎接生成式 AI 的崛起
)和微服務(wù)已應(yīng)用于邊緣。 ? 生成式 AI 正在將 Transformer 模型和大語言模型的強(qiáng)大力量帶到各行各業(yè),應(yīng)用范圍現(xiàn)已擴(kuò)展到邊緣、機(jī)器人和物流系統(tǒng)相關(guān)領(lǐng)域,如缺陷檢測、實時資產(chǎn)追蹤、自主規(guī)劃
2023-10-19 17:16:24
853
853
NVIDIA 擴(kuò)展機(jī)器人平臺,迎接生成式 AI 的崛起
基于 NVIDIA Jetson 平臺進(jìn)行開發(fā)的 1 萬多家公司現(xiàn)在可以利用全新的生成式 AI、API 和微服務(wù)來加快推進(jìn)行業(yè)數(shù)字化 強(qiáng)大的生成式 AI 模型、云原生應(yīng)用程序接口(API)和微服務(wù)已
2023-10-20 02:05:02
1057
1057
傳英偉達(dá)新AI芯片H20綜合算力比H100降80%
但據(jù)悉,三種新型AI芯片不是“改良型”,而是“縮小型”。用于ai模型教育的hgx h20的帶寬和計算速度是有限的。整體計算能力理論上比nvidia的h100 gpu芯片低80%左右。h20是h100的20%的綜合計算性能。
2023-11-13 09:41:58
3965
3965英偉達(dá)確認(rèn)為中國推三款改良AI芯片 性能暴降80%
據(jù)報道,nvidia的3種ai芯片不是“改良版”,而是“縮水版”,分別是hgx h20、l20 pcle和l2 pcle。用于ai模型訓(xùn)練的hgx h20雖然帶寬和計算速度有限,但整體計算能力理論上比英偉達(dá)h100 gpu芯片低80%左右。
2023-11-13 10:46:07
1347
1347NVIDIA 為全球領(lǐng)先的 AI 計算平臺 Hopper 再添新動力
世界頂級服務(wù)器制造商和云服務(wù)提供商即將推出 HGX H200 系統(tǒng)與云實例 ? ? 丹佛 - SC23 - 太平洋 時間 2023 年 11 月 13 日 - NVIDIA 于今日宣布推出
2023-11-14 14:30:01
827
827
SC23 | NVIDIA 為全球領(lǐng)先的 AI 計算平臺 Hopper 再添新動力
世界頂級服務(wù)器制造商和云服務(wù)提供商即將推出 HGX H200 系統(tǒng)與云實例。 11月13日,NVIDIA 宣布推出 NVIDIA HGX H200 ,為 Hopper 這一全球領(lǐng)先的 AI 計算平臺
2023-11-14 20:05:01
923
923
英偉達(dá)推出用于人工智能工作的頂級芯片HGX H200
近日,英偉達(dá)推出了一款用于人工智能工作的頂級芯片HGX H200。新的GPU升級了需求巨大的H100,內(nèi)存帶寬增加了1.4倍,內(nèi)存容量增加了1.8倍,提高了其處理密集生成人工智能工作的能力。 在
2023-11-15 14:34:50
2636
2636NVIDIA 在 Microsoft Azure 上推出面向全球企業(yè)和初創(chuàng)公司的 生成式 AI Foundry 服務(wù)
和初創(chuàng)公司在 Microsoft Azure 上開發(fā)、調(diào)優(yōu)和部署其自定義生成式 AI 應(yīng)用。 ? 這項 NVIDIA AI foundry 服務(wù)整合了 NVIDIA AI Foundation
2023-11-16 14:13:08
859
859
NVIDIA 在 Microsoft Azure 上推出面向全球企業(yè)和初創(chuàng)公司的生成式 AI Foundry 服務(wù)
AI Enterprise 軟件進(jìn)行部署 NVIDIA 于今日推出一項 AI foundry 服務(wù),助力企業(yè)和初創(chuàng)公司在 Microsoft Azure 上開發(fā)、調(diào)優(yōu)和部署其自定義生成式 AI
2023-11-16 21:15:02
1193
1193AI服務(wù)器的內(nèi)存接口芯片技術(shù)
DXG 服務(wù)器配備 8 塊 H100 GPU,6400億個晶體管,在全新的 FP8 精度下 AI 性能比上一代高 6 倍,可提供 900GB/s 的帶寬。
2023-12-13 09:23:54
1781
1781
Supermicro推出適用于AI存儲的機(jī)柜級全方位解決方案 加速高性能AI訓(xùn)練和推理的數(shù)據(jù)存取
【2024年2月1日,美國圣何塞訊】Supermicro, Inc.(納斯達(dá)克股票代碼:SMCI)作為AI、云端、存儲和5G/邊緣領(lǐng)域的全方位IT解決方案制造商,推出適用于人工智能(AI)和機(jī)器學(xué)習(xí)
2024-02-01 17:56:09
1569
1569Supermicro推新AI存儲方案,助力AI和ML應(yīng)用加速
Supermicro首席執(zhí)行官梁見后先生高瞻遠(yuǎn)矚地指出:針對AI和ML應(yīng)用的加速處理,我們推薦配置以每機(jī)柜20 PB高速閃存為主,配備四個NVIDIA HGX H100系列優(yōu)化版8-GPU氣冷服務(wù)器或者八個同款液冷服務(wù)器。
2024-02-03 14:46:40
1311
1311Supermicro全新系統(tǒng)產(chǎn)品組合將前沿AI性能推向邊緣計算環(huán)境
,正在擴(kuò)展其AI解決方案產(chǎn)品組合,讓客戶在公共空間、零售商店或工業(yè)基礎(chǔ)架構(gòu)等邊緣位置能有效運(yùn)用AI的強(qiáng)大性能。通過使用搭載NVIDIA GPU的Supermicro應(yīng)用優(yōu)化服務(wù)器,可更輕松地微調(diào)預(yù)訓(xùn)練
2024-02-24 09:10:13
1669
1669
使用NVIDIA Triton推理服務(wù)器來加速AI預(yù)測
這家云計算巨頭的計算機(jī)視覺和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來加速 AI 預(yù)測。
2024-02-29 14:04:40
1458
1458NVIDIA 推出 Blackwell 架構(gòu) DGX SuperPOD,適用于萬億參數(shù)級的生成式 AI 超級計算
Blackwell GPU 連成一個整體,由NVIDIA 系統(tǒng)專家加速即時 AI 基礎(chǔ)設(shè)施的部署 ? ? ? 美國加利福尼亞州圣何塞 —— GTC —— 太平洋時間 2024 年 3 月 18 日
2024-03-19 10:56:35
1126
1126
英偉達(dá)發(fā)布超強(qiáng)AI加速卡,性能大幅提升,可支持1.8萬億參數(shù)模的訓(xùn)練
得益于NVIDIA每兩年進(jìn)行一次GPU架構(gòu)升級以提高性能的策略,全新的基于Blackwell的加速卡比之前的H100更為強(qiáng)大,尤其適用于AI相關(guān)任務(wù)。
2024-03-19 12:04:04
1996
1996NVIDIA推出微服務(wù),助力企業(yè)邁向生成式AI
NVIDIA 的 AI 平臺適用于任何高瞻遠(yuǎn)矚的企業(yè)使用,而且比以往任何時候都更加易于應(yīng)用。
2024-03-21 09:39:27
931
931AI服務(wù)器脫離GPU依賴,AI PC市場潛力無限
由于GPU供應(yīng)短缺,AI服務(wù)器一度出現(xiàn)供給不足的情況。廖仁祥指出,考慮到AI服務(wù)器價格相對較高,企業(yè)采購預(yù)算中已有20%用于此項開支,涵蓋了制造業(yè)、電信業(yè)、醫(yī)療機(jī)構(gòu)以及政府部門等多個領(lǐng)域,金融行業(yè)也逐漸引入生成式AI應(yīng)用。
2024-04-11 09:32:12
912
912臺積電:AI服務(wù)器處理器預(yù)計翻番,拉動收入增長?
臺積電將 AI 服務(wù)器處理器嚴(yán)格限定為用于 AI 訓(xùn)練與推理的 GPU、CPU 及 AI 加速器,剔除網(wǎng)絡(luò)邊緣與消費(fèi)級設(shè)備中的此類產(chǎn)品。
2024-04-19 15:04:29
817
817助力科學(xué)發(fā)展,NVIDIA AI加速HPC研究
科學(xué)家和研究人員正在利用 NVIDIA 技術(shù)將生成式 AI 應(yīng)用于代碼生成、天氣預(yù)報、遺傳學(xué)和材料科學(xué)領(lǐng)域的 HPC 工作。
2024-05-14 09:17:27
1163
1163
NVIDIA宣布全面推出 NVIDIA ACE 生成式 AI 微服務(wù)
采用 NVIDIA 宣布全面推出 NVIDIA ACE 生成式 AI 微服務(wù),以加速新一代數(shù)字人的發(fā)展,并將在平臺上推出全新的生成式 AI 突破??蛻?b class="flag-6" style="color: red">服務(wù)、游戲和醫(yī)療健康領(lǐng)域的公司率先采用 ACE
2024-06-04 10:18:37
1413
1413Supermicro推出適配NVIDIA Blackwell和NVIDIA HGX H100/H200的機(jī)柜級即插即用液冷AI SuperCluster
制造商,推出可立即部署式液冷型AI數(shù)據(jù)中心。此數(shù)據(jù)中心專為云原生解決方案而設(shè)計,通過SuperCluster加速各界企業(yè)對生成式AI的運(yùn)用,并針對NVIDIA AI Enterprise軟件
2024-06-07 15:12:25
896
896
NVIDIA推出NVIDIA AI Computing by HPE加速生成式 AI 變革
作為極具開創(chuàng)性的一站式“交鑰匙”私有云人工智能(private-cloud AI)解決方案,NVIDIA AI Computing by HPE 包含了可持續(xù)的加速計算產(chǎn)品組合以及全生命周期服務(wù),將
2024-06-20 17:36:07
1346
1346HPE 攜手 NVIDIA 推出 NVIDIA AI Computing by HPE,加速生成式 AI 變革
by HPE 包含了可持續(xù)的加速計算產(chǎn)品組合以及全生命周期服務(wù),將簡化 AI 創(chuàng)造價值的過程,加速生成式 AI 的發(fā)展步伐。 NVIDIA AI Computing by HPE 由 HPE 與 NVIDIA 共同開發(fā)和聯(lián)合推向市場,標(biāo)志著
2024-06-21 14:39:43
880
880NVIDIA攜手Meta推出AI服務(wù),為企業(yè)提供生成式AI服務(wù)
NVIDIA近日宣布了一項重大舉措,正式推出NVIDIA AI Foundry服務(wù)與NVIDIA NIM(NVIDIA Inference Microservices)推理微服務(wù),這兩項創(chuàng)新成果與同步問世的Llama 3.1系列開源模型強(qiáng)強(qiáng)聯(lián)合,為全球企業(yè)構(gòu)建強(qiáng)大的生成式AI能力鋪設(shè)了堅實的基石。
2024-07-25 16:57:37
1068
1068AI云服務(wù)器:開啟智能計算新時代
,旨在為人工智能應(yīng)用提供堅實的支持。 特點(diǎn) 高性能:配備先進(jìn)的處理器,如多核CPU和高性能GPU,能夠快速處理大量復(fù)雜的計算任務(wù),滿足深度學(xué)習(xí)和機(jī)器學(xué)習(xí)模型訓(xùn)練及推理的需求。 可擴(kuò)展性:可根據(jù)實際業(yè)務(wù)需求靈活擴(kuò)展計算、存儲和網(wǎng)絡(luò)
2024-08-09 16:08:23
2384
2384GPU服務(wù)器在AI訓(xùn)練中的優(yōu)勢具體體現(xiàn)在哪些方面?
能力特別適合于深度學(xué)習(xí)中的大規(guī)模矩陣運(yùn)算和高維度數(shù)據(jù)處理,這些是AI訓(xùn)練中常見的計算密集型任務(wù)。 2、高效的數(shù)據(jù)處理:AI訓(xùn)練通常涉及大量的數(shù)據(jù),GPU服務(wù)器能夠快速處理這些數(shù)據(jù),從而加快模型的訓(xùn)練速度。例如,恒訊科技的GPU云服務(wù)器提供
2024-09-11 13:24:03
1595
1595什么是AI服務(wù)器?AI服務(wù)器的優(yōu)勢是什么?
AI服務(wù)器是一種專門為人工智能應(yīng)用設(shè)計的服務(wù)器,它采用異構(gòu)形式的硬件架構(gòu),通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片的組合來滿足高吞吐量互聯(lián)的需求,為自然語言處理、計算機(jī)視覺、機(jī)器學(xué)習(xí)等人工智能應(yīng)用場景提供強(qiáng)大的算力支持,支撐AI算法的訓(xùn)練和推理過程。
2024-09-21 11:43:09
3063
3063GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)設(shè)計
眾所周知,在大型模型訓(xùn)練中,通常采用每臺服務(wù)器配備多個GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)(上篇)》中,我們對GPU網(wǎng)絡(luò)中的核心術(shù)語與概念進(jìn)行了詳盡介紹。本文將進(jìn)一步深入探討常見的GPU系統(tǒng)架構(gòu)。
2024-11-05 16:20:34
2133
2133
NVIDIA推出多個生成式AI模型和藍(lán)圖
NVIDIA 宣布推出多個生成式 AI 模型和藍(lán)圖,將 NVIDIA Omniverse 一體化進(jìn)一步擴(kuò)展至物理 AI 應(yīng)用,如機(jī)器人、自動駕駛汽車和視覺 AI 等。全球軟件開發(fā)和專業(yè)服務(wù)領(lǐng)域的領(lǐng)先企業(yè)正在使用 Omniverse 開發(fā)新的產(chǎn)品和服務(wù),加快工業(yè) AI 新時代的到來。
2025-01-08 10:48:54
1119
1119
電子發(fā)燒友App


評論