chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA引入云原生超級計算架構

NVIDIA英偉達 ? 來源:NVIDIA英偉達 ? 作者:NVIDIA英偉達 ? 2021-11-21 10:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

超級計算機是一項重要的投資,對于研究人員和科學家來說,它們是必不可少的寶貴工具。為了有效和安全地共享這些數據中心的計算能力, NVIDIA 引入了云原生超級計算架構。它結合了裸機性能、多租戶和性能隔離統(tǒng)一為超級計算服務。

Magnum IO 是數據中心的 I / O 子系統(tǒng),它引入了新的增強功能,以加速多租戶數據中心的 I / O 和通信。我們將這些增強功能稱為 Magnum IO ,用于云原生超級計算架構。

它由 NVIDIA Quantum-2 InfiniBand 平臺提供,該平臺包括 NVIDIA Quantum-2 交換機系列、BlueField-3 DPU 和 ConnectX-7 網卡。

這種進化環(huán)境的挑戰(zhàn)是什么?

基于 GPU 的高性能計算已經通過機器學習模擬計算大幅改變了科學和實驗。在GPU 上運行的這些深度學習框架和模擬工具可能會消耗 PB 級的數據,并在整個數據中心內造成擁塞和瓶頸。更復雜的是,這些應用程序的多個實例在共享的超級計算設施上常常同時運行并互相影響,因而造成運行性能的抖動,從而導致無法預測的運行時間。

面向云原生超級計算體系結構設計的 Magnum IO 帶來新的增強功能,以減輕最終用戶在多租戶環(huán)境中運行應用帶來的性能負面影響。它提供確定性的性能,就好像它們的應用程序是獨占網絡運行。

第三代 NVIDIA SHARP

(可擴展分層聚合和規(guī)約協(xié)議)

通過將集合操作從主機 CPU 卸載到交換機網絡,SHARP 技術有效消除了端點之間多次發(fā)送數據的需求,從而提高了 MPI 操作的性能。這種方法大幅減少了到達聚合節(jié)點的網絡流量,并顯著減少了 MPI 操作時間。

在網絡中實現集合通信算法還有其他好處,例如釋放寶貴的 CPU 資源用于計算,而不是使用它們來處理通信。

最近發(fā)布的 NVIDIA Quantum-2 InfiniBand 交換機為大型數據聚合提供了強大的可擴展性。由于每個交換機支持幾乎無限的小消息聚合和多個大消息聚合流,在共享系統(tǒng)上運行多租戶應用程序可以充分利用 SHARP 的優(yōu)勢。

性能隔離

多租戶超級計算實現在共享資源上運行很多用戶的應用程序,可能造成物理服務器、存儲、網絡以及I / O流量模型的復用 。

NVIDIA Quantum InfiniBand 一直以來支持擁塞控制管理,當檢測到網絡擁塞時在源端實施控制以緩解擁塞。但在多租戶場景,用戶應用可能無意識地與相鄰用戶流量產生干擾,因此需要隔離以提供可預期的性能級別。

借助最新的 NVIDIA Quantum-2 InfiniBand 平臺和 Magnum IO ,創(chuàng)新的主動監(jiān)控和擁塞管理提供了良好的流量隔離。這幾乎完全消除了性能抖動,并確保了預期的性能,就像應用程序運行在專用系統(tǒng)上一樣。

專為安全、多租戶、裸機性能而打造

NVIDIA Cloud-Native Supercomputing 體系結構使用 Magnum IO 在多租戶環(huán)境中實現最高的性能、安全性和編排。

此外,實現這種架構轉換的另一個核心元素是數據處理器( DPU ),也即 BlueField 。作為一個完全集成的片上數據中心平臺, BlueField 從主機處理器卸載和管理數據中心基礎設施,實現超級計算機的安全和編排。

它還能夠提供額外的通信框架卸載,可達到 100% 的通信計算重疊,實現 MPI _ Alltoall 44% 的性能提升和 MPI _ iAllgather 36% 的性能提升。當結合最新的 NVIDIA Quantum-2 平臺時,該體系結構在安全的多節(jié)點體系結構中展示性能隔離實現裸金屬性能。

Magnum IO 消除了 I / O 瓶頸,拓展了硬件級加速引擎、網絡計算和擁塞控制等最新技術,成為支持當今高性能裸金屬多租戶數據中心的必備利器。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5496

    瀏覽量

    109110
  • 云計算
    +關注

    關注

    39

    文章

    8003

    瀏覽量

    143125
  • 人工智能
    +關注

    關注

    1813

    文章

    49750

    瀏覽量

    261618

原文標題:使用 Magnum IO 加速云原生超級計算

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA在ISC 2025分享最新超級計算進展

    NVIDIA DGX Spark 到 NVIDIA BlueField-4 DPU,新一代網絡和量子技術實現了飛躍。在 SC25 上展示的加速系統(tǒng)突顯了全球超級計算和 AI 的進展
    的頭像 發(fā)表于 11-25 10:59 ?494次閱讀
    <b class='flag-5'>NVIDIA</b>在ISC 2025分享最新<b class='flag-5'>超級</b><b class='flag-5'>計算</b>進展

    NVIDIA推出NVQLink高速互連架構

    NVIDIA 推出 NVIDIA NVQLink,這是一種開放式系統(tǒng)架構,可將 GPU 計算的極致性能與量子處理器緊密結合,以構建加速的量子超級
    的頭像 發(fā)表于 11-03 14:53 ?487次閱讀

    云原生環(huán)境里Nginx的故障排查思路

    本文聚焦于云原生環(huán)境下Nginx的故障排查思路。隨著云原生技術的廣泛應用,Nginx作為常用的高性能Web服務器和反向代理服務器,在容器化和編排的環(huán)境中面臨著新的故障場景和挑戰(zhàn)。
    的頭像 發(fā)表于 06-17 13:53 ?648次閱讀
    <b class='flag-5'>云原生</b>環(huán)境里Nginx的故障排查思路

    Blue Lion超級計算機將在NVIDIA Vera Rubin上運行

    德國萊布尼茨超算中心(LRZ)將迎來全新超級計算機 Blue Lion,其算力比該中心現有的 SuperMUC-NG 高性能計算機提升了約 30 倍。這臺新的超級
    的頭像 發(fā)表于 06-12 15:39 ?837次閱讀

    NVIDIA技術賦能歐洲最快超級計算機JUPITER

    NVIDIA 宣布,搭載 NVIDIA Grace Hopper 平臺的 JUPITER 超級計算機成為歐洲最快超級
    的頭像 發(fā)表于 06-12 15:33 ?1052次閱讀

    云原生在汽車行業(yè)的優(yōu)勢

    近年來,“云原生”已成為科技領域的高頻熱詞。從企業(yè)數字化轉型到智能化產業(yè)布局,各行各業(yè)對云原生技術的需求呈現爆發(fā)式增長,向云計算轉型已成為一大趨勢。根據Gartner的預測,到2025年,超過95%的新數字工作負載將遷移至云端,
    的頭像 發(fā)表于 02-21 09:20 ?1477次閱讀

    利用NVIDIA DPF引領DPU加速云計算的未來

    DPU 的強大功能,并優(yōu)化 GPU 加速計算平臺。作為一種編排框架和實施藍圖,DPF 使開發(fā)者、服務提供商和企業(yè)能夠無縫構建 BlueField 加速的云原生軟件平臺。
    的頭像 發(fā)表于 01-24 09:29 ?1281次閱讀
    利用<b class='flag-5'>NVIDIA</b> DPF引領DPU加速云<b class='flag-5'>計算</b>的未來

    云原生AI服務怎么樣

    云原生AI服務,是指采用云原生的原則和技術來構建、部署和管理人工智能應用及工作負載的方法和模式。那么,云原生AI服務怎么樣呢?下面,AI部落小編帶您了解。
    的頭像 發(fā)表于 01-23 10:47 ?768次閱讀

    MediaTek與NVIDIA攜手設計GB10 Grace Blackwell超級芯片

    MediaTek與NVIDIA近日宣布了一項重要合作,雙方將共同設計NVIDIA GB10 Grace Blackwell超級芯片。這款超級芯片將被應用于
    的頭像 發(fā)表于 01-13 10:48 ?891次閱讀

    MediaTek與NVIDIA攜手打造超級芯片

    的個人AI超級計算機項目NVIDIA? Project DIGITS中,標志著兩家科技巨頭在AI計算領域的深度合作。 MediaTek作為全球領先的芯片供應商,在智能手機、智能電視、A
    的頭像 發(fā)表于 01-10 13:49 ?821次閱讀

    聯發(fā)科與NVIDIA合作 為NVIDIA 個人AI超級計算機設計NVIDIA GB10超級芯片

    聯發(fā)科近日宣布與NVIDIA合作設計NVIDIA GB10 Grace Blackwell超級芯片,將應用于NVIDIA 的個人AI超級
    的頭像 發(fā)表于 01-07 16:26 ?835次閱讀

    云原生LLMOps平臺作用

    云原生LLMOps平臺是一種基于云計算基礎設施和開發(fā)工具,專門用于構建、部署和管理大型語言模型(LLM)全生命周期的平臺。以下,是對云原生LLMOps平臺作用的梳理,由AI部落小編整理。
    的頭像 發(fā)表于 01-06 10:21 ?714次閱讀

    如何選擇云原生機器學習平臺

    當今,云原生機器學習平臺因其彈性擴展、高效部署、低成本運營等優(yōu)勢,逐漸成為企業(yè)構建和部署機器學習應用的首選。然而,市場上的云原生機器學習平臺種類繁多,功能各異,如何選擇云原生機器學習平臺呢?下面,AI部落小編帶您探討。
    的頭像 發(fā)表于 12-25 11:54 ?701次閱讀

    構建云原生機器學習平臺流程

    構建云原生機器學習平臺是一個復雜而系統(tǒng)的過程,涉及數據收集、處理、特征提取、模型訓練、評估、部署和監(jiān)控等多個環(huán)節(jié)。
    的頭像 發(fā)表于 12-14 10:34 ?677次閱讀

    什么是云原生MLOps平臺

    云原生MLOps平臺,是指利用云計算的基礎設施和開發(fā)工具,來構建、部署和管理機器學習模型的全生命周期的平臺。以下,是對云原生MLOps平臺的介紹,由AI部落小編整理。
    的頭像 發(fā)表于 12-12 13:13 ?846次閱讀