chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

數(shù)據(jù)中心依靠服務器為其計算密集型架構(gòu)提供支持

獨愛72H ? 來源:教育新聞網(wǎng) ? 作者:教育新聞網(wǎng) ? 2020-04-28 17:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:教育新聞網(wǎng))

支持AI和ML部署的數(shù)據(jù)中心依靠基于圖形處理單元(GPU)的服務器為其計算密集型架構(gòu)提供支持。在多個行業(yè)中,到2024年,GPU使用量的增長將落后于GPU服務器預計超過31%的復合年增長率。這意味著將承擔更多的系統(tǒng)架構(gòu)師的職責,以確保GPU系統(tǒng)具有最高的性能和成本效益。

然而,為這些基于GPU的AI / ML工作負載優(yōu)化存儲并非易事。存儲系統(tǒng)必須高速處理海量數(shù)據(jù),同時應對兩個挑戰(zhàn):

服務器利用率1)。GPU服務器對于訓練大型AI / ML數(shù)據(jù)集所需的矩陣乘法和卷積非常高效。但是,GPU服務器的成本是典型CPU服務器的3倍。為了保持ROI,IT員工需要保持GPU繁忙。不幸的是,豐富的部署經(jīng)驗表明GPU僅以30%的容量使用。

該2)。ML訓練數(shù)據(jù)集通常遠遠超過GPU的本地RAM容量,從而創(chuàng)建了一個I / O瓶頸,分析人員將其稱為GPU存儲瓶頸。AI和ML系統(tǒng)最終要等待訪問存儲資源,這是因為它們的龐大規(guī)模阻礙了及時訪問,從而影響了性能。為了解決這個問題,NVMe閃存固態(tài)硬盤逐漸取代了標準閃存固態(tài)硬盤,成為Al / ML存儲的首選。

NVMe支持大規(guī)模的IO并行性,性能約為同類SATA SSD的6倍,并且延遲降低了10倍,并且具有更高的電源效率。正如GPU推動了高性能計算的發(fā)展一樣,NVMe閃存在降低延遲的同時,實現(xiàn)了更高的存儲性能,帶寬和IO / s。NVMe閃存解決方案可以將AI和ML數(shù)據(jù)集加載到應用程序的速度更快,并且可以避免GPU匱乏。

此外,可通過高速網(wǎng)絡虛擬化NVMe資源的基于光纖的NVMe(NVMeoF)啟用了特別適用于AI和ML的存儲架構(gòu)。NVMeoF使GPU可以直接訪問NVMe的彈性池,因此可以使用本地閃存性能來訪問所有資源。它使AI數(shù)據(jù)科學家和HPC研究人員可以向應用程序提供更多數(shù)據(jù),以便他們更快地獲得更好的結(jié)果。

要獲得最佳的GPU存儲性能,就需要根據(jù)業(yè)務目標對基礎架構(gòu)進行微調(diào)。這里有四種方法可供考慮:

有效擴展GPU存儲容量1)例如,InstaDeep為可能不需要或不需要運行自己的AI堆棧的組織提供了AI即服務解決方案。因此,InstaDeep需要最大的ROI和可擴展性。特別是,對多租戶的需求意味著基礎架構(gòu)必須隨時準備就緒,以滿足各種工作負載和客戶端的性能要求。

InstaDeep基礎架構(gòu)團隊在部署其第一個GPU服務器系統(tǒng)的早期就了解到,本地GPU服務器的存儲容量將太有限,只有4TB的本地存儲,而客戶的工作量則需要10到100 TB的TB。該團隊研究了外部存儲選項,并注意到,使用傳統(tǒng)陣列它們將獲得更多的容量,但性能最終會阻礙AI工作負載,因為應用程序需要將數(shù)據(jù)移入和移出GPU系統(tǒng),從而中斷工作流程并影響系統(tǒng)效率。

通過使用軟件定義的存儲在快速的RDMA網(wǎng)絡上合并NVMe閃存(一種將數(shù)據(jù)集加載速度提高10倍的方法),InstaDeep可以實現(xiàn)更高的GPU容量利用率,消除了GPU瓶頸并提高了ROI,因為現(xiàn)有的GPU變得更加完整利用。
(責任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 服務器
    +關注

    關注

    13

    文章

    10093

    瀏覽量

    90895
  • 數(shù)據(jù)中心

    關注

    16

    文章

    5519

    瀏覽量

    74655
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    提升AI數(shù)據(jù)服務器交換機性能與效率的關鍵:永銘電容的應用

    YMIN永銘電容應用AI數(shù)據(jù)中心服務器·交換機隨著AI技術的快速發(fā)展,數(shù)據(jù)中心服務器的性能需求不斷增加。作為AI服務器基礎架構(gòu)中的重要組成
    的頭像 發(fā)表于 09-01 10:04 ?248次閱讀
    提升AI<b class='flag-5'>數(shù)據(jù)服務器</b>交換機性能與效率的關鍵:永銘電容的應用

    賦能人工智能未來:ADI宣布支持800 VDC數(shù)據(jù)中心架構(gòu)

    , Inc. (ADI)推出創(chuàng)新解決方案,數(shù)據(jù)中心下一代800 VDC架構(gòu)提供有力支持。該系列解決方案包含高可靠性熱插拔與一級電源產(chǎn)品,旨
    的頭像 發(fā)表于 08-28 21:18 ?862次閱讀
    賦能人工智能未來:ADI宣布<b class='flag-5'>支持</b>800 VDC<b class='flag-5'>數(shù)據(jù)中心</b><b class='flag-5'>架構(gòu)</b>

    數(shù)據(jù)中心液冷服務器該配什么樣的 UPS 不間斷電源?

    在當今數(shù)字化飛速發(fā)展的時代,數(shù)據(jù)中心就像是整個數(shù)字世界的心臟,承載著海量的數(shù)據(jù)存儲與處理任務。而液冷服務器作為數(shù)據(jù)中心的核心設備之一,因其高效的散熱性能,正越來越廣泛地被應用。不過,要
    的頭像 發(fā)表于 08-21 11:01 ?643次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>液冷<b class='flag-5'>服務器</b>該配什么樣的 UPS 不間斷電源?

    PCIe協(xié)議分析儀在數(shù)據(jù)中心中有何作用?

    數(shù)據(jù)中心的整體可靠性。以下是核心作用及具體應用場景的詳細分析:一、性能優(yōu)化:突破帶寬瓶頸,提升計算效率 鏈路帶寬利用率分析 場景:在AI訓練集群中,GPU通過PCIe與CPU交換數(shù)據(jù)
    發(fā)表于 07-29 15:02

    中型數(shù)據(jù)中心中的差分晶體振蕩應用與匹配方案

    同步模塊等。 2. 高校/科研機構(gòu)智能計算中心 應用背景: 服務于AI訓練、大數(shù)據(jù)建模與圖像處理的科研計算平臺,要求高速網(wǎng)絡與大容量數(shù)據(jù)同步
    發(fā)表于 07-01 16:33

    I/O密集型任務開發(fā)指導

    使用異步并發(fā)可以解決單次I/O任務阻塞的問題,但是如果遇到I/O密集型任務,同樣會阻塞線程中其它任務的執(zhí)行,這時需要使用多線程并發(fā)能力來進行解決。 I/O密集型任務的性能重點通常不在于CPU的處理
    發(fā)表于 06-19 07:19

    小型數(shù)據(jù)中心晶振選型關鍵參數(shù)全解

    小型數(shù)據(jù)中心的定義與應用 小型數(shù)據(jù)中心通常是中小型企業(yè)、邊緣計算、物聯(lián)網(wǎng)(IoT)設備及其他特定業(yè)務需求提供
    發(fā)表于 06-11 13:37

    愛普生SG2520HHN晶振數(shù)據(jù)中心服務器的理想解決方案

    在當今數(shù)字化時代,數(shù)據(jù)中心作為海量數(shù)據(jù)存儲、處理與傳輸?shù)暮诵臉屑~,服務器的高效穩(wěn)定運行至關重要。服務器作為
    的頭像 發(fā)表于 04-29 17:32 ?462次閱讀
    愛普生SG2520HHN晶振<b class='flag-5'>數(shù)據(jù)中心服務器</b>的理想解決方案

    適用于數(shù)據(jù)中心和AI時代的800G網(wǎng)絡

    數(shù)據(jù)中心依賴數(shù)千甚至上萬個GPU集群進行高性能計算,對帶寬、延遲和數(shù)據(jù)交換效率提出極高要求。 AI云:以生成式AI核心的云平臺,
    發(fā)表于 03-25 17:35

    優(yōu)化800G數(shù)據(jù)中心:高速線纜、有源光纜和光纖跳線解決方案

    廣泛應用于網(wǎng)卡、交換機、服務器、超級計算機、云計算數(shù)據(jù)中心的短距離互連。 800G高速線纜 隨著大規(guī)模和超大規(guī)模數(shù)據(jù)中心的興起,
    發(fā)表于 03-24 14:20

    偉創(chuàng)力中間總線轉(zhuǎn)換優(yōu)化數(shù)據(jù)中心能源效率

    隨著AI、機器學習和更密集型計算的興起,現(xiàn)代數(shù)據(jù)中心正面臨前所未有的能源需求。這些高耗電應用給CPU和GPU帶來了巨大的壓力,亟需創(chuàng)新的解決方案來平衡性能與能源效率。在本博客文章中,我們探討了優(yōu)化
    的頭像 發(fā)表于 03-20 11:25 ?1234次閱讀

    英特爾至強6:如何煉就數(shù)據(jù)中心“全能選手”

    計算密集型工作負載而設計,新發(fā)布的至強6700P和至強6500P不僅在AI推理、單核性能等關鍵領域展現(xiàn)出家族“優(yōu)等生”風范,還面向多路服務器應用場景,提供了高度靈活的適配方案。 ? 作
    的頭像 發(fā)表于 03-13 14:57 ?544次閱讀
    英特爾至強6:如何煉就<b class='flag-5'>數(shù)據(jù)中心</b>“全能<b class='flag-5'>型</b>選手”

    數(shù)據(jù)中心發(fā)展與改造

    存在的問題 1.?電費成本高企,占比超40% 數(shù)據(jù)中心電力成本占運營總成本的40%-60%,部分AI算力密集型場景甚至高達70%。以年耗電2000萬度的中型數(shù)據(jù)中心例,按平均電價0.
    的頭像 發(fā)表于 02-28 16:50 ?741次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>發(fā)展與改造

    服務器數(shù)據(jù)中心與云計算中的重要性

    在當今數(shù)據(jù)驅(qū)動的世界中,對高質(zhì)量、可靠且高效的計算服務的需求從未如此強烈。數(shù)據(jù)中心和云計算環(huán)境必須通過部署應用優(yōu)化
    的頭像 發(fā)表于 02-07 09:06 ?918次閱讀
    <b class='flag-5'>服務器</b>在<b class='flag-5'>數(shù)據(jù)中心</b>與云<b class='flag-5'>計算</b>中的重要性

    浪潮信息升級數(shù)據(jù)中心服務器故障智能診斷AIOps技術

    近日,浪潮信息對數(shù)據(jù)中心服務器故障智能診斷AIOps技術進行了全面升級。該技術旨在解決數(shù)據(jù)中心服務器日常巡檢中故障人工識別效率低、難以精準定位的問題。 基于數(shù)百萬臺服務器的運維管理經(jīng)
    的頭像 發(fā)表于 12-31 13:38 ?962次閱讀