chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

數(shù)據(jù)中心依靠服務(wù)器為其計算密集型架構(gòu)提供支持

獨愛72H ? 來源:教育新聞網(wǎng) ? 作者:教育新聞網(wǎng) ? 2020-04-28 17:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:教育新聞網(wǎng))

支持AI和ML部署的數(shù)據(jù)中心依靠基于圖形處理單元(GPU)的服務(wù)器為其計算密集型架構(gòu)提供支持。在多個行業(yè)中,到2024年,GPU使用量的增長將落后于GPU服務(wù)器預(yù)計超過31%的復(fù)合年增長率。這意味著將承擔(dān)更多的系統(tǒng)架構(gòu)師的職責(zé),以確保GPU系統(tǒng)具有最高的性能和成本效益。

然而,為這些基于GPU的AI / ML工作負載優(yōu)化存儲并非易事。存儲系統(tǒng)必須高速處理海量數(shù)據(jù),同時應(yīng)對兩個挑戰(zhàn):

服務(wù)器利用率1)。GPU服務(wù)器對于訓(xùn)練大型AI / ML數(shù)據(jù)集所需的矩陣乘法和卷積非常高效。但是,GPU服務(wù)器的成本是典型CPU服務(wù)器的3倍。為了保持ROI,IT員工需要保持GPU繁忙。不幸的是,豐富的部署經(jīng)驗表明GPU僅以30%的容量使用。

該2)。ML訓(xùn)練數(shù)據(jù)集通常遠遠超過GPU的本地RAM容量,從而創(chuàng)建了一個I / O瓶頸,分析人員將其稱為GPU存儲瓶頸。AI和ML系統(tǒng)最終要等待訪問存儲資源,這是因為它們的龐大規(guī)模阻礙了及時訪問,從而影響了性能。為了解決這個問題,NVMe閃存固態(tài)硬盤逐漸取代了標(biāo)準(zhǔn)閃存固態(tài)硬盤,成為Al / ML存儲的首選。

NVMe支持大規(guī)模的IO并行性,性能約為同類SATA SSD的6倍,并且延遲降低了10倍,并且具有更高的電源效率。正如GPU推動了高性能計算的發(fā)展一樣,NVMe閃存在降低延遲的同時,實現(xiàn)了更高的存儲性能,帶寬和IO / s。NVMe閃存解決方案可以將AI和ML數(shù)據(jù)集加載到應(yīng)用程序的速度更快,并且可以避免GPU匱乏。

此外,可通過高速網(wǎng)絡(luò)虛擬化NVMe資源的基于光纖的NVMe(NVMeoF)啟用了特別適用于AI和ML的存儲架構(gòu)。NVMeoF使GPU可以直接訪問NVMe的彈性池,因此可以使用本地閃存性能來訪問所有資源。它使AI數(shù)據(jù)科學(xué)家和HPC研究人員可以向應(yīng)用程序提供更多數(shù)據(jù),以便他們更快地獲得更好的結(jié)果。

要獲得最佳的GPU存儲性能,就需要根據(jù)業(yè)務(wù)目標(biāo)對基礎(chǔ)架構(gòu)進行微調(diào)。這里有四種方法可供考慮:

有效擴展GPU存儲容量1)例如,InstaDeep為可能不需要或不需要運行自己的AI堆棧的組織提供了AI即服務(wù)解決方案。因此,InstaDeep需要最大的ROI和可擴展性。特別是,對多租戶的需求意味著基礎(chǔ)架構(gòu)必須隨時準(zhǔn)備就緒,以滿足各種工作負載和客戶端的性能要求。

InstaDeep基礎(chǔ)架構(gòu)團隊在部署其第一個GPU服務(wù)器系統(tǒng)的早期就了解到,本地GPU服務(wù)器的存儲容量將太有限,只有4TB的本地存儲,而客戶的工作量則需要10到100 TB的TB。該團隊研究了外部存儲選項,并注意到,使用傳統(tǒng)陣列它們將獲得更多的容量,但性能最終會阻礙AI工作負載,因為應(yīng)用程序需要將數(shù)據(jù)移入和移出GPU系統(tǒng),從而中斷工作流程并影響系統(tǒng)效率。

通過使用軟件定義的存儲在快速的RDMA網(wǎng)絡(luò)上合并NVMe閃存(一種將數(shù)據(jù)集加載速度提高10倍的方法),InstaDeep可以實現(xiàn)更高的GPU容量利用率,消除了GPU瓶頸并提高了ROI,因為現(xiàn)有的GPU變得更加完整利用。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    9995

    瀏覽量

    90088
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    16

    文章

    5417

    瀏覽量

    74313
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    提升AI數(shù)據(jù)服務(wù)器交換機性能與效率的關(guān)鍵:永銘電容的應(yīng)用

    YMIN永銘電容應(yīng)用AI數(shù)據(jù)中心服務(wù)器·交換機隨著AI技術(shù)的快速發(fā)展,數(shù)據(jù)中心服務(wù)器的性能需求不斷增加。作為AI服務(wù)器基礎(chǔ)架構(gòu)中的重要組成
    的頭像 發(fā)表于 09-01 10:04 ?164次閱讀
    提升AI<b class='flag-5'>數(shù)據(jù)服務(wù)器</b>交換機性能與效率的關(guān)鍵:永銘電容的應(yīng)用

    賦能人工智能未來:ADI宣布支持800 VDC數(shù)據(jù)中心架構(gòu)

    , Inc. (ADI)推出創(chuàng)新解決方案,數(shù)據(jù)中心下一代800 VDC架構(gòu)提供有力支持。該系列解決方案包含高可靠性熱插拔與一級電源產(chǎn)品,旨
    的頭像 發(fā)表于 08-28 21:18 ?685次閱讀
    賦能人工智能未來:ADI宣布<b class='flag-5'>支持</b>800 VDC<b class='flag-5'>數(shù)據(jù)中心</b><b class='flag-5'>架構(gòu)</b>

    數(shù)據(jù)中心液冷服務(wù)器該配什么樣的 UPS 不間斷電源?

    在當(dāng)今數(shù)字化飛速發(fā)展的時代,數(shù)據(jù)中心就像是整個數(shù)字世界的心臟,承載著海量的數(shù)據(jù)存儲與處理任務(wù)。而液冷服務(wù)器作為數(shù)據(jù)中心的核心設(shè)備之一,因其高效的散熱性能,正越來越廣泛地被應(yīng)用。不過,要
    的頭像 發(fā)表于 08-21 11:01 ?491次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>液冷<b class='flag-5'>服務(wù)器</b>該配什么樣的 UPS 不間斷電源?

    PCIe協(xié)議分析儀在數(shù)據(jù)中心中有何作用?

    數(shù)據(jù)中心的整體可靠性。以下是核心作用及具體應(yīng)用場景的詳細分析:一、性能優(yōu)化:突破帶寬瓶頸,提升計算效率 鏈路帶寬利用率分析 場景:在AI訓(xùn)練集群中,GPU通過PCIe與CPU交換數(shù)據(jù)
    發(fā)表于 07-29 15:02

    中型數(shù)據(jù)中心中的差分晶體振蕩應(yīng)用與匹配方案

    同步模塊等。 2. 高校/科研機構(gòu)智能計算中心 應(yīng)用背景: 服務(wù)于AI訓(xùn)練、大數(shù)據(jù)建模與圖像處理的科研計算平臺,要求高速網(wǎng)絡(luò)與大容量數(shù)據(jù)同步
    發(fā)表于 07-01 16:33

    I/O密集型任務(wù)開發(fā)指導(dǎo)

    使用異步并發(fā)可以解決單次I/O任務(wù)阻塞的問題,但是如果遇到I/O密集型任務(wù),同樣會阻塞線程中其它任務(wù)的執(zhí)行,這時需要使用多線程并發(fā)能力來進行解決。 I/O密集型任務(wù)的性能重點通常不在于CPU的處理
    發(fā)表于 06-19 07:19

    小型數(shù)據(jù)中心晶振選型關(guān)鍵參數(shù)全解

    小型數(shù)據(jù)中心的定義與應(yīng)用 小型數(shù)據(jù)中心通常是中小型企業(yè)、邊緣計算、物聯(lián)網(wǎng)(IoT)設(shè)備及其他特定業(yè)務(wù)需求提供
    發(fā)表于 06-11 13:37

    愛普生SG2520HHN晶振數(shù)據(jù)中心服務(wù)器的理想解決方案

    在當(dāng)今數(shù)字化時代,數(shù)據(jù)中心作為海量數(shù)據(jù)存儲、處理與傳輸?shù)暮诵臉屑~,服務(wù)器的高效穩(wěn)定運行至關(guān)重要。服務(wù)器作為
    的頭像 發(fā)表于 04-29 17:32 ?370次閱讀
    愛普生SG2520HHN晶振<b class='flag-5'>數(shù)據(jù)中心服務(wù)器</b>的理想解決方案

    適用于數(shù)據(jù)中心和AI時代的800G網(wǎng)絡(luò)

    數(shù)據(jù)中心依賴數(shù)千甚至上萬個GPU集群進行高性能計算,對帶寬、延遲和數(shù)據(jù)交換效率提出極高要求。 AI云:以生成式AI核心的云平臺,
    發(fā)表于 03-25 17:35

    優(yōu)化800G數(shù)據(jù)中心:高速線纜、有源光纜和光纖跳線解決方案

    廣泛應(yīng)用于網(wǎng)卡、交換機、服務(wù)器、超級計算機、云計算數(shù)據(jù)中心的短距離互連。 800G高速線纜 隨著大規(guī)模和超大規(guī)模數(shù)據(jù)中心的興起,
    發(fā)表于 03-24 14:20

    英特爾至強6:如何煉就數(shù)據(jù)中心“全能選手”

    計算密集型工作負載而設(shè)計,新發(fā)布的至強6700P和至強6500P不僅在AI推理、單核性能等關(guān)鍵領(lǐng)域展現(xiàn)出家族“優(yōu)等生”風(fēng)范,還面向多路服務(wù)器應(yīng)用場景,提供了高度靈活的適配方案。 ? 作
    的頭像 發(fā)表于 03-13 14:57 ?466次閱讀
    英特爾至強6:如何煉就<b class='flag-5'>數(shù)據(jù)中心</b>“全能<b class='flag-5'>型</b>選手”

    數(shù)據(jù)中心發(fā)展與改造

    存在的問題 1.?電費成本高企,占比超40% 數(shù)據(jù)中心電力成本占運營總成本的40%-60%,部分AI算力密集型場景甚至高達70%。以年耗電2000萬度的中型數(shù)據(jù)中心例,按平均電價0.
    的頭像 發(fā)表于 02-28 16:50 ?600次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>發(fā)展與改造

    服務(wù)器數(shù)據(jù)中心與云計算中的重要性

    在當(dāng)今數(shù)據(jù)驅(qū)動的世界中,對高質(zhì)量、可靠且高效的計算服務(wù)的需求從未如此強烈。數(shù)據(jù)中心和云計算環(huán)境必須通過部署應(yīng)用優(yōu)化
    的頭像 發(fā)表于 02-07 09:06 ?755次閱讀
    <b class='flag-5'>服務(wù)器</b>在<b class='flag-5'>數(shù)據(jù)中心</b>與云<b class='flag-5'>計算</b>中的重要性

    計算數(shù)據(jù)中心的關(guān)系

    設(shè)備,以及冗余的數(shù)據(jù)通信連接、環(huán)境控制設(shè)備、監(jiān)控設(shè)備和各種安全裝置。數(shù)據(jù)中心是全球協(xié)作的特定設(shè)備網(wǎng)絡(luò),基于互聯(lián)網(wǎng)的相關(guān)服務(wù)增加、使用和交付模式,通常涉及通過互聯(lián)網(wǎng)來提供動態(tài)易擴展且經(jīng)常
    的頭像 發(fā)表于 10-24 16:15 ?2047次閱讀

    簡述數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)的演變

    隨著全球?qū)θ斯ぶ悄埽ˋI)的需求不斷增長,數(shù)據(jù)中心作為AI計算的重要基礎(chǔ)設(shè)施,網(wǎng)絡(luò)架構(gòu)與連接技術(shù)的發(fā)展變得尤為關(guān)鍵。
    的頭像 發(fā)表于 10-22 16:23 ?1274次閱讀