chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新型數(shù)據(jù)中心液冷系統(tǒng)的實(shí)驗(yàn)研究

jf_86259660 ? 來(lái)源:jf_86259660 ? 作者:jf_86259660 ? 2023-05-04 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來(lái)源|Case Studies in Thermal Engineering

原文 |https://doi.org/10.1016/j.csite.2023.102925

01背景介紹

大型數(shù)據(jù)中心和其他大型計(jì)算基礎(chǔ)設(shè)施由數(shù)千個(gè)機(jī)架組成,支持?jǐn)?shù)萬(wàn)臺(tái)服務(wù)器和其他電子設(shè)備。這些電子設(shè)備消耗大量的電力,產(chǎn)生大量的熱量。2019年,數(shù)據(jù)中心消耗了約3%的全球電力。由于對(duì)數(shù)據(jù)中心的需求巨大,預(yù)計(jì)這一數(shù)字將以每年12%的速度增長(zhǎng)。

在一個(gè)典型的直流系統(tǒng)中,冷卻系統(tǒng)占總能量的40%。產(chǎn)生的熱量可能會(huì)導(dǎo)致服務(wù)器過(guò)熱,威脅到服務(wù)器的安全運(yùn)行,如果不及時(shí)有效地散熱,可能會(huì)導(dǎo)致服務(wù)器故障。此外,CPU的溫度對(duì)功率有直接的影響。因此,適宜的CPU溫度可以提供顯著的節(jié)能效果。

風(fēng)冷是最常用的冷卻系統(tǒng)。風(fēng)冷需要使用強(qiáng)大的風(fēng)扇,并在電子設(shè)備之間提供空間,以放置笨重的散熱器,并允許足夠的氣流。用于計(jì)算的電子設(shè)備不僅性能越來(lái)越好,還具有更大的功率,即最大理論負(fù)載下的功耗。因此,迫切需要改進(jìn)目前的冷卻解決方案。

02成果掠影

poYBAGRTJZiAIs-dAAJwx5g5ceA197.png

近年來(lái),液冷作為傳統(tǒng)風(fēng)機(jī)強(qiáng)制風(fēng)冷的補(bǔ)充或替代方法被引入電子設(shè)備機(jī)架。液冷直流系統(tǒng)最近成為重要的和流行的散熱設(shè)備,并且液冷系統(tǒng)具有更好的傳輸特性,具有更優(yōu)異的經(jīng)濟(jì)性。近期,

法國(guó)的Mohamad Hnayno教授,Ali Chehade教授和Chadi Maalouf教授介紹了在OVHcloud實(shí)驗(yàn)室

開(kāi)發(fā)的一種新的單相浸入/液冷技術(shù)的實(shí)驗(yàn)研究,將直接到芯片的水冷系統(tǒng)與被動(dòng)的單浸入冷卻技術(shù)相結(jié)合。實(shí)驗(yàn)裝置測(cè)試了三種介質(zhì)流體(S5X, SmartCoolant和ThermaSafe R)的影響,水回路配置的影響,以及服務(wù)器的功率/配置。結(jié)果表明,該系統(tǒng)冷卻需求取決于流體的粘度。當(dāng)黏度從4.6 mPa s增加到9.8 mPa s時(shí),冷卻性能下降了約6%。此外,所有的IT服務(wù)器配置都在不同的進(jìn)水溫度和流速下進(jìn)行了驗(yàn)證。在一個(gè)600千瓦的數(shù)據(jù)中心(DC)比較了本文的技術(shù)和OVHcloud之前使用的液冷系統(tǒng)的能源性能。與液冷系統(tǒng)相比,所提出的技術(shù)減少了至少20.7%的直流電力消耗。最后,在服務(wù)器層面對(duì)空氣和液冷系統(tǒng)的冷卻性能和所提出的解決方案進(jìn)行了計(jì)算比較。使用該解決方案時(shí),與風(fēng)冷系統(tǒng)相比節(jié)能至少20%,與液冷系統(tǒng)相比節(jié)能至少7%。

研究成果以“Experimental investigation of a data-centre cooling system using a new single-phase immersion/liquid technique”為題發(fā)表于《Case Studies in Thermal Engineering》。

03圖文導(dǎo)讀

poYBAGRTJZyAc1koAAGywLyFGJQ833.png

圖1.IC系統(tǒng)示意圖。

pYYBAGRTJaCAObkuAAVVeRuA-E8142.png

圖2.單相浸沒(méi)/液冷技術(shù)架構(gòu)。

poYBAGRTJaWAcyRTAAaNU4FNE9A681.png

圖3.(a) IC IT機(jī)架(48臺(tái)服務(wù)器),(b) 600kw IC集裝箱。

pYYBAGRTJamAYo9cAAUh6rCG25E969.png

圖4.(a) IC實(shí)驗(yàn)室實(shí)驗(yàn)裝置方案,(b) IC實(shí)驗(yàn)裝置照片。

pYYBAGRTJa2AaxaEAAGg-ckZSUU838.png

圖5.在使用S5 X、SmartCoolant和ThermaSafe R流體時(shí),(a) IC流體溫度和(b) IT 溫度在不同tc和流速下的變化。

表1.比較在OVHcloud實(shí)驗(yàn)DC中使用的風(fēng)冷、液冷和浸泡/液冷服務(wù)器(服務(wù)器#4)。

poYBAGRTJbSAEqvrAAEYKjy7Pi4273.png

表2.AMD Socket SP3處理器的尺寸和導(dǎo)熱系數(shù)。

pYYBAGRTJbiARK91AAEPYEJ9Fic841.png

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    10093

    瀏覽量

    90895
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    16

    文章

    5519

    瀏覽量

    74656
  • 液冷
    +關(guān)注

    關(guān)注

    5

    文章

    146

    瀏覽量

    5682
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    電壓放大器在芯片散熱驅(qū)動(dòng)液冷系統(tǒng)實(shí)驗(yàn)中的應(yīng)用

    實(shí)驗(yàn)名稱:面向電子芯片散熱的壓電驅(qū)動(dòng)液冷系統(tǒng)集成實(shí)驗(yàn)研究 研究方向:針對(duì)高集成度電子芯片的散熱需
    的頭像 發(fā)表于 11-28 15:31 ?176次閱讀
    電壓放大器在芯片散熱驅(qū)動(dòng)<b class='flag-5'>液冷</b><b class='flag-5'>系統(tǒng)</b><b class='flag-5'>實(shí)驗(yàn)</b>中的應(yīng)用

    曙光數(shù)創(chuàng)液冷方案助力數(shù)據(jù)中心綠色發(fā)展

    近期,“東數(shù)西算”工程綠色化實(shí)踐廣受關(guān)注。央視報(bào)道指出數(shù)據(jù)中心兩大突破:是綠電使用占比顯著提升,二是引入浸沒(méi)式液冷系統(tǒng)后節(jié)能超30%。國(guó)家數(shù)據(jù)
    的頭像 發(fā)表于 09-24 09:36 ?492次閱讀

    數(shù)據(jù)中心液冷服務(wù)器該配什么樣的 UPS 不間斷電源?

    在當(dāng)今數(shù)字化飛速發(fā)展的時(shí)代,數(shù)據(jù)中心就像是整個(gè)數(shù)字世界的心臟,承載著海量的數(shù)據(jù)存儲(chǔ)與處理任務(wù)。而液冷服務(wù)器作為數(shù)據(jù)中心的核心設(shè)備之,因其高
    的頭像 發(fā)表于 08-21 11:01 ?646次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b><b class='flag-5'>液冷</b>服務(wù)器該配什么樣的 UPS 不間斷電源?

    聚焦液冷痛點(diǎn):英特爾UQD互換性認(rèn)證助力數(shù)據(jù)中心高效發(fā)展

    認(rèn)證的技術(shù)創(chuàng)新之道,及其對(duì)降低數(shù)據(jù)中心運(yùn)維復(fù)雜度、提升系統(tǒng)可靠性、助力液冷產(chǎn)業(yè)規(guī)?;闹匾浴?英特爾數(shù)據(jù)中心與人工智能集團(tuán)副總裁兼中國(guó)區(qū)總經(jīng)理陳葆立表示:“作為AI模型運(yùn)行和硬件部署
    的頭像 發(fā)表于 08-20 15:25 ?874次閱讀

    曙光數(shù)創(chuàng)亮相2025亞洲數(shù)據(jù)中心峰會(huì)暨展覽會(huì)

    、新代極智(冷板式)液冷數(shù)據(jù)中心整體解決方案以及相變間接液冷數(shù)據(jù)中心整體解決方案,現(xiàn)場(chǎng)引發(fā)廣泛關(guān)注,成為展會(huì)焦點(diǎn)之
    的頭像 發(fā)表于 07-22 09:51 ?668次閱讀

    易飛揚(yáng)浸沒(méi)液冷延長(zhǎng)器與硅光液冷光模塊主題研究 ——液冷光互連技術(shù)的數(shù)據(jù)中心革命

    1.02-1.05,適用于超高密度算力集群。 ? 冷板式液冷:適用于部分液冷改造場(chǎng)景,但散熱效率低于浸沒(méi)式。 ? 硅光技術(shù)+液冷:硅光子(SiPh)可降低光模塊功耗,結(jié)合液冷可進(jìn)
    的頭像 發(fā)表于 07-20 12:19 ?602次閱讀
    易飛揚(yáng)浸沒(méi)<b class='flag-5'>液冷</b>延長(zhǎng)器與硅光<b class='flag-5'>液冷</b>光模塊主題<b class='flag-5'>研究</b>  ——<b class='flag-5'>液冷</b>光互連技術(shù)的<b class='flag-5'>數(shù)據(jù)中心</b>革命

    曙光數(shù)創(chuàng)推出液冷數(shù)據(jù)中心全生命周期定制新服務(wù)

    在AI 算力爆發(fā)式增長(zhǎng)的當(dāng)下,液冷技術(shù)已成為數(shù)據(jù)中心突破散熱瓶頸、支撐高密度算力的必選項(xiàng)。但液冷服務(wù)落地面臨著多重挑戰(zhàn):服務(wù)器選型難匹配、設(shè)計(jì)院經(jīng)驗(yàn)與液冷需求脫節(jié)、
    的頭像 發(fā)表于 06-13 14:45 ?1107次閱讀

    海瑞思科技助力數(shù)據(jù)中心液冷分水器泄漏檢測(cè)

    隨著數(shù)據(jù)中心算力密度激增,液冷技術(shù)正加速普及進(jìn)程。作為液冷系統(tǒng)的"循環(huán)心臟",分水器通過(guò)流道網(wǎng)路將冷卻介質(zhì)輸送至每個(gè)計(jì)算單元。然而,其核心的焊接方管與多接口結(jié)構(gòu)在制造過(guò)程中,易誘發(fā)細(xì)微
    的頭像 發(fā)表于 05-21 09:28 ?737次閱讀

    英特爾引領(lǐng)液冷革新,與殼牌共筑數(shù)據(jù)中心高效冷卻新范式

    打造業(yè)界領(lǐng)先的浸沒(méi)式液冷解決方案,為數(shù)據(jù)中心用戶在AI時(shí)代構(gòu)建可持續(xù)、高效液冷的發(fā)展路徑。 在AI和計(jì)算能力飛速發(fā)展的當(dāng)下,數(shù)據(jù)中心對(duì)強(qiáng)大基礎(chǔ)設(shè)施的需求持續(xù)增長(zhǎng),隨之而來(lái)的散熱問(wèn)題也愈
    的頭像 發(fā)表于 05-16 10:14 ?457次閱讀

    RAKsmart液冷技術(shù)如何實(shí)現(xiàn)PUE&lt;1.2的綠色數(shù)據(jù)中心

    傳統(tǒng)數(shù)據(jù)中心因依賴風(fēng)冷技術(shù),能源使用效率(PUE)普遍在1.5以上,導(dǎo)致大量電力被用于散熱而非計(jì)算本身。面對(duì)“雙碳”目標(biāo)與可持續(xù)發(fā)展的緊迫需求,RAKsmart憑借其創(chuàng)新的液冷技術(shù),成功將數(shù)據(jù)中心的PUE降至1.2以下,為行業(yè)樹(shù)
    的頭像 發(fā)表于 05-15 09:58 ?624次閱讀

    流量與壓力傳感:數(shù)據(jù)中心液冷的″智慧之眼″

    在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)中心作為數(shù)字世界的“心臟”,承擔(dān)著海量數(shù)據(jù)的存儲(chǔ)、處理與傳輸重任。隨著服務(wù)器性能的不斷提升,其產(chǎn)生的熱量也呈指數(shù)級(jí)增長(zhǎng),高效可靠的冷卻系統(tǒng)成為保障數(shù)據(jù)中心
    的頭像 發(fā)表于 05-14 11:26 ?741次閱讀
    流量與壓力傳感:<b class='flag-5'>數(shù)據(jù)中心</b><b class='flag-5'>液冷</b>的″智慧之眼″

    數(shù)據(jù)中心液冷技術(shù)和風(fēng)冷技術(shù)的比較

    (Power Usage Effectiveness,電源利用效率)<1.2,而傳統(tǒng)的風(fēng)冷制冷方式已經(jīng)無(wú)法滿足數(shù)據(jù)中心的散熱需求,更加高效的液冷方案應(yīng)運(yùn)而生。特別在人工智能領(lǐng)域,隨著智算需求的爆發(fā),液冷方案已經(jīng)成為
    的頭像 發(fā)表于 05-09 09:41 ?2794次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b><b class='flag-5'>液冷</b>技術(shù)和風(fēng)冷技術(shù)的比較

    寧暢亮相2025中國(guó)數(shù)據(jù)中心液冷技術(shù)大會(huì)

    日前,2025中國(guó)數(shù)據(jù)中心液冷技術(shù)大會(huì)在杭州落下帷幕,國(guó)內(nèi)主流數(shù)據(jù)中心液冷技術(shù)企業(yè)齊聚堂,共同探討“
    的頭像 發(fā)表于 04-16 09:12 ?1152次閱讀

    優(yōu)化800G數(shù)據(jù)中心:高速線纜、有源光纜和光纖跳線解決方案

    一種經(jīng)濟(jì)高效的方式,實(shí)現(xiàn)更大的帶寬傳輸。 800G有源光纜 800G有源光纜通過(guò)增加帶寬、降低延遲并減少功耗來(lái)優(yōu)化性能,非常適合去中心數(shù)據(jù)中心和云環(huán)境。此外,VCSEL與PAM4 DSP技術(shù)
    發(fā)表于 03-24 14:20

    施耐德電氣即將亮相2025中國(guó)數(shù)據(jù)中心液冷技術(shù)大會(huì)

    以“液冷深融合”為主題,由CDCC與益企研究院共同主辦的第三屆中國(guó)數(shù)據(jù)中心液冷技術(shù)大會(huì)即將召開(kāi)。會(huì)上將匯集多方數(shù)據(jù)中心行業(yè)的資深專家、
    的頭像 發(fā)表于 03-21 16:47 ?2218次閱讀