chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ES 集群架構(gòu)演進(jìn)之路

jf_ro2CN3Fa ? 來源:芋道源碼 ? 作者:芋道源碼 ? 2022-11-05 10:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ES 集群架構(gòu)演進(jìn)之路

1、初始階段

2、集群隔離階段

3、節(jié)點(diǎn)副本調(diào)優(yōu)階段

4、主從集群調(diào)整階段

5、現(xiàn)今:實(shí)時互備雙集群階段

ES 訂單數(shù)據(jù)的同步方案

遇到的一些坑

1、實(shí)時性要求高的查詢走DB

2、避免深分頁查詢

3、FieldData與Doc Values

總結(jié)

京東到家訂單中心系統(tǒng)業(yè)務(wù)中,無論是外部商家的訂單生產(chǎn),或是內(nèi)部上下游系統(tǒng)的依賴,訂單查詢的調(diào)用量都非常大,造成了訂單數(shù)據(jù)讀多寫少的情況。

我們把訂單數(shù)據(jù)存儲在MySQL中,但顯然只通過DB來支撐大量的查詢是不可取的。同時對于一些復(fù)雜的查詢,MySQL支持得不夠友好,所以訂單中心系統(tǒng)使用了Elasticsearch來承載訂單查詢的主要壓力。

f7958d0c-5cb0-11ed-a3b6-dac502259ad0.jpg

Elasticsearch作為一款功能強(qiáng)大的分布式搜索引擎,支持近實(shí)時的存儲、搜索數(shù)據(jù),在京東到家訂單系統(tǒng)中發(fā)揮著巨大作用,目前訂單中心ES集群存儲數(shù)據(jù)量達(dá)到10億個文檔,日均查詢量達(dá)到5億。

隨著京東到家近幾年業(yè)務(wù)的快速發(fā)展,訂單中心ES架設(shè)方案也不斷演進(jìn),發(fā)展至今ES集群架設(shè)是一套實(shí)時互備方案,很好地保障了ES集群讀寫的穩(wěn)定性,下面就給大家介紹一下這個歷程以及過程中遇到的一些坑。

ES 集群架構(gòu)演進(jìn)之路

1、初始階段

訂單中心ES初始階段如一張白紙,架設(shè)方案基本沒有,很多配置都是保持集群默認(rèn)配置。整個集群部署在集團(tuán)的彈性云上,ES集群的節(jié)點(diǎn)以及機(jī)器部署都比較混亂。同時按照集群維度來看,一個ES集群會有單點(diǎn)問題,顯然對于訂單中心業(yè)務(wù)來說也是不被允許的。

2、集群隔離階段

和很多業(yè)務(wù)一樣,ES集群采用的混布的方式。但由于訂單中心ES存儲的是線上訂單數(shù)據(jù),偶爾會發(fā)生混布集群搶占系統(tǒng)大量資源,導(dǎo)致整個訂單中心ES服務(wù)異常。

顯然任何影響到訂單查詢穩(wěn)定性的情況都是無法容忍的,所以針對于這個情況,先是對訂單中心ES所在的彈性云,遷出那些系統(tǒng)資源搶占很高的集群節(jié)點(diǎn),ES集群狀況稍有好轉(zhuǎn)。但隨著集群數(shù)據(jù)不斷增加,彈性云配置已經(jīng)不太能滿足ES集群,且為了完全的物理隔離,最終干脆將訂單中心ES集群部署到高配置的物理機(jī)上,ES集群性能又得到提升。

3、節(jié)點(diǎn)副本調(diào)優(yōu)階段

ES的性能跟硬件資源有很大關(guān)系,當(dāng)ES集群單獨(dú)部署到物理機(jī)器上時,集群內(nèi)部的節(jié)點(diǎn)并不是獨(dú)占整臺物理機(jī)資源,在集群運(yùn)行的時候同一物理機(jī)上的節(jié)點(diǎn)仍會出現(xiàn)資源搶占的問題。所以在這種情況下,為了讓ES單個節(jié)點(diǎn)能夠使用最大程度的機(jī)器資源,采用每個ES節(jié)點(diǎn)部署在單獨(dú)一臺物理機(jī)上方式。

但緊接著,問題又來了,如果單個節(jié)點(diǎn)出現(xiàn)瓶頸了呢?我們應(yīng)該怎么再優(yōu)化呢?

ES查詢的原理,當(dāng)請求打到某號分片的時候,如果沒有指定分片類型(Preference參數(shù))查詢,請求會負(fù)載到對應(yīng)分片號的各個節(jié)點(diǎn)上。而集群默認(rèn)副本配置是一主一副,針對此情況,我們想到了擴(kuò)容副本的方式,由默認(rèn)的一主一副變?yōu)橐恢鞫?,同時增加相應(yīng)物理機(jī)。

f7aea2c4-5cb0-11ed-a3b6-dac502259ad0.jpg

訂單中心ES集群架設(shè)示意圖

如圖,整個架設(shè)方式通過VIP來負(fù)載均衡外部請求:

整個集群有一套主分片,二套副分片(一主二副),從網(wǎng)關(guān)節(jié)點(diǎn)轉(zhuǎn)發(fā)過來的請求,會在打到數(shù)據(jù)節(jié)點(diǎn)之前通過輪詢的方式進(jìn)行均衡。集群增加一套副本并擴(kuò)容機(jī)器的方式,增加了集群吞吐量,從而提升了整個集群查詢性能。

下圖為訂單中心ES集群各階段性能示意圖,直觀地展示了各階段優(yōu)化后ES集群性能的顯著提升:

f7c3ded2-5cb0-11ed-a3b6-dac502259ad0.jpg

當(dāng)然分片數(shù)量和分片副本數(shù)量并不是越多越好,在此階段,我們對選擇適當(dāng)?shù)姆制瑪?shù)量做了進(jìn)一步探索。分片數(shù)可以理解為MySQL中的分庫分表,而當(dāng)前訂單中心ES查詢主要分為兩類:單ID查詢以及分頁查詢。

分片數(shù)越大,集群橫向擴(kuò)容規(guī)模也更大,根據(jù)分片路由的單ID查詢吞吐量也能大大提升,但聚合的分頁查詢性能則將降低;分片數(shù)越小,集群橫向擴(kuò)容規(guī)模也更小,單ID的查詢性能也會下降,但分頁查詢的性能將會提升。

所以如何均衡分片數(shù)量和現(xiàn)有查詢業(yè)務(wù),我們做了很多次調(diào)整壓測,最終選擇了集群性能較好的分片數(shù)。

4、主從集群調(diào)整階段

到此,訂單中心的ES集群已經(jīng)初具規(guī)模,但由于訂單中心業(yè)務(wù)時效性要求高,對ES查詢穩(wěn)定性要求也高,如果集群中有節(jié)點(diǎn)發(fā)生異常,查詢服務(wù)會受到影響,從而影響到整個訂單生產(chǎn)流程。很明顯這種異常情況是致命的,所以為了應(yīng)對這種情況,我們初步設(shè)想是增加一個備用集群,當(dāng)主集群發(fā)生異常時,可以實(shí)時的將查詢流量降級到備用集群。

那備用集群應(yīng)該怎么來搭?主備之間數(shù)據(jù)如何同步?備用集群應(yīng)該存儲什么樣的數(shù)據(jù)?

考慮到ES集群暫時沒有很好的主備方案,同時為了更好地控制ES數(shù)據(jù)寫入,我們采用業(yè)務(wù)雙寫的方式來搭設(shè)主備集群。每次業(yè)務(wù)操作需要寫入ES數(shù)據(jù)時,同步寫入主集群數(shù)據(jù),然后異步寫入備集群數(shù)據(jù)。同時由于大部分ES查詢的流量都來源于近幾天的訂單,且訂單中心數(shù)據(jù)庫數(shù)據(jù)已有一套歸檔機(jī)制,將指定天數(shù)之前已經(jīng)關(guān)閉的訂單轉(zhuǎn)移到歷史訂單庫。

所以歸檔機(jī)制中增加刪除備集群文檔的邏輯,讓新搭建的備集群存儲的訂單數(shù)據(jù)與訂單中心線上數(shù)據(jù)庫中的數(shù)據(jù)量保持一致。同時使用ZK在查詢服務(wù)中做了流量控制開關(guān),保證查詢流量能夠?qū)崟r降級到備集群。在此,訂單中心主從集群完成,ES查詢服務(wù)穩(wěn)定性大大提升。

f7e44fa0-5cb0-11ed-a3b6-dac502259ad0.jpg

5、現(xiàn)今:實(shí)時互備雙集群階段

期間由于主集群ES版本是較低的1.7,而現(xiàn)今ES穩(wěn)定版本都已經(jīng)迭代到6.x,新版本的ES不僅性能方面優(yōu)化很大,更提供了一些新的好用的功能,所以我們對主集群進(jìn)行了一次版本升級,直接從原來的1.7升級到6.x版本。

集群升級的過程繁瑣而漫長,不但需要保證線上業(yè)務(wù)無任何影響,平滑無感知升級,同時由于ES集群暫不支持從1.7到6.x跨越多個版本的數(shù)據(jù)遷移,所以需要通過重建索引的方式來升級主集群,具體升級過程就不在此贅述了。

主集群升級的時候必不可免地會發(fā)生不可用的情況,但對于訂單中心ES查詢服務(wù),這種情況是不允許的。所以在升級的階段中,備集群暫時頂上充當(dāng)主集群,來支撐所有的線上ES查詢,保證升級過程不影響正常線上服務(wù)。同時針對于線上業(yè)務(wù),我們對兩個集群做了重新的規(guī)劃定義,承擔(dān)的線上查詢流量也做了重新的劃分。

備集群存儲的是線上近幾天的熱點(diǎn)數(shù)據(jù),數(shù)據(jù)規(guī)模遠(yuǎn)小于主集群,大約是主集群文檔數(shù)的十分之一。集群數(shù)據(jù)量小,在相同的集群部署規(guī)模下,備集群的性能要優(yōu)于主集群。

然而在線上真實(shí)場景中,線上大部分查詢流量也來源于熱點(diǎn)數(shù)據(jù),所以用備集群來承載這些熱點(diǎn)數(shù)據(jù)的查詢,而備集群也慢慢演變成一個熱數(shù)據(jù)集群。之前的主集群存儲的是全量數(shù)據(jù),用該集群來支撐剩余較小部分的查詢流量,這部分查詢主要是需要搜索全量訂單的特殊場景查詢以及訂單中心系統(tǒng)內(nèi)部查詢等,而主集群也慢慢演變成一個冷數(shù)據(jù)集群。

同時備集群增加一鍵降級到主集群的功能,兩個集群地位同等重要,但都可以各自降級到另一個集群。雙寫策略也優(yōu)化為:假設(shè)有AB集群,正常同步方式寫主(A集群)異步方式寫備(B集群)。A集群發(fā)生異常時,同步寫B(tài)集群(主),異步寫A集群(備)。

f806dc1e-5cb0-11ed-a3b6-dac502259ad0.jpg

基于 Spring Boot + MyBatis Plus + Vue & Element 實(shí)現(xiàn)的后臺管理系統(tǒng) + 用戶小程序,支持 RBAC 動態(tài)權(quán)限、多租戶、數(shù)據(jù)權(quán)限、工作流、三方登錄、支付、短信、商城等功能

項(xiàng)目地址:https://gitee.com/zhijiantianya/ruoyi-vue-pro

視頻教程:https://doc.iocoder.cn/video/

ES 訂單數(shù)據(jù)的同步方案

MySQL數(shù)據(jù)同步到ES中,大致總結(jié)可以分為兩種方案:

方案1:監(jiān)聽MySQL的Binlog,分析Binlog將數(shù)據(jù)同步到ES集群中。

方案2:直接通過ES API將數(shù)據(jù)寫入到ES集群中。

考慮到訂單系統(tǒng)ES服務(wù)的業(yè)務(wù)特殊性,對于訂單數(shù)據(jù)的實(shí)時性較高,顯然監(jiān)聽Binlog的方式相當(dāng)于異步同步,有可能會產(chǎn)生較大的延時性。且方案1實(shí)質(zhì)上跟方案2類似,但又引入了新的系統(tǒng),維護(hù)成本也增高。所以訂單中心ES采用了直接通過ES API寫入訂單數(shù)據(jù)的方式,該方式簡潔靈活,能夠很好的滿足訂單中心數(shù)據(jù)同步到ES的需求。

由于ES訂單數(shù)據(jù)的同步采用的是在業(yè)務(wù)中寫入的方式,當(dāng)新建或更新文檔發(fā)生異常時,如果重試勢必會影響業(yè)務(wù)正常操作的響應(yīng)時間。

所以每次業(yè)務(wù)操作只更新一次ES,如果發(fā)生錯誤或者異常,在數(shù)據(jù)庫中插入一條補(bǔ)救任務(wù),有Worker任務(wù)會實(shí)時地掃這些數(shù)據(jù),以數(shù)據(jù)庫訂單數(shù)據(jù)為基準(zhǔn)來再次更新ES數(shù)據(jù)。通過此種補(bǔ)償機(jī)制,來保證ES數(shù)據(jù)與數(shù)據(jù)庫訂單數(shù)據(jù)的最終一致性。

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 實(shí)現(xiàn)的后臺管理系統(tǒng) + 用戶小程序,支持 RBAC 動態(tài)權(quán)限、多租戶、數(shù)據(jù)權(quán)限、工作流、三方登錄、支付、短信、商城等功能

項(xiàng)目地址:https://gitee.com/zhijiantianya/yudao-cloud

視頻教程:https://doc.iocoder.cn/video/

遇到的一些坑

1、實(shí)時性要求高的查詢走DB

對于ES寫入機(jī)制的有了解的同學(xué)可能會知道,新增的文檔會被收集到Indexing Buffer,然后寫入到文件系統(tǒng)緩存中,到了文件系統(tǒng)緩存中就可以像其他的文件一樣被索引到。

然而默認(rèn)情況文檔從Indexing Buffer到文件系統(tǒng)緩存(即Refresh操作)是每秒分片自動刷新,所以這就是我們說ES是近實(shí)時搜索而非實(shí)時的原因:文檔的變化并不是立即對搜索可見,但會在一秒之內(nèi)變?yōu)榭梢姟?/p>

當(dāng)前訂單系統(tǒng)ES采用的是默認(rèn)Refresh配置,故對于那些訂單數(shù)據(jù)實(shí)時性比較高的業(yè)務(wù),直接走數(shù)據(jù)庫查詢,保證數(shù)據(jù)的準(zhǔn)確性。

f82b675a-5cb0-11ed-a3b6-dac502259ad0.jpg

2、避免深分頁查詢

ES集群的分頁查詢支持from和size參數(shù),查詢的時候,每個分片必須構(gòu)造一個長度為from+size的優(yōu)先隊(duì)列,然后回傳到網(wǎng)關(guān)節(jié)點(diǎn),網(wǎng)關(guān)節(jié)點(diǎn)再對這些優(yōu)先隊(duì)列進(jìn)行排序找到正確的size個文檔。

假設(shè)在一個有6個主分片的索引中,from為10000,size為10,每個分片必須產(chǎn)生10010個結(jié)果,在網(wǎng)關(guān)節(jié)點(diǎn)中匯聚合并60060個結(jié)果,最終找到符合要求的10個文檔。

由此可見,當(dāng)from足夠大的時候,就算不發(fā)生OOM,也會影響到CPU和帶寬等,從而影響到整個集群的性能。所以應(yīng)該避免深分頁查詢,盡量不去使用。

3、FieldData與Doc Values

FieldData

線上查詢出現(xiàn)偶爾超時的情況,通過調(diào)試查詢語句,定位到是跟排序有關(guān)系。排序在es1.x版本使用的是FieldData結(jié)構(gòu),F(xiàn)ieldData占用的是JVM Heap內(nèi)存,JVM內(nèi)存是有限,對于FieldData Cache會設(shè)定一個閾值。

如果空間不足時,使用最久未使用(LRU)算法移除FieldData,同時加載新的FieldData Cache,加載的過程需要消耗系統(tǒng)資源,且耗時很大。所以導(dǎo)致這個查詢的響應(yīng)時間暴漲,甚至影響整個集群的性能。針對這種問題,解決方式是采用Doc Values。

Doc Values

Doc Values是一種列式的數(shù)據(jù)存儲結(jié)構(gòu),跟FieldData很類似,但其存儲位置是在Lucene文件中,即不會占用JVM Heap。隨著ES版本的迭代,Doc Values比FieldData更加穩(wěn)定,Doc Values在2.x起為默認(rèn)設(shè)置。

總結(jié)

架構(gòu)的快速迭代源于業(yè)務(wù)的快速發(fā)展,正是由于近幾年到家業(yè)務(wù)的高速發(fā)展,訂單中心的架構(gòu)也不斷優(yōu)化升級。而架構(gòu)方案沒有最好的,只有最合適的,相信再過幾年,訂單中心的架構(gòu)又將是另一個面貌,但吞吐量更大,性能更好,穩(wěn)定性更強(qiáng),將是訂單中心系統(tǒng)永遠(yuǎn)的追求。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ES
    ES
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    20163
  • 硬件
    +關(guān)注

    關(guān)注

    11

    文章

    3483

    瀏覽量

    67486
  • 數(shù)據(jù)存儲
    +關(guān)注

    關(guān)注

    5

    文章

    998

    瀏覽量

    51735

原文標(biāo)題:MySQL用得好好的,為啥非要轉(zhuǎn)ES?

文章出處:【微信號:芋道源碼,微信公眾號:芋道源碼】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    京東廣告投放平臺整潔架構(gòu)演進(jìn)之路

    設(shè)計(jì)思想到落地框架都進(jìn)行了徹底的革新,涉及內(nèi)容比較多,因此我們希望通過一系列文章循序漸進(jìn)地闡述本次架構(gòu)升級的始末。新架構(gòu)并不是一日而成的,而是經(jīng)過了多次架構(gòu)升級的演進(jìn),因此我們將本文作
    的頭像 發(fā)表于 09-18 10:26 ?1224次閱讀
    京東廣告投放平臺整潔<b class='flag-5'>架構(gòu)</b><b class='flag-5'>演進(jìn)</b><b class='flag-5'>之路</b>

    2017雙11技術(shù)揭秘—阿里巴巴數(shù)據(jù)庫技術(shù)架構(gòu)演進(jìn)

    第三代大規(guī)模分庫分表 向 第四代X-DB分布式數(shù)據(jù)庫系統(tǒng) 演進(jìn)的目標(biāo)。X-DB分布式數(shù)據(jù)庫的落地已經(jīng)在2017年雙11大促中獲得了可行性驗(yàn)證,同時底層開始引入存儲計(jì)算分離架構(gòu)。分布式在系統(tǒng)穩(wěn)定性、容災(zāi)能力
    發(fā)表于 01-02 16:31

    kafka架構(gòu)集群搭建

    kafka入門+集群搭建
    發(fā)表于 04-29 17:06

    ES集群的安裝步驟

    ES集群安裝填坑記
    發(fā)表于 05-08 17:09

    java的IO演進(jìn)之路概述

    第一章 java的IO演進(jìn)之路
    發(fā)表于 07-24 16:53

    軟件定義的分組傳送網(wǎng)架構(gòu)及技術(shù)演進(jìn),不看肯定后悔

    軟件定義的分組傳送網(wǎng)架構(gòu)及技術(shù)演進(jìn),不看肯定后悔
    發(fā)表于 05-21 06:59

    copy模式的DRDS集群

    服務(wù)安全最重要的是數(shù)據(jù)安全,大多數(shù)災(zāi)備都是保證服務(wù)高可用和數(shù)據(jù)安全性。服務(wù)不斷電方案:異地多活災(zāi)備UPS不斷電異地多活災(zāi)備阿里云數(shù)據(jù)庫異地多活解決方案使用以下阿里云核心產(chǎn)品,按照架構(gòu)設(shè)計(jì)原則提供數(shù)據(jù)
    發(fā)表于 11-16 09:23

    3GPP網(wǎng)絡(luò)架構(gòu)演進(jìn)分析

    3GPP網(wǎng)絡(luò)架構(gòu)演進(jìn)分析摘要文章介紹了3GPP網(wǎng)絡(luò)架構(gòu)演進(jìn)需求以及SAE架構(gòu),在此基礎(chǔ)上,提出了SAE的候選方案。關(guān)鍵詞:3GPP網(wǎng)絡(luò),3
    發(fā)表于 01-26 17:57 ?42次下載

    UMTS演進(jìn)之路

    摘要 UMTS是目前最具影響力的3G標(biāo)準(zhǔn),文章介紹了UMTS的兩個演進(jìn)版本——長期演進(jìn)(LTE)和HSPA演進(jìn)(HSPA+)的標(biāo)準(zhǔn)化現(xiàn)狀,展望了UMTS標(biāo)準(zhǔn)向更遠(yuǎn)期的IMT-Advanced技術(shù)
    發(fā)表于 06-18 09:39 ?1204次閱讀

    淺談UMTS演進(jìn)之路

    摘要 UMTS是目前最具影響力的3G標(biāo)準(zhǔn),文章介紹了UMTS的兩個演進(jìn)版本——長期演進(jìn)(LTE)和HSPA演進(jìn)(HSPA+)的標(biāo)準(zhǔn)化現(xiàn)狀,展望了UMTS標(biāo)準(zhǔn)向更遠(yuǎn)期的IMT-Advanced技術(shù)
    發(fā)表于 06-19 13:25 ?854次閱讀

    簡單分析Java高可用集群和微服務(wù)架構(gòu)

    可能大部分讀者都在想,為什么在這以 dubbo、spring cloud 為代表的微服務(wù)時代,我要還要整理這種已經(jīng)“過時”高可用集群架構(gòu)?
    的頭像 發(fā)表于 05-03 18:17 ?2297次閱讀
    簡單分析Java高可用<b class='flag-5'>集群</b>和微服務(wù)<b class='flag-5'>架構(gòu)</b>

    語音網(wǎng)絡(luò)架構(gòu)演進(jìn)

    語音網(wǎng)絡(luò)架構(gòu)經(jīng)歷了從固定到移動,從模擬語音到數(shù)字語音,從語音通信到多媒體通信幾方面的演進(jìn)。在先后經(jīng)歷了固定和移動(2G、3G、4G和5G)的幾個演進(jìn)階段后,語音網(wǎng)絡(luò)架構(gòu)在形態(tài)和功能上都
    的頭像 發(fā)表于 12-13 15:37 ?4017次閱讀

    深度解讀ES+Redis+MySQL的高可用架構(gòu)設(shè)計(jì)

    我們有兩個機(jī)房,分別是機(jī)房 A 和機(jī)房 B。我們把 ES集群部署在機(jī)房 A,把 ES集群部署在機(jī)房 B。會員系統(tǒng)的讀寫都在 ES
    的頭像 發(fā)表于 06-01 10:09 ?962次閱讀
    深度解讀<b class='flag-5'>ES</b>+Redis+MySQL的高可用<b class='flag-5'>架構(gòu)</b>設(shè)計(jì)

    從盤中孔到真空塞孔,線路板樹脂塞孔技術(shù)的演進(jìn)之路

    從盤中孔到真空塞孔,線路板樹脂塞孔技術(shù)的演進(jìn)之路
    的頭像 發(fā)表于 02-25 09:17 ?1545次閱讀

    GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)

    眾所周知,在大型模型訓(xùn)練中,通常采用每臺服務(wù)器配備多個GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)(上篇)》中,我們對GPU網(wǎng)絡(luò)中的核心術(shù)語與概念進(jìn)行了詳盡介紹。本文將進(jìn)一步深入探討常見的GPU系統(tǒng)架構(gòu)。
    的頭像 發(fā)表于 11-05 16:20 ?1231次閱讀
    GPU服務(wù)器AI網(wǎng)絡(luò)<b class='flag-5'>架構(gòu)</b>設(shè)計(jì)