電子發(fā)燒友網(wǎng)綜合報道 隨著AI技術迅猛發(fā)展,尤其是大型語言模型的興起,對于算力的需求呈現(xiàn)出爆炸性增長。這不僅推動了智算中心的建設,還對網(wǎng)絡互聯(lián)技術提出了新的挑戰(zhàn)。
在AI大模型訓練過程中,由于單個AI芯片的算力提升速度無法跟上模型參數(shù)的增長速率,再加上龐大的模型參數(shù)和訓練數(shù)據(jù),已遠遠超出單個AI芯片甚至單臺服務器的能力范圍。因此,需要將數(shù)據(jù)樣本和模型結構分散到多個計算設備上,這導致了設備間的頻繁通信需求。為了適應這一變化,智算中心服務器內(nèi)部的網(wǎng)絡互聯(lián)技術變得至關重要。
芯片間互聯(lián)技術
AI服務器的互聯(lián)技術是保障其高性能計算能力的關鍵,涉及芯片間、服務器內(nèi)以及服務器間等多個層面的高速數(shù)據(jù)傳輸。
芯片間互聯(lián)技術方面,英偉達、AMD、英特爾都推出了相關技術,分別是NVLink、Infinity Fabric、CXL(Compute Express Link)等。NVLink是由NVIDIA開發(fā)的GPU之間的高速互連技術,能加快CPU與GPU、GPU與GPU之間的數(shù)據(jù)傳輸速度,提高系統(tǒng)性能。從2016年到2022年,NVLink歷經(jīng)多次迭代更新,例如基于Hopper架構的第四代NVLink,單鏈可實現(xiàn)50GB/s的雙向帶寬,單芯片可支持18鏈路,即900GB/s的總雙向帶寬。在NVIDIA的DGX H100服務器中,GPU(H100)之間互聯(lián)主要通過NV Switch芯片來實現(xiàn),而NV Switch芯片與GPU之間的數(shù)據(jù)傳輸就依賴于NVLink。
AMD推出的Infinity Fabric,由傳輸數(shù)據(jù)的Infinity Scalable Data Fabric(SDF)和負責控制的Infinity Scalable Control Fabric(SCF)兩個系統(tǒng)組成,連接了on-die和off-die以及多路CPU間的通信。最新的AMD Instinct MI300X GPU采用5nm制程,支持客戶將8個GPU整合為一個性能主導型節(jié)點,并且具有全互聯(lián)式點對點環(huán)形設計,使用了第4代Infinity Fabric高速總線互聯(lián),總線帶寬達到896GB/s(與英偉達H100的900GB/s帶寬相當)。
CXL(Compute Express Link)是英特爾提出的一種開放性互聯(lián)協(xié)議,CXL是建立在PCIe物理層之上的協(xié)議,可以實現(xiàn)設備之間的緩存和內(nèi)存一致性。利用廣泛存在的PCIe接口,CXL允許內(nèi)存在各種硬件上共享:CPU、NIC和DPU、GPU和其它加速器、SSD和內(nèi)存設備,從而滿足高性能異構計算的要求。
服務器內(nèi)互聯(lián)技術有PCIe Switch、Retimer芯片。PCIe Switch,即PCIe開關或PCIe交換機,主要作用是實現(xiàn)PCIe設備互聯(lián)。由于PCIe的鏈路通信是一種端對端的數(shù)據(jù)傳輸,需要Switch提供擴展或聚合能力,從而允許更多的設備連接到一個PCIe端口,以解決PCIe通道數(shù)量不夠的問題。例如在AI服務器中,GPU與CPU連接時可能需要用到PCIe Switch,并且隨著PCIe總線技術的升級,PCIe Switch每代速率提升,能提高數(shù)據(jù)傳輸?shù)乃俣取?br />
在AI服務器中,GPU與CPU連接時至少需要一顆Retimer芯片來保證信號質量,很多AI服務器都會配置多顆Retimer芯片。例如Astera Labs在AI加速器中配置了4顆Retimer芯片。
AI服務器間互聯(lián)技術
服務器間互聯(lián)技術有InfiniBand、RoCE、高速以太網(wǎng)。InfiniBand是一種高性能的網(wǎng)絡互聯(lián)技術,具有低延遲、高帶寬的特點,能夠滿足AI服務器之間超低延遲、超高帶寬的通信需求,適用于大規(guī)模AI模型訓練時服務器之間的高效通信和數(shù)據(jù)同步。例如訓練超大模型往往需要成百上千臺服務器組成集群,服務器之間就需要InfiniBand這樣的網(wǎng)絡進行高效通信。
RoCE(RDMA over Converged Ethernet),基于以太網(wǎng)的RDMA(遠程直接內(nèi)存訪問)技術,它允許數(shù)據(jù)在網(wǎng)絡中直接從一臺計算機的內(nèi)存?zhèn)鬏數(shù)搅硪慌_計算機的內(nèi)存,而無需操作系統(tǒng)內(nèi)核的介入,從而降低了延遲,提高了帶寬利用率,可用于AI服務器間的互聯(lián),提升數(shù)據(jù)傳輸效率。
高速以太網(wǎng),如400Gbps甚至800Gbps以太網(wǎng)適配器,能為AI服務器間提供高速的網(wǎng)絡連接,保障大規(guī)模集群部署時服務器之間的數(shù)據(jù)傳輸性能。例如昆侖芯超節(jié)點結合百度智能云自研的基于導軌優(yōu)化的HPN(High Performance Network)架構,可支撐從數(shù)百卡到上萬卡的XPU集群構建,其中就涉及到高速以太網(wǎng)技術的應用。
小結
在AI服務器中,互聯(lián)技術的作用已從數(shù)據(jù)傳輸通道升級為算力釋放引擎。通過高帶寬、低延遲、可擴展的互聯(lián)架構,AI服務器能夠突破單節(jié)點算力瓶頸,實現(xiàn)萬億參數(shù)模型的分布式訓練;降低推理延遲,支撐實時AI應用的商業(yè)化落地;優(yōu)化能效比,應對超大規(guī)模數(shù)據(jù)中心的能耗挑戰(zhàn)。
-
AI
+關注
關注
91文章
39844瀏覽量
301505 -
算力
+關注
關注
2文章
1533瀏覽量
16751
發(fā)布評論請先 登錄
從云端集中到邊緣分布:邊緣智算如何重塑算力網(wǎng)絡布局
剖析AI對分布式KVM系統(tǒng)的革新意義
中科星云星算平臺全國首批代理商簽約成功 共建分布式 AI 算力生態(tài)
算力與電力的終極博弈,填上了AIDC的“電力黑洞”
華為超節(jié)點互聯(lián)技術引領AI基礎設施新范式
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力
加速AI未來,睿海光電800G OSFP光模塊重構數(shù)據(jù)中心互聯(lián)標準
一鍵部署無損網(wǎng)絡:EasyRoCE助力分布式存儲效能革命
算力網(wǎng)絡的“神經(jīng)突觸”:AI互聯(lián)技術如何重構分布式訓練范式
評論