chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

千萬級損失預(yù)警:你的DeepSeek部署正踩中這個隱形雷區(qū)

星融元 ? 來源:jf_55437772 ? 作者:jf_55437772 ? 2025-03-05 17:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近期,DeepSeek 已成為各行業(yè)關(guān)注的焦點。其卓越的語言理解和生成能力使其能夠精準處理各種復(fù)雜的自然語言任務(wù),無論是文本生成、語義理解還是智能對話,都能輕松應(yīng)對。隨著 DeepSeek 的迅速走紅,眾多廠商紛紛加入這一技術(shù)浪潮,積極接入這一強大的語言模型。從互聯(lián)網(wǎng)科技巨頭到傳統(tǒng)制造業(yè)企業(yè),從金融行業(yè)到教育領(lǐng)域,DeepSeek 的應(yīng)用范圍不斷擴大,成為推動企業(yè)數(shù)字化轉(zhuǎn)型和智能化升級的重要力量。

在此趨勢下,越來越多的企業(yè)開始選擇私有化部署 DeepSeek,以更好地滿足自身業(yè)務(wù)需求。私有化部署不僅能夠滿足企業(yè)對數(shù)據(jù)安全和隱私保護的嚴格要求,還能根據(jù)企業(yè)的特定業(yè)務(wù)進行定制化優(yōu)化。然而,在企業(yè)熱衷于私有化部署 DeepSeek 的過程中,有一個關(guān)鍵細節(jié)容易被忽視,那就是網(wǎng)絡(luò)配置。網(wǎng)絡(luò)作為連接訓(xùn)練和推理集群節(jié)點的關(guān)鍵要素,其穩(wěn)定性、速度和效率直接關(guān)系到集群的整體性能。無論是訓(xùn)練階段節(jié)點間的頻繁參數(shù)同步,還是推理過程中模型數(shù)據(jù)的快速交互,良好的網(wǎng)絡(luò)環(huán)境都是確保集群通信順暢、高效的必要條件。如果網(wǎng)絡(luò)配置不當(dāng),即使投入了強大的算力資源,也可能導(dǎo)致集群通信性能下降,進而影響 DeepSeek 的正常運行和業(yè)務(wù)的順利開展。

為此,星融元憑借其在開放網(wǎng)絡(luò)領(lǐng)域的深厚積累,為客戶提供了一套完整的網(wǎng)絡(luò)解決方案。該方案包括 25G-800G 規(guī)格的 RoCE 交換機及 EasyRoCE Toolkit 等實用工具,精準對接 AI 與大模型領(lǐng)域的網(wǎng)絡(luò)需求,助力客戶在 AI 浪潮中搶占先機,攜手共鑄行業(yè)優(yōu)勢地位。

網(wǎng)絡(luò)連接方式的升級

大模型訓(xùn)練過程中數(shù)據(jù)并行、張量并行、流水線并行是主要的流量來源,同一服務(wù)器不同GPU、不同服務(wù)器不同GPU之間都需要高效準確的數(shù)據(jù)傳輸,因此,GPU卡(而非服務(wù)器)為單位的通信模式形成了服務(wù)器多網(wǎng)卡多出口的連接方式,與傳統(tǒng)數(shù)據(jù)中心單一出口連接方式不同。

并行計算涉及多個計算節(jié)點(如CPU、GPU等)協(xié)同工作,以加速大規(guī)模計算任務(wù)。集合通信庫是實現(xiàn)這種協(xié)同工作的關(guān)鍵組件,集合通信庫提供了高層次的API、屏障(barrier)、集體通信原語(如廣播、歸約等)等同步機制,用于協(xié)調(diào)節(jié)點之間的執(zhí)行用于在節(jié)點之間傳輸數(shù)據(jù),確保數(shù)據(jù)的快速和可靠傳遞。

NVIDIA NCCL是NVIDIA提供的開源通信庫,是目前大廠主流使用的集合通信庫。在實際應(yīng)用中,NCCL和MPI常常結(jié)合使用。MPI負責(zé)節(jié)點之間的通信,而NCCL負責(zé)GPU之間的通信,通過兩者的協(xié)同工作,實現(xiàn)高效的并行計算。

NCCL自2.12版本起引入了 PXN 功能,即 PCI × NVLink。取代了原先需要通過CPU的QPI調(diào)用和CPU進行buffer交互。PXN 利用節(jié)點內(nèi) GPU 之間的 NVIDIA NVSwitch 連接,首先將數(shù)據(jù)移動到與目的地位于同一軌道上的 GPU 上,然后將其發(fā)送到目的地而無需跨軌道傳輸,從而實現(xiàn)消息聚合和網(wǎng)絡(luò)流量優(yōu)化。

  • NVLINK英偉達(NVIDIA)開發(fā)并推出的一種總線及其通信協(xié)議。NVLINK 采用點對點結(jié)構(gòu)、串行傳輸,用于中央處理器(CPU)與圖形處理器(GPU)之間的連接,也可用于多個圖形處理器(GPU)之間的相互連接。
  • NVSWITCH :是一種高速互連技術(shù),同時作為一塊獨立的 NVLINK 芯片,其提供了高達 18 路 NVLINK 的接口,可以在多個 GPU 之間實現(xiàn)高速數(shù)據(jù)傳輸

軌道優(yōu)化拓撲即是適應(yīng)這一通信特征,將不同服務(wù)器上位于相同位置(軌道)的NIC連接到同一臺交換機上。

由于每個服務(wù)器有8張連接計算平面的網(wǎng)卡,整個計算網(wǎng)絡(luò)被從物理上劃分為8個獨立并行的軌道(Rail)。由此,智算業(yè)務(wù)產(chǎn)生的并行通信需求(All Reduce、All-to-All 等)可以用多個軌道并行地傳輸,并且其中大部分流量都聚合在軌道內(nèi)(只經(jīng)過一跳),只有小部分流量才會跨軌道(經(jīng)過兩跳),大幅減輕了大規(guī)模集合網(wǎng)絡(luò)通信壓力。

軌道優(yōu)化聚合了同一對 NIC 之間傳遞的消息,得以最大限度地提高有效消息速率和網(wǎng)絡(luò)帶寬。反觀NCCL 2.12 之前,同樣的端到端通信將經(jīng)過三跳交換機(上圖的L0、S1 和 L3),這可能會導(dǎo)致鏈路爭用并被其他流量拖慢。

服務(wù)器/交換機側(cè)的路由配置

首先是需要明確GPU卡的連接方式。如果是N卡,你可以使用nvidia-smi topo -m的命令直接查看。但綜合考慮成本因素,要想在更為通用的智算環(huán)境下達到GPU通信最優(yōu),最好的辦法還是在采購和建設(shè)初期就根據(jù)業(yè)務(wù)模型特點和通信方式預(yù)先規(guī)劃好機內(nèi)互聯(lián)(GPU-GPU、GPU-NIC)和機間互聯(lián)(GPU-NIC-GPU),避免過早出現(xiàn)通信瓶頸,導(dǎo)致昂貴算力資源的浪費。

智算環(huán)境下以GPU卡(而非服務(wù)器)為單位的通信模式形成了服務(wù)器多網(wǎng)卡多出口環(huán)境的路由策略,通常會有8張網(wǎng)卡用于接入?yún)?shù)/計算網(wǎng),每張網(wǎng)卡位于各自的軌道平面上。為避免回包通信失敗,服務(wù)器上的網(wǎng)卡配置需要利用Linux多路由表策略路由機制進行路由規(guī)劃,這與傳統(tǒng)云網(wǎng)的配置方式完全不同。

第一步是按照組網(wǎng)規(guī)劃和網(wǎng)段規(guī)劃,進行IP地址規(guī)劃和Rail平面劃分。在我們的EasyRoCE Toolkit 下的AID工具(AI Infrastructure Descriptor,AI基礎(chǔ)設(shè)施藍圖規(guī)劃)中,Notes字段用于標(biāo)注Rail編號,即0代表Rail平面0、1代表Rail平面1,以此類推。

截取自星融元 EasyRoCE AID 工具

確認好了上述信息,到這里其實可以開始手動配置了,但你也可以使用另一個EasyRoCE的IRM工具(In-node Route Map,GPU內(nèi)部路由規(guī)劃器)。IRM 從AID 生成的配置文件中獲取適合當(dāng)前集群環(huán)境的路由規(guī)劃信息,并且自動化地對集群中的所有GPU服務(wù)器進行IP和策略路由配置。

CLos架構(gòu)下,各交換節(jié)點分布式運行和自我決策轉(zhuǎn)發(fā)路徑容易導(dǎo)致無法完全感知全局信息,在多層組網(wǎng)下流量若發(fā)生Hash極化(經(jīng)過2次或2次以上Hash后出現(xiàn)的負載分擔(dān)不均)將拖慢集群性能。

為解決滿足AI集群規(guī)模化部署的通信需求,一般來說我們會通過規(guī)范流量路徑來解決性能和規(guī)模方面的痛點(例如負載均衡、租戶隔離等),按照如下轉(zhuǎn)發(fā)邏輯去配置RoCE交換機:

  1. 跨 Spine上行流量進入Leaf后根據(jù)源IP和是否為跨Spine遠端流量,執(zhí)行策略路由轉(zhuǎn)發(fā)給Spine,每網(wǎng)卡對應(yīng)一個接口:
  • 在上下行流量1:1無收斂的情況下,Leaf的每個下行端口綁定一個上行端口;
  • 在n:1的情況下,上下行端口以倍數(shù)關(guān)系(向上取整)形成n:1映射。
  1. 跨Spine上行流量在Spine上按照標(biāo)準L3邏輯轉(zhuǎn)發(fā),在軌道組網(wǎng)中多數(shù)流量僅在軌道內(nèi)傳輸,跨軌道傳輸流量較小,網(wǎng)絡(luò)方案暫不考慮Spine上擁塞的情況(由GPU Server集合通信處理)。
  2. 跨 Spine下行流量進入Leaf后根據(jù) default 路由表指導(dǎo)轉(zhuǎn)發(fā)。

當(dāng)然,這里也可以使用EasyRoCE Toolkit 下的PPD工具(主動路徑規(guī)劃,Proactive Path Definer)自動生成以上配置。以下為PPD工具運行過程。

正在生成配置文件
100%[#########################]
Configuring leaf1's port 
leaf1的端口配置完成 
Generating leaf1's ai network config
The ai network config finished.
 
正在生成配置文件
100%[#########################]
Configuring leaf2's port 
leaf2的端口配置完成 
Generating leaf2's ai network config
The ai network config finished.
 
正在生成配置文件
100%[#########################]
Configuring leaf3's port 
leaf3的端口配置完成 
Generating leaf3's ai network config
The ai network config finished.
 
正在生成配置文件
100%[#########################]
Configuring leaf4's port 
leaf4的端口配置完成 
Generating leaf4's ai network config
The ai network config finished.
 
正在生成配置文件
100%[#########################]
show running config
是否需要查看生成的配置(Y|N):
是否需要查看生成的配置(Y|N):
是否需要查看生成的配置(Y|N):

PPD可以獨立運行在服務(wù)器上,也可以代碼形式被集成到第三方管理軟件中,利用AID工具來生成最終配置腳本,將配置呈現(xiàn)在統(tǒng)一監(jiān)控面板(例如Prometheus+Grafana)進行瀏覽和核對。

對網(wǎng)絡(luò)設(shè)備的要求

星融元CX-N系列交換機正是為智算中心AI訓(xùn)練場景而生的超低時延以太網(wǎng)交換機——在保持極致性能的同時,實現(xiàn)可編程、可升級的能力,與計算設(shè)備形成協(xié)同,共同打造10萬級別的計算節(jié)點互聯(lián),將數(shù)據(jù)中心重構(gòu)為可與超級計算機媲美的AI超級工廠。

  • 最大支持64個800G以太網(wǎng)接口,共51.2T交換容量。
  • 超低時延 ,在800G端口上實現(xiàn)業(yè)界最強的560ns cut-through時延。
  • 全端口標(biāo)配支持RoCEv2 ,支持Rail-only,全連接Clos以及200G/400G混合組網(wǎng),靈活適應(yīng)不同的算力中心建設(shè)方案
  • 200+ MB大容量高速片上包緩存 ,顯著減小集體通信時RoCE流量的存儲轉(zhuǎn)發(fā)時延。
  • Intel至強CPU + 大容量可擴展內(nèi)存,運行持續(xù)進化的企業(yè)級SONiC ——AsterNOS網(wǎng)絡(luò)操作系統(tǒng),并通過DMA直接訪問包緩存,對網(wǎng)絡(luò)流量進行實時加工。
  • INNOFLEX可編程轉(zhuǎn)發(fā)引擎 ,可以根據(jù)業(yè)務(wù)需求和網(wǎng)絡(luò)狀態(tài)實時調(diào)整轉(zhuǎn)發(fā)流程,最大程度避免網(wǎng)絡(luò)擁塞和故障而造成的丟包。
  • F LASHLIGHT精細化流量分析引擎 ,實時測量每個包的延遲和往返時間等,經(jīng)過CPU的智能分析,實現(xiàn)自適應(yīng)路由和擁塞控制。
  • 10納秒級別的PTP/SyncE時間同步,保證所有GPU同步計算。
  • 開放API ,通過REST API開放全部功能給AI數(shù)據(jù)中心管理系統(tǒng),與計算設(shè)備相互協(xié)同,實現(xiàn)GPU集群的自動化部署。

詳細信息請前往星融元官網(wǎng)https://asterfusion.com/product/cx-n/

參考鏈接:

https://blog.csdn.net/qq_41904778/article/details/145930361

https://blog.csdn.net/qq_40214669/article/details/143307857

https://developer.nvidia.com/blog/doubling-all2all-performance-with-nvidia-collective-communication-library-2-12/

https://mp.weixin.qq.com/s/yQn56hh56FE1XDGrrKme7Q

https://mp.weixin.qq.com/s/vZL-4Cpb1BFyH1CpVw3IJQ

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 以太網(wǎng)
    +關(guān)注

    關(guān)注

    41

    文章

    5635

    瀏覽量

    175954
  • 交換機
    +關(guān)注

    關(guān)注

    22

    文章

    2747

    瀏覽量

    101924
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7815

    瀏覽量

    90963
  • 英偉達
    +關(guān)注

    關(guān)注

    22

    文章

    3953

    瀏覽量

    93785
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    798

    瀏覽量

    1747
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    ORinNano離線部署Deepseek R1大模型教程

    ORinNano離線部署Deepseek R1大模型教程
    的頭像 發(fā)表于 04-10 15:32 ?496次閱讀
    ORinNano離線<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> R1大模型教程

    DeepSeek在昇騰上的模型部署的常見問題及解決方案

    2024年12月26日,DeepSeek-V3橫空出世,以其卓越性能備受矚目。該模型發(fā)布即支持昇騰,用戶可在昇騰硬件和MindIE推理引擎上實現(xiàn)高效推理,但在實際操作,部署流程與常見問題困擾著不少
    的頭像 發(fā)表于 03-25 16:53 ?874次閱讀
    <b class='flag-5'>DeepSeek</b>在昇騰上的模型<b class='flag-5'>部署</b>的常見問題及解決方案

    DeepSeek企業(yè)部署RakSmart裸機云環(huán)境準備指南

    RakSmart裸機云環(huán)境中部署DeepSeek的企業(yè)環(huán)境準備指南,內(nèi)容涵蓋關(guān)鍵步驟和注意事項,主機推薦小編為您整理發(fā)布DeepSeek企業(yè)
    的頭像 發(fā)表于 03-24 10:07 ?366次閱讀

    【幸狐Omni3576邊緣計算套件試用體驗】DeepSeek 部署及測試

    【幸狐 Omni3576 邊緣計算套件測評】DeepSeek 部署及測試 本文介紹了幸狐 Omni3576 邊緣計算套件實現(xiàn) DeepSeek 部署及測試的相關(guān)流程,包括模型介紹、
    發(fā)表于 03-21 19:31

    采購GUTOR UPS備品備件,隱藏的“雷區(qū)了解嗎?

    在GUTOR UPS備品備件采購之路上,困難重重,選型、渠道甄別、成本把控、安裝部署、售后保障,樁樁件件都是棘手難題。隱藏的“雷區(qū)了解嗎?
    發(fā)表于 03-21 16:08

    DeepSeek企業(yè)部署服務(wù)器資源計算 以raksmart裸機云服務(wù)器為例

    以RakSmart裸機云服務(wù)器為例,針對DeepSeek企業(yè)部署的服務(wù)器資源計算指南,涵蓋GPU/CPU/內(nèi)存/存儲/網(wǎng)絡(luò)等核心維度的詳細計算方法與配置推薦,主機推薦小編為您整理發(fā)布以raksmart裸機云服務(wù)器為例,
    的頭像 發(fā)表于 03-21 10:17 ?383次閱讀

    RAKsmart美國裸機云服務(wù)器DeepSeek的高級定制化部署方案

    在RAKsmart美國裸機云服務(wù)器上進行DeepSeek的高級定制化部署,需結(jié)合高性能硬件與靈活的軟件配置,以實現(xiàn)模型優(yōu)化、多任務(wù)并行及安全性提升。以下是針對企業(yè)需求的詳細方案,主機推薦小編為您整理發(fā)布RAKsmart美國裸機
    的頭像 發(fā)表于 03-13 11:55 ?479次閱讀

    DeepSeek企業(yè)部署實戰(zhàn)指南:以Raksmart企業(yè)服務(wù)器為例

    隨著人工智能技術(shù)的快速發(fā)展,DeepSeek作為一款強大的AI工具,正在成為企業(yè)智能化轉(zhuǎn)型的重要驅(qū)動力。本文將結(jié)合Raksmart企業(yè)服務(wù)器的實際案例,詳細解析DeepSeek的企業(yè)部署
    的頭像 發(fā)表于 03-12 11:33 ?611次閱讀

    HarmonyOS NEXT開發(fā)實戰(zhàn):DevEco StudioDeepSeek的使用

    DeepSeek Token 注冊DeepSeek賬號:訪問DeepSeek官網(wǎng),注冊并登錄您的賬號。 創(chuàng)建應(yīng)用:在DeepSeek控制臺中創(chuàng)建API Key,并及時保存,出于安全訪問
    發(fā)表于 03-07 14:56

    RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南

    擴展規(guī)劃、嵌入式適配等技術(shù)維度的突破。 RK3588作為瑞芯微推出的旗艦芯片,憑借多核異構(gòu)計算能力以及強大的CPU、GPU和NPU性能,成為嵌入式AI應(yīng)用的理想平臺。DeepSeek
    發(fā)表于 02-27 16:45

    華為云發(fā)布DeepSeek本地部署方案

    華為云正式推出基于華為云Stack混合云的DeepSeek本地部署方案。
    的頭像 發(fā)表于 02-18 10:05 ?1077次閱讀

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    和NPU的利用率,可以看到CPU的占用率已經(jīng)降了下來,并且調(diào)用了NPU的3個核心進行加速推理: 通過以上兩種方法,我們掌握了在 RK3588 開發(fā)板上部署并測試 DeepSeek 模型的技能。如果也是
    發(fā)表于 02-14 17:42

    ATK-DLRK3588開發(fā)板deepseek-r1-1.5b/7b部署指南

    DeepSeek這樣的國產(chǎn)大模型部署在RK3588上時,由于RK3588的強大性能支持,同樣的模型規(guī)??梢缘玫礁鼜姶蟮耐评砟芰Α崟r性能以及邊緣計算能力。在本篇文章,我們將一口氣教大家從下載模型、轉(zhuǎn)換模型到
    發(fā)表于 02-14 16:33

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應(yīng)用選擇

    ); 二者均支持API調(diào)用,可根據(jù)業(yè)務(wù)需求混合部署(如用V3處理前端交互,R1負責(zé)后端計算)。 在電子工程領(lǐng)域選用哪個模型最合適,有其他更好的模型推薦嗎? 在電子工程領(lǐng)域的電路設(shè)計與分析場景,模型需要
    發(fā)表于 02-14 02:08

    DeepSeek-R1本地部署指南,開啟的AI探索之旅

    春節(jié)期間突然被DeepSeek刷屏了,這熱度是真大,到處都是新聞和本地部署的教程,等熱度過了過,簡單記錄下自己本地部署及相關(guān)的內(nèi)容,就當(dāng)電子寵物,沒事喂一喂:D,不過有能力的還是閱讀論文和部署
    的頭像 發(fā)表于 02-08 10:30 ?5550次閱讀
    <b class='flag-5'>DeepSeek</b>-R1本地<b class='flag-5'>部署</b>指南,開啟<b class='flag-5'>你</b>的AI探索之旅