chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在NVIDIA DGX Spark平臺上對NVIDIA ConnectX-7 200G網(wǎng)卡配置教程

麗臺科技 ? 來源:麗臺科技 ? 2025-11-21 09:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在NVIDIA DGX Spark平臺上對NVIDIAConnectX-7 200G網(wǎng)卡進(jìn)行配置時,會遇到“4 個邏輯端口”現(xiàn)象。理解背后的真相是后續(xù)所有配置的基礎(chǔ)。本文將從此現(xiàn)象入手,逐步解析其原理,并提供從基礎(chǔ)配置到深度性能驗證的完整流程。

1理解“4 個邏輯端口”的真相

目前,在 DGX Spark 系統(tǒng)上配置 ConnectX-7(CX7)網(wǎng)卡時,會遇到一個常見問題:DGX Spark 只有兩個物理端口,但在使用ip-br a或ibdev2netdev命令查看時, ConnectX-7 網(wǎng)卡顯示為四個端口:

rocep1s0f0port1==> enp1s0f0np0 (Up)   物理端口1/路徑A
rocep1s0f1port1==> enp1s0f1np1 (Up)   物理端口2/路徑A
roceP2p1s0f0port1==> enP2p1s0f0np0 (Up) 物理端口1/路徑B
roceP2p1s0f1port1==> enP2p1s0f1np1 (Up) 物理端口2/路徑B

答案在于 GB10 芯片的 PCIe 限制與 Socket Direct 模式。

簡單理解為:其無法為單個設(shè)備提供超過 x4 寬度的 PCIe 通道。因此為了實現(xiàn) 200 Gbps 的傳輸速率,將啟用 ConnectX-7 的 socket 直通,把兩條獨(dú)立的 x4 PCIe 鏈路聚合起來,從而共同達(dá)到 200 Gbps 的帶寬。

而 ConnectX-7 網(wǎng)卡在 Socket Direct 模式下,分別由 GB10 SoC 的兩條獨(dú)立 PCle x4 鏈路(我們稱之為路徑 A 和路徑 B)驅(qū)動,所以會把每一個物理接口識別成兩個 PCle 設(shè)備,進(jìn)而對應(yīng)兩個邏輯接口。經(jīng)由每個 PCle x4 的連接,只有100 Gbps,無法滿足 200 Gbps 的傳輸需求,所以對應(yīng)下圖中,在配置網(wǎng)絡(luò)和構(gòu)建流量時,要實現(xiàn)完整的 200 Gbps 帶寬必須同時使用這兩條鏈路(路徑 A 和路徑 B)——即使只用一個物理接口,也需確保兩路流量都被激活。

143c91a0-c38b-11f0-8c8f-92fbcf53809c.png

▲ 邏輯端口示意圖

2025 麗臺(上海)信息科技有限公司

本圖片由麗臺科技制作,如果您有任何疑問或需要使用此圖片,請聯(lián)系麗臺科技(下同)

具體表現(xiàn)為:

路徑 A-> 訪問物理端口 1 (enp1s0f0np0)

路徑 A-> 訪問物理端口 2 (enp1s0f1np1)

路徑 B-> 訪問物理端口 1 (enP2p1s0f0np0)

路徑 B-> 訪問物理端口 2 (enP2p1s0f1np1)

這不是四個獨(dú)立的物理網(wǎng)口,而是兩個物理網(wǎng)口在操作系統(tǒng)層面被“鏡像”為四條 PCIe 路徑。為了充分利用硬件性能,必須正確配置并測試這四條路徑。

2網(wǎng)絡(luò)配置:連接兩臺 DGX Spark

下面將重點介紹連接兩臺 DGX Spark 時的手動靜態(tài) IP 分配。

2.1 確保兩個系統(tǒng)上的用戶名相同

此步驟旨在確保兩臺 DGX Spark 設(shè)備使用相同的用戶名,以便后續(xù)操作(尤其是 SSH 免密登錄和分布式任務(wù)調(diào)度)能夠無縫進(jìn)行。

注:用戶可根據(jù)實際情況自行配置,無需嚴(yán)格遵循以下步驟。

2.1.1 檢查當(dāng)前用戶名

在兩臺機(jī)器上分別運(yùn)行:

whoami

如果兩臺都已經(jīng)是leadtek_dgx1,則無需操作,直接繼續(xù)后續(xù)步驟。

如果任一系統(tǒng)用戶名不同,請按以下步驟創(chuàng)建統(tǒng)一用戶。

2.1.2 在兩臺系統(tǒng)上創(chuàng)建 leadtek_dgx1 用戶(如不存在)

# 創(chuàng)建用戶并設(shè)置主目錄
sudouseradd -m leadtek_dgx1


# 將用戶加入 sudo 組
sudousermod -aGsudoleadtek_dgx1


# 設(shè)置密碼
sudopasswd leadtek_dgx1


#切換到該用戶
su - leadtek_dgx1

完成后,兩臺系統(tǒng)均以相同用戶名leadtek_dgx1登錄,便于后續(xù) SSH 免密操作。

2.2 確認(rèn)接口狀態(tài)

確定所有網(wǎng)絡(luò)端口均已連接(Up 狀態(tài)):

leadtek_dgx1@spark-a83f:~$ ibdev2netdev
rocep1s0f0port1==> enp1s0f0np0 (Up)
rocep1s0f1port1==> enp1s0f1np1 (Up)
roceP2p1s0f0port1==> enP2p1s0f0np0 (Up)
roceP2p1s0f1port1==> enP2p1s0f1np1 (Up)

2.3 IP 地址規(guī)劃

我們?yōu)?node1 和 node2 上的四個邏輯接口分別規(guī)劃獨(dú)立的子網(wǎng),用于后續(xù)網(wǎng)絡(luò)性能測試。

149c07b6-c38b-11f0-8c8f-92fbcf53809c.png

▲ IP 地址規(guī)劃

2.4 執(zhí)行配置命令

在 node1 上執(zhí)行:

# 物理端口1 / 路徑A (192.168.10.0/24)/enp1s0f0np0
sudoip addr add192.168.10.10/24dev enp1s0f0np0
sudoip link set enp1s0f0np0 up


# 物理端口2 / 路徑A (192.168.11.0/24)/enp1s0f1np1
sudoip addr add192.168.11.10/24dev enp1s0f1np1
sudoip link set enp1s0f1np1 up


# 物理端口1 / 路徑B (192.168.12.0/24)/enP2p1s0f0np0
sudoip addr add192.168.12.10/24dev enP2p1s0f0np0
sudoip link set enP2p1s0f0np0 up


# 物理端口2 / 路徑B (192.168.13.0/24)/enP2p1s0f1np1
sudoip addr add192.168.13.10/24dev enP2p1s0f1np1
sudoip link set enP2p1s0f1np1 up


#ip -br a
enp1s0f0np0   UP      192.168.10.10/24
enp1s0f1np1   UP      192.168.11.10/24
enP2p1s0f0np0  UP      192.168.12.10/24
enP2p1s0f1np1  UP      192.168.13.10/24

在 node2 上執(zhí)行:

# 物理端口1 / 路徑A (192.168.10.0/24)/enp1s0f0np0
sudoip addr add192.168.10.11/24dev enp1s0f0np0
sudoip link set enp1s0f0np0 up


# 物理端口1 / 路徑A (192.168.11.0/24)/enp1s0f1np1
sudoip addr add192.168.11.11/24dev enp1s0f1np1
sudoip link set enp1s0f1np1 up


# 物理端口2 / 路徑B (192.168.12.0/24)/enP2p1s0f0np0
sudoip addr add192.168.12.11/24dev enP2p1s0f0np0
sudoip link set enP2p1s0f0np0 up


# 物理端口2 / 路徑B (192.168.13.0/24)/enP2p1s0f1np1
sudoip addr add192.168.13.11/24dev enP2p1s0f1np1
sudoip link set enP2p1s0f1np1 up


#ip -br a
enp1s0f0np0   UP      192.168.10.11/24
enp1s0f1np1   UP      192.168.11.11/24
enP2p1s0f0np0  UP      192.168.12.11/24
enP2p1s0f1np1  UP      192.168.13.11/24

2.5 設(shè)置無密碼 SSH 身份驗證

需要找到已啟動的 ConnectX-7 接口的 IP 地址。在兩個節(jié)點上,分別運(yùn)行ip addr show enp1s0f0np0:

#ip addr show enp1s0f0np0
3: enp1s0f0np0:  mtu1500qdisc mq state UP group default qlen1000
 link/ether4c47:7d40brd ffffff:ff
 inet192.168.10.10/24scope global enp1s0f0np0
   valid_lftforever preferred_lft forever


#ip addr show enp1s0f0np0
3: enp1s0f0np0:  mtu1500qdisc mq state UP group default qlen1000
 link/ether4c47:7d8f brd ffffff:ff
 inet192.168.10.11/24scope global enp1s0f0np0
   valid_lftforever preferred_lft forever

確定 node1 和 node2 IP:

node1:192.168.10.10
node2:192.168.10.11

在兩個節(jié)點上分別運(yùn)行以下命令以啟用無密碼 SSH:

ssh-copy-id -i ~/.ssh/id_rsa.pub leadtek_dgx1@192.168.10.10
ssh-copy-id -i ~/.ssh/id_rsa.pub leadtek_dgx1@192.168.10.11


ssh192.168.10.10hostname
ssh192.168.10.11hostname

3RDMA 帶寬性能測試

配置完成后,我們使用ib_write_bw工具(來自 perftest-tools 包)來驗證聚合帶寬是否能達(dá)到 200 Gbps 的物理極限。

3.1 測試一:單物理端口聚合帶寬(物理端口 1)

此測試的目標(biāo)是驗證單個物理端口(使用其對應(yīng)的兩條 PCIe 路徑)是否能跑滿 200 Gbps。

測試步驟:我們需要在兩個節(jié)點上同時啟動兩個ib_write_bw實例,一個跑在物理端口 1/ 路徑 A(192.168.10.x),一個跑在物理端口 1/ 路徑 B(192.168.12.x)。

3.1.1 啟動物理端口 1/ 路徑 A (192.168.10.x)測試

在node2(服務(wù)端))終端 1 中運(yùn)行:

ib_write_bw-d rocep1s0f0 -p18511--bind_source_ip=192.168.10.11--report_gbits --run_infinitely -D5

在node1(客戶端) 終端 1 中運(yùn)行:

ib_write_bw-d rocep1s0f0 -p18511--report_gbits --run_infinitely -D5192.168.10.11

觀察到帶寬結(jié)果:約 97 Gbit/s。

14f415d2-c38b-11f0-8c8f-92fbcf53809c.png

▲ 測試結(jié)果截圖

2025 麗臺(上海)信息科技有限公司

本文所有測試結(jié)果均由麗臺科技實測得出,如果您有任何疑問或需要使用此測試結(jié)果,請聯(lián)系麗臺科技(下同)

3.1.2 保持物理端口 1/ 路徑 A 通信,啟動物理端口 1/ 路徑 B (192.168.12.x)測試

在node2(服務(wù)端) 終端 2 中運(yùn)行:

ib_write_bw-d roceP2p1s0f0 -p18512--bind_source_ip=192.168.12.11--report_gbits --run_infinitely -D5

在node1(客戶端) 終端 2 中運(yùn)行:

ib_write_bw-d roceP2p1s0f0 -p18512--report_gbits --run_infinitely -D5192.168.12.11

觀察到帶寬結(jié)果:約 92 Gbit/s。

154f3192-c38b-11f0-8c8f-92fbcf53809c.png

▲ 測試結(jié)果截圖

測試結(jié)果(物理端口 1):

15bca272-c38b-11f0-8c8f-92fbcf53809c.png

▲ 測試結(jié)果截圖

總帶寬= 路徑 A 平均帶寬 + 路徑 B 平均帶寬

總帶寬≈ 92.5 + 92.5 =185 Gbit/s

結(jié)論:測試結(jié)果驗證了單個物理端口可以通過聚合其背后的兩條 PCIe 路徑,提供接近 200 Gbit/s 的理論帶寬。

3.2 測試二:雙物理端口帶寬

此測試的目標(biāo)是驗證當(dāng)兩個物理端口(即所有四條 PCIe 路徑)同時工作時,網(wǎng)卡的總吞吐能力。

測試步驟:保持 3.1 中的兩個測試(物理端口 1 的 A、B 兩條路徑)持續(xù)運(yùn)行,在兩個節(jié)點上額外再啟動兩個ib_write_bw實例,分別對應(yīng)物理端口 2 的兩條路徑。

3.2.1 啟動物理端口 2/ 路徑 A(192.168.11.x)

node2(服務(wù)端)終端 3 中運(yùn)行:

ib_write_bw-d rocep1s0f1 -p18513--bind_source_ip=192.168.11.11--report_gbits --run_infinitely -D5

node1(客戶端)終端 3 中運(yùn)行:

ib_write_bw-d rocep1s0f1 -p18513--report_gbits --run_infinitely -D5192.168.11.11

3.2.2 啟動物理端口 2/ 路徑 B(192.168.13.x)

node2(服務(wù)端)終端 4 中運(yùn)行:

ib_write_bw-d roceP2p1s0f1 -p18514--bind_source_ip=192.168.13.11--report_gbits --run_infinitely -D5

node1(客戶端)終端 4 中運(yùn)行:

ib_write_bw-d roceP2p1s0f1 -p18514--report_gbits --run_infinitely -D5192.168.13.11

161f7ed8-c38b-11f0-8c8f-92fbcf53809c.png

▲ 測試結(jié)果截圖

測試結(jié)果:當(dāng)所有四條鏈路并發(fā)運(yùn)行時,觀察到每條鏈路的帶寬被平均分配。

每條路徑帶寬 ≈ 49 Gbit/s

總帶寬= ~49 + ~49 + ~49 + ~49 =196 Gbit/s

結(jié)論:表明 ConnectX-7 網(wǎng)卡的總帶寬約為 196 Gbit/s(接近 200G 目標(biāo))。無論流量是集中在單個物理端口(如測試 3.1),還是分散到兩個物理端口(如測試 3.2),總吞吐量保持一致。

4NCCL 通信性能測試

深度學(xué)習(xí)場景中,NCCL 是多機(jī)通信的關(guān)鍵。我們按照官方文檔編譯 nccl-tests 并進(jìn)行all_gather和 all_reduce測試。

4.1 安裝依賴項并構(gòu)建 NCCL

#安裝依賴項并構(gòu)建NCCL
sudoapt-get update &&sudoapt-get install -y libopenmpi-dev
gitclone-b v2.28.3-1 https://github.com/NVIDIA/nccl.git ~/nccl/
cd~/nccl/
make -j src.build NVCC_GENCODE="-gencode=arch=compute_121,code=sm_121"
#設(shè)置環(huán)境變量
exportCUDA_HOME="/usr/local/cuda"
exportMPI_HOME="/usr/lib/aarch64-linux-gnu/openmpi"
exportNCCL_HOME="$HOME/nccl/build/"
exportLD_LIBRARY_PATH="$NCCL_HOME/lib:$CUDA_HOME/lib64/:$MPI_HOME/lib:$LD_LIBRARY_PATH"

4.2 構(gòu)建 NCCL 測試套件

gitclonehttps://github.com/NVIDIA/nccl-tests.git ~/nccl-tests/
cd~/nccl-tests/
make MPI=1

4.3 All-Gather 帶寬測試(單路徑)

注意:此步驟僅選擇物理端口 1 的一條路徑(路徑Aenp1s0f0np0)作為通信接口,以建立一個單路徑基準(zhǔn)。

# 僅指定物理端口1/路徑A enp1s0f0np0 作為通信接口
exportUCX_NET_DEVICES=enp1s0f0np0
exportNCCL_SOCKET_IFNAME=enp1s0f0np0
exportOMPI_MCA_btl_tcp_if_include=enp1s0f0np0
#指定物理端口1/路徑A的設(shè)備標(biāo)識
exportNCCL_IB_HCA=rocep1s0f0

運(yùn)行all_gather測試(單路徑):

mpirun-np2-H192.168.10.10:1,192.168.10.11:1
 --mca plm_rsh_agent"ssh -o UserKnownHostsFile=/dev/null -o StrictHostKeyChecking=no"
 -x LD_LIBRARY_PATH
 -x NCCL_IB_HCA
 $HOME/nccl-tests/build/all_gather_perf -b16G -e16G -f2

-x NCCL_DEBUG=INFO可以加上此命令以查看詳細(xì)日志。

測試結(jié)果:單路徑下,All-Gather操作的平均總線帶寬達(dá)到12.04 GB/s。

168c0dd2-c38b-11f0-8c8f-92fbcf53809c.png

▲ 測試結(jié)果截圖

4.4 All-Gather 帶寬測試(雙路徑)

注意:此步驟選擇物理端口 1 的兩條路徑作為通信接口,以建立雙鏈路。

#指定物理端口1/路徑A和路徑B enp1s0f0np0,enP2p1s0f0np0 作為通信接口
exportUCX_NET_DEVICES=enp1s0f0np0,enP2p1s0f0np0
exportNCCL_SOCKET_IFNAME=enp1s0f0np0,enP2p1s0f0np0
exportOMPI_MCA_btl_tcp_if_include=enp1s0f0np0,enP2p1s0f0np0


#指定兩個路徑的設(shè)備標(biāo)識
exportNCCL_IB_HCA=rocep1s0f0,roceP2p1s0f0


mpirun-np2-H192.168.10.10:1,192.168.10.11:1
 --mca plm_rsh_agent"ssh -o UserKnownHostsFile=/dev/null -o StrictHostKeyChecking=no"
 -x LD_LIBRARY_PATH
 -x NCCL_IB_HCA
 $HOME/nccl-tests/build/all_gather_perf -b16G -e16G -f2

測試結(jié)果:雙路徑下,All-Gather 操作的平均總線帶寬達(dá)到22.68 GB/s

16e81924-c38b-11f0-8c8f-92fbcf53809c.jpg

▲ 測試結(jié)果截圖

4.5 All-reduce 帶寬測試(單路徑)

注意:切換終端時,請勿忘記重新導(dǎo)入 4.1 節(jié)中設(shè)置的環(huán)境變量。

# 僅指定物理端口1/路徑A enp1s0f0np0 作為通信接口
exportUCX_NET_DEVICES=enp1s0f0np0
exportNCCL_SOCKET_IFNAME=enp1s0f0np0
exportOMPI_MCA_btl_tcp_if_include=enp1s0f0np0
#指定物理端口1/路徑A的設(shè)備標(biāo)識
exportNCCL_IB_HCA=rocep1s0f0
mpirun-np2
 -host192.168.10.10:1,192.168.10.11:1
 -x LD_LIBRARY_PATH
 -x NCCL_IB_HCA
 $HOME/nccl-tests/build/all_reduce_perf -b1M -e512M -f2-g1

測試結(jié)果:在單路徑 All-Reduce 測試中,512MB 大消息量下達(dá)到的12.08 GB/s總線帶寬。

1744d088-c38b-11f0-8c8f-92fbcf53809c.jpg

▲ 測試結(jié)果截圖

4.6 All-reduce 帶寬測試(雙路徑)

# 指定物理端口1/路徑A和路徑B enp1s0f0np0,enP2p1s0f0np0 作為通信接口
exportUCX_NET_DEVICES=enp1s0f0np0,enP2p1s0f0np0
exportNCCL_SOCKET_IFNAME=enp1s0f0np0,enP2p1s0f0np0
exportOMPI_MCA_btl_tcp_if_include=enp1s0f0np0,enP2p1s0f0np0
#指定兩個路徑的設(shè)備標(biāo)識


exportNCCL_IB_HCA=rocep1s0f0,roceP2p1s0f0
mpirun-np2
 -host192.168.10.10:1,192.168.10.11:1
 -x LD_LIBRARY_PATH
 -x NCCL_IB_HCA
 $HOME/nccl-tests/build/all_reduce_perf -b1M -e512M -f2-g1

測試結(jié)果:在雙路徑 All-Reduce 測試中,512MB 大消息量下達(dá)到的18.02 GB/s總線帶寬。

179fc9b6-c38b-11f0-8c8f-92fbcf53809c.jpg

▲ 測試結(jié)果截圖

5測試總結(jié)與分析

根據(jù)以上測試,可以得出以下關(guān)鍵結(jié)論:

配置確認(rèn):DGX Spark 上的 ConnectX-7 網(wǎng)卡確實因 socket 直通呈現(xiàn)為 4 個邏輯接口。

硬件能力驗證(ib_write_bw):原始帶寬測試(ib_write_bw)結(jié)果(185-196 Gbit/s)表明,無論是通過單物理端口還是雙物理端口,該網(wǎng)卡均能提供接近 200 Gbps 的聚合吞吐能力,符合硬件設(shè)計預(yù)期。

NCCL 性能分析:在單物理端口(雙路徑)上運(yùn)行時,All-Gather 操作針對超大消息量實現(xiàn)了22.68 GB/s的平均總線帶寬,展現(xiàn)了其在高并行通信場景下出色的數(shù)據(jù)聚合與分發(fā)吞吐能力。All-Reduce 測試中,512MB 大消息量下達(dá)到的18.02 GB/s總線帶寬,是當(dāng)前系統(tǒng)通信性能的真實峰值,反映了 NCCL 算法與硬件互聯(lián)在高負(fù)載下的真實吞吐能力。

更多關(guān)于 DGX Spark 的使用指南、測試報告等,將在麗臺科技公眾號持續(xù)發(fā)布,敬請保持關(guān)注!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5594

    瀏覽量

    109749
  • 網(wǎng)卡
    +關(guān)注

    關(guān)注

    4

    文章

    339

    瀏覽量

    28910
  • 端口
    +關(guān)注

    關(guān)注

    4

    文章

    1104

    瀏覽量

    33966
  • SPARK
    +關(guān)注

    關(guān)注

    1

    文章

    108

    瀏覽量

    21240

原文標(biāo)題:網(wǎng)卡配置與性能驗證:當(dāng) NVIDIA DGX Spark 遇上 ConnectX-7 200G

文章出處:【微信號:Leadtek,微信公眾號:麗臺科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA DGX Spark系統(tǒng)恢復(fù)過程與步驟

    使用 NVIDIA DGX Spark 的過程中,可能會出現(xiàn)配置故障,而導(dǎo)致開發(fā)中斷的問題,本篇教程將帶大家了解如何一步步完成系統(tǒng)恢復(fù)。
    的頭像 發(fā)表于 11-28 09:46 ?5205次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>系統(tǒng)恢復(fù)過程與步驟

    NVIDIA DGX Spark快速入門指南

    NVIDIA DGX Spark 已正式向 AI 開發(fā)者交付,對于剛?cè)胧值娜?DGX Spark,該如何進(jìn)行初始化設(shè)置?本篇文章將引導(dǎo)您完
    的頭像 發(fā)表于 11-17 14:11 ?6058次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>快速入門指南

    Microchip發(fā)布專為NVIDIA DGX Spark而設(shè)計的MEC1723嵌入式控制器定制固件

    DGX Spark個人AI超級計算機(jī)定制設(shè)計的 MEC1723嵌入式控制器(EC)固件 ,進(jìn)一步優(yōu)化MEC1723 ECNVIDIA DGX
    的頭像 發(fā)表于 01-15 18:51 ?6.6w次閱讀
    Microchip發(fā)布專為<b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>而設(shè)計的MEC1723嵌入式控制器定制固件

    nvidia收購mellanox

    nvidia收購mellanox,目錄Mellanox能給英偉達(dá)帶來什么?mellanox以太網(wǎng)卡以太網(wǎng)卡 - 概述Mellanox 10/25/40/50/56/100/200GbE
    發(fā)表于 07-28 06:22

    NVIDIA ConnectX網(wǎng)卡助力社交網(wǎng)絡(luò)關(guān)鍵任務(wù)的分布式應(yīng)用

    提供高度精確的計時功能,以及跨數(shù)據(jù)中心時間同步功能。 NVIDIA ConnectX-6 Dx 網(wǎng)卡(NIC)的支持下,這項解決方案中的 Time Card 通過精確計時協(xié)議,可以將
    的頭像 發(fā)表于 08-23 11:18 ?2311次閱讀

    NVIDIA ConnectX智能網(wǎng)卡驅(qū)動RDMA通訊技術(shù)分布式存儲的應(yīng)用

    NVIDIA ConnectX 智能網(wǎng)卡及開源 UCX 框架幫助網(wǎng)易高性能 RDMA 網(wǎng)絡(luò)通訊功能實現(xiàn)更優(yōu)表現(xiàn),助力網(wǎng)易通過 Curve 開源項目為 Apache BRPC 自主實現(xiàn)高性能的 RDMA 網(wǎng)絡(luò)通訊。
    的頭像 發(fā)表于 11-03 09:48 ?1916次閱讀

    NVIDIA推出搭載GB200 Grace Blackwell超級芯片的NVIDIA DGX SuperPOD?

    NVIDIA 于太平洋時間 3 月 18 日發(fā)布新一代 AI 超級計算機(jī) —— 搭載 NVIDIA GB200 Grace Blackwell 超級芯片的 NVIDIA
    的頭像 發(fā)表于 03-21 09:49 ?2074次閱讀

    NVIDIA 宣布推出 DGX Spark 個人 AI 計算機(jī)

    和聯(lián)想)提供 ? ? ? 美國加利福尼亞州圣何塞 —— GTC —— 太平洋時間 2025 年 3 月 18日 —— NVIDIA 今日發(fā)布了由 NVIDIA Grace Blackwell 平臺驅(qū)動
    發(fā)表于 03-19 09:59 ?787次閱讀
       <b class='flag-5'>NVIDIA</b> 宣布推出 <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b> 個人 AI 計算機(jī)

    NVIDIA GTC2025 亮點 NVIDIA推出 DGX Spark個人AI計算機(jī)

    和聯(lián)想)提供。 NVIDIA 發(fā)布了由 NVIDIA Grace Blackwell 平臺驅(qū)動的 DGX 個人 AI 超級計算機(jī)。 DGX
    的頭像 發(fā)表于 03-20 18:59 ?1630次閱讀
    <b class='flag-5'>NVIDIA</b> GTC2025 亮點  <b class='flag-5'>NVIDIA</b>推出 <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>個人AI計算機(jī)

    NVIDIA發(fā)布AI優(yōu)先DGX個人計算系統(tǒng)

    NVIDIA 宣布,多家行業(yè)領(lǐng)先系統(tǒng)制造商將打造 NVIDIA DGX Spark
    的頭像 發(fā)表于 05-22 09:39 ?1084次閱讀

    NVIDIA DGX Spark桌面AI計算機(jī)開啟預(yù)訂

    DGX Spark 現(xiàn)已開啟預(yù)訂!麗臺科技作為 NVIDIA 授權(quán)分銷商,提供從產(chǎn)品到服務(wù)的一站式解決方案,助力輕松部署桌面 AI 計算機(jī)。
    的頭像 發(fā)表于 09-23 17:20 ?1315次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>桌面AI計算機(jī)開啟預(yù)訂

    NVIDIA DGX Spark新一代AI超級計算機(jī)正式交付

    NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛 SpaceX 向埃隆·馬斯克交付 DGX Spark。
    的頭像 發(fā)表于 10-21 10:41 ?1198次閱讀

    NVIDIA宣布開源Aerial軟件

    NVIDIA 開源其 Aerial 軟件,并將 NVIDIA Sionna 研究套件和 Aerial 測試平臺引入 NVIDIA DGX
    的頭像 發(fā)表于 11-03 15:14 ?916次閱讀

    NVIDIA DGX Spark助力構(gòu)建自己的AI模型

    2025 年 1 月 6 日,NVIDIA 正式宣布其 Project DIGITS 項目,并于 3 月 18 日更名為 NVIDIA DGX Spark,進(jìn)一步公布了產(chǎn)品細(xì)節(jié)。
    的頭像 發(fā)表于 11-21 09:25 ?1170次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>助力構(gòu)建自己的AI模型

    NVIDIA DGX Spark桌面級AI超級計算機(jī)助力開發(fā)者構(gòu)建AI模型

    開源 AI 正在加速各行各業(yè)的創(chuàng)新,NVIDIA DGX Spark 將幫助開發(fā)者將創(chuàng)新轉(zhuǎn)化為影響力。
    的頭像 發(fā)表于 01-09 09:49 ?468次閱讀