chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

MLPerf v1.0培訓基準反映最先進的人工智能應用

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-02 11:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

MLPerf 是一個全行業(yè)人工智能聯(lián)盟,其任務是開發(fā)一套性能基準,涵蓋廣泛使用的一系列主要人工智能工作負載。最新的 mlperfv1 。 0 培訓包括視覺、語言和推薦系統(tǒng),以及強化學習任務。它不斷發(fā)展,以反映最先進的人工智能應用。

NVIDIA 按照我們的傳統(tǒng),提交了所有八個基準的 MLPerf v1 。 0 培訓結果。事實上,建立在 NVIDIA 人工智能平臺上的系統(tǒng)是唯一可以進行全面提交的商用系統(tǒng)。

與之前提交的 MLPerf v0 。 7 相比,我們在芯片到芯片的基礎上提高了 2 。 1 倍,在規(guī)模上提高了 3 。 5 倍。我們創(chuàng)造了 16 項業(yè)績記錄,其中 8 項是基于每個芯片的, 8 項是針對商用解決方案類別的大規(guī)模培訓。

pYYBAGJHw-iAbVZkAABU2nm-QJI086.png

表 1 。 NVIDIA MLPERF AI 記錄。

(*)

(*)使用 NVIDIA 8xA100 服務器訓練時間計算 A100 的每個加速器性能,并將其乘以 8 |每個芯片的性能比較,通過比較最接近的類似規(guī)模下的性能得出其他性能。

根據(jù)加速器記錄: BERT : 1 。 0-1033 | 數(shù)據(jù)鏈路管理: 1 。 0-1037 | 面罩 R-CNN : 1 。 0-1057 | ResNet50 v1 。 5 : 1 。 0-1038 | 固態(tài)硬盤: 1 。 0-1038 | RNN-T : 1 。 0-1060 | 3D U 網(wǎng): 1 。 0-1053 | 迷你們: 1 。 0-1061

最大刻度記錄: BERT : 1 。 0-1077 | 數(shù)據(jù)鏈路管理: 1 。 0-1067 | 面罩 R-CNN : 1 。 0-1070 | ResNet50 v1 。 5 : 1 。 0-1076 | 固態(tài)硬盤: 1 。 0-1072 | RNN-T : 1 。 0-1074 | 3D U 網(wǎng): 1 。 0-1071 | 迷你們: 1 。 0-1075

MLPerf 名稱和徽標是商標。有關詳細信息,請參閱 www.mlperf.org 。

這是以 NVIDIA A100 GPU s 為特色的第二輪 MLPerf 訓練。我們對相同硬件的持續(xù)改進是 NVIDIA 平臺實力和持續(xù)軟件改進承諾的生動證明。與前幾輪 MLPerf 一樣, NVIDIA 工程師開發(fā)了一系列創(chuàng)新,以實現(xiàn)這些新的性能水平:

在所有基準上擴展 CUDA 圖形 。傳統(tǒng)上,神經(jīng)網(wǎng)絡是從 CPU 以單個內核的形式啟動,在 GPU 上執(zhí)行。在 MLPerf v1 。 0 中,我們在 GPU 上啟動了整個內核序列,將與 CPU 的通信最小化。

使用 SHARP 將節(jié)點之間的有效互連帶寬增加一倍。夏普將集合操作從 CPU 和 GPU 卸載到網(wǎng)絡,并消除了在端點之間多次發(fā)送數(shù)據(jù)的需要。

CUDA 圖形和銳利的增強使我們能夠將我們的規(guī)模增加到 4096 GPU 的創(chuàng)紀錄數(shù)字,用于解決單個人工智能網(wǎng)絡。

空間并行性使我們能夠在 8 個 GPU 上分割單個圖像,用于像 3D U-Net 這樣的大規(guī)模圖像分割網(wǎng)絡,并使用更多的 GPU 來獲得更高的吞吐量。

在硬件改進中, NVIDIA A100 GPU 上的新 HBM2e GPU 內存將內存帶寬提高了近 30% ,達到 2 TBps 。

這篇文章提供了許多用于提供出色規(guī)模和性能的優(yōu)化的見解。其中許多改進在 NGC 上可用,它是 NVIDIA GPU 優(yōu)化軟件的中心。您可以在實際應用程序中認識到這些優(yōu)化的好處,而不只是在一旁觀察更好的基準測試分數(shù)。

大規(guī)模訓練

大規(guī)模培訓需要對系統(tǒng)硬件和軟件進行精確調整,以協(xié)同工作,并支持大規(guī)模出現(xiàn)的獨特性能要求。 NVIDIA 在這兩個方面都取得了重大進展,現(xiàn)在可以用于生產(chǎn)。

在系統(tǒng)方面,我們大規(guī)模培訓的關鍵組成部分是 NVIDIA DGX SuperPOD 。 DGX SuperPOD 是 HPC 和 AI 數(shù)據(jù)中心多年專業(yè)經(jīng)驗的結晶。它基于 NVIDIA DGX A100 ,具有最新的 NVIDIA A100 張量核心 GPU 、第三代 NVIDIA NVLink 、 NVSwitch 和 NVIDIA ConnectX-6 VPI 200 Gbps HDR InfiniBand 。這些結合起來,使賽琳娜成為 超級計算機 500 強排行榜 中排名前五的超級計算機,其組件如下:

4480 NVIDIA A100 張量核 GPU s

560 NVIDIA DGX A100 系統(tǒng)

850 Mellanox 200G HDR InfiniBand 交換機

在軟件方面, NGC 容器版本 v 。 21 。 05 增強并支持多種功能:

分布式優(yōu)化器支持增強。

使用 Mellanox HDR Infiniband 和 NCCL 2 。 9 。 9 提高了通信效率。

增加了銳利的支撐。 SHARP 改進了 MPI 和機器學習集體操作的性能。向 NCCL 添加了 SHARP 支持,以將所有 reduce 集體操作卸載到網(wǎng)絡結構中,從而減少節(jié)點之間的數(shù)據(jù)傳輸量。

工作量

在本節(jié)中,我們將深入研究針對選定的單個 MLPerf 工作負載的優(yōu)化。

建議( DLRM )

推薦可以說是當今數(shù)據(jù)中心中最普遍的人工智能工作負載。 NVIDIA MLPerf DLRM 提交基于 HugeCTR ,一個 GPU 加速推薦框架,它是 NVIDIA Merlin 開放測試版框架的一部分。 HugeCTR v3 。 1 測試版增加了以下優(yōu)化:

混合嵌入

優(yōu)化集體

優(yōu)化的數(shù)據(jù)讀取器

帶嵌入的重疊 MLP

全迭代 CUDA 圖

混合嵌入

將 DLRM 擴展到多個節(jié)點的主要挑戰(zhàn)之一是 NVLink 和 Infiniband 之間的 per- GPU all-to-all 帶寬相差約 10 倍。這使得節(jié)點間的嵌入交換成為訓練過程中的一個重要瓶頸。

為了解決這個問題, HugeCTR 實現(xiàn)了混合嵌入,這是一種新的嵌入設計,在進行前向傳遞的嵌入權值交換之前,對一批類別進行重復數(shù)據(jù)消除。在后向通道中進行梯度交換之前,還可以局部減小梯度。

為實現(xiàn)高效的重復數(shù)據(jù)消除,混合嵌入根據(jù)類別的統(tǒng)計訪問頻率將類別映射為頻繁和不頻繁的嵌入。頻繁嵌入是以數(shù)據(jù)并行的方式實現(xiàn)的,它在一個批處理中帶走了大部分復制的類別,減少了嵌入交換的流量。不頻繁嵌入遵循分布式模型并行嵌入范式。這使 DLRM 能夠以前所未有的效率擴展到多個節(jié)點。

pYYBAGJHw3SAEXxKAAC6KdcwBkU385.png

圖 1 。混合嵌入 HugeCTR

優(yōu)化集體

所有到所有和所有減少集體延遲在擴展效率方面起著重要作用。小消息大小的多節(jié)點全對全吞吐量受到 Infiniband 消息速率的限制。為了緩解這種情況, HugeCTR 使用分層的 all-To-all 實現(xiàn)了融合的 NVLink 聚合,以嵌入 exchange 。

poYBAGJHw3SAPytjAAEfp7KjWTk344.png

圖 2 。 ZBK8 中的集體優(yōu)化

您可以從所有節(jié)點到所有節(jié)點進行優(yōu)化,并進一步減少延遲:

直接使用本機 IB verbs API 和 SHARP 來減少庫開銷。

圖形可捕獲, GPU – 啟動通信以減少啟動開銷。

用單側躍遷協(xié)議代替雙側會合協(xié)議來減少網(wǎng)絡跳數(shù)。

使用持久通信緩沖區(qū)消除冗余的消息緩沖區(qū)副本。

直接在 GPU 內存上使用 NIC 原子,而不是通過 CPU 間接定向,減少了 NIC- GPU 同步延遲。

與環(huán)網(wǎng)相比,還使用單次減少算法優(yōu)化了節(jié)點內的所有減少。

頻繁嵌入 all-reduce 和 MLP-all-reduce 融合到一個 all-reduce 操作中,以節(jié)省暴露的 all-reduce 延遲。

優(yōu)化的數(shù)據(jù)讀取器

輸入管道在培訓績效中起著重要的作用。為了達到峰值 I / O 吞吐量, HugeCTR 使用 Linux 異步 I / O 庫( AIO )實現(xiàn)了一個完全異步的數(shù)據(jù)讀取器。由于混合嵌入要求整個批處理出現(xiàn)在所有 GPU 上,因此每個 GPU 的直接主機到設備( H2D )將使 PCIe 成為瓶頸。因此,使用分層方法將數(shù)據(jù)復制到 GPU 上,首先通過 PCIe 執(zhí)行 H2D ,然后通過 NVLink 進行廣播。

pYYBAGJHw3aAPtdRAAFLTuu8z4I500.png

圖 3 。 HugeCTR 多線程數(shù)據(jù)讀取器

此外,來自數(shù)據(jù)讀取器的 H2D 通信可能會干擾節(jié)點間的 all-to-all 并減少通過 PCIe 的通信量。因此, HugeCTR 實現(xiàn)了智能數(shù)據(jù)讀取器調度以避免這種干擾。

帶嵌入的重疊 MLP

由于底層 MLP 與嵌入沒有數(shù)據(jù)依賴關系,因此底層 MLP 的幾個組件可以與嵌入重疊,以有效地利用 GPU 資源。

底部 MLP 正向與嵌入正向過程重疊

頻繁嵌入局部權值更新與所有約簡重疊

MLP 重量更新與節(jié)間全對全重疊

cuBLAS Lt GEMM 融合

HugeCTR 實現(xiàn)了一個融合的、完全連接的層,該層利用了 cublasLt GEMM 融合:

用于 MLP-fprop 的 GEMM + Relu +偏置融合

GEMM + dRelu + dBias 融合治療 MLP-bprop

poYBAGJHw3eAH9ArAALsdO46Ij4642.png

圖 4 。使用 cuBLAS Lt GEMM 熔合的 HugeCTR 中的熔合 FC 層

全迭代 CUDA 圖

為了減少啟動延遲并防止內核啟動、數(shù)據(jù)讀取器和通信流量之間的 PCIe 干擾,所有 DLRM 計算和通信內核都設計為流可捕獲。整個訓練迭代被捕獲到一個 CUDA 圖中。

通過前面的優(yōu)化,我們擴展到多個節(jié)點,并在不到一分鐘的時間內在 14 個 DGX-A100 節(jié)點上完成了 DLRM 訓練任務。與之前提交的 v0 。 7 相比,這是 3 。 3 倍的加速。

NLP ( BERT )

BERT 可以說是當今 NLP 領域最重要的工作負載之一。在 MLPerf v1 。 0 版本中,我們通過以下優(yōu)化改進了 v0 。 7 版本:

融合多頭注意

分布式羔羊

無同步訓練

CUDA graphs in PyTorch

一炮皆減銳利

融合多頭注意

多頭注意塊中激活張量的大小隨序列長度的平方而增大。這會導致內存占用增加,以及由于伴隨的內存訪問操作而導致運行時間延長。我們將 softmax 、掩蔽和退出操作融合到一個內核中,包括前向傳遞和后向傳遞。通過這樣做,我們避免了對多頭注意塊中的大激活張量進行多次內存訪問操作,從而顯著提高了性能。

有關詳細信息,請參閱 NVIDIA Apex 庫中的 SelfMultiheadAttn 。

分布式 LAMB

在這一輪 MLPerf 中,我們實現(xiàn)了分布式 LAMB 。在分布式 LAMB 中,梯度首先在每個 DGX-A100 節(jié)點內的八個 GPU 上分裂。接下來是八個獨立組中的節(jié)點之間的 all reduce 。在這個操作之后,每個 GPU 都有 8 個塊中的一個,這些塊構成了全約化梯度張量, LAMB 優(yōu)化器在 1 / 8 上運行th全梯度張量。

必要時,通過計算局部范數(shù)并執(zhí)行 all-reduce 操作來計算梯度范數(shù)。在優(yōu)化器之后,在每個節(jié)點上執(zhí)行一個 intranode all gather 操作,這樣每個 GPU 都有完整的更新參數(shù)張量。繼續(xù)執(zhí)行下一次迭代的前向傳遞。

分布式 LAMB 極大地提高了單節(jié)點和多節(jié)點配置的性能。有關更多信息,請參閱 Apex 庫中的 DistributedFusedLAMB 。

無同步訓練

在某些情況下, GPU 的執(zhí)行取決于在 CPU 上存儲或計算的某個值。一個例子是當一個特定的張量有一個不同的大小,這取決于每次迭代的計算。因為張量大小信息保存在 CPU 上, GPU 和 CPU 之間必須有一個同步,才能傳遞張量大小信息以進行適當?shù)木彌_區(qū)分配。

我們的解決方案是使用具有固定大小的張量,但使用單獨的布爾掩碼指示哪些元素是有效的。這種方法不需要 CPU – GPU 同步,因為張量大小是已知的。當后續(xù)計算必須知道張量的實際大小時,對于平均運算,布爾掩碼的元素可以在 GPU 上求和。

盡管這種方法導致對 GPU 內存的訪問稍微多一些,但它比在關鍵路徑中進行 CPU 同步要快得多。這種優(yōu)化為小的本地批處理大小帶來了顯著的性能提升,對于我們的 max-scale 配置就是這樣。這是因為 CPU 同步無法跟上小批量的快速 GPU 執(zhí)行。

poYBAGJHw3iAKLsfAABmYoZYdn4142.png

圖 5 。無同步訓練消除了 CPU 同步

CPU – GPU 同步的另一個來源是保存在 CPU 上的數(shù)據(jù),例如學習率或其他可能的優(yōu)化器狀態(tài)。我們將所有優(yōu)化器狀態(tài)保留在 GPU 上,以便分布式 LAMB 實現(xiàn)無同步執(zhí)行。

通過這些優(yōu)化,我們消除了訓練周期中 CPU 和 GPU 之間的所有同步。唯一的同步是發(fā)生在評估點上的同步,以將每個評估點的評估精度實時記錄到一個文件中。

CUDA graphs in PyTorch

傳統(tǒng)上, CPU 單獨啟動每個 GPU 內核。一般來說,即使 GPU 內核對大批量處理做更多的工作, CPU 內核啟動工作和相關的 CPU 開銷保持不變,除非 CPU 調度發(fā)生變化。因此,對于較小的本地批處理大小, CPU 開銷可能成為一個重要的性能瓶頸。這就是我們在 MLPerf 中的 max-scale BERT 配置中發(fā)生的情況。

除此之外,當 CPU 執(zhí)行成為瓶頸時, CPU 執(zhí)行的變化會導致每個迭代的所有 GPU 的運行時不同。當工作負載擴展到多個 GPU 時(在本例中是 4096 個 GPU ),這會帶來很大的同步開銷。每個 GPU 同步每個梯度縮減的迭代,迭代時間由最慢的工人決定。

BERT 圖形是一種功能,它允許一次啟動整個內核序列,消除了內核執(zhí)行之間的 CPU 開銷。 CUDA 圖形最近在 PyTorch 中可用。通過圖捕獲模型,我們消除了 CPU 開銷和伴隨的同步開銷。對于我們的 max-scale CUDA 配置, CUDA Graphs 實現(xiàn)本身就帶來了 1 。 7 倍的性能提升。

一炮皆減銳利

夏普顯著提高了 BERT 的集體性能,特別是我們的最大規(guī)模配置。對于這種 BERT 配置,夏普的端到端性能提升了 17% 。

圖像分類( ResNet-50 v1 。 5 )

ResNet-50 是 MLPerf 工作負載中的老手。在這個版本的 MLPerf 中,我們繼續(xù)通過改進 cuDNN 中的 Conv + BN + ReLu 融合內核來優(yōu)化 ResNet ,并進行以下優(yōu)化:

DALI 優(yōu)化

MXNet 保險絲 BN + ReLu

改進的 MXNet 依賴引擎改進

DALI 優(yōu)化

在 ResNet-50 的大范圍(》 128 個節(jié)點)中,我們將每 GPU 的本地批大小減少到非常小的值。這通常會導致低于 20 毫秒的迭代時間。為了減少數(shù)據(jù)管道的開銷,我們引入了輸入批處理乘數(shù)( IBM )。大批量的 DALI 吞吐量高于小批量。為了利用這個事實,我們創(chuàng)建了比本地批大小大得多的超級批。對于每個迭代,我們從這些超級批中導出所需的樣本,從而增加 DALI 處理吞吐量并減少數(shù)據(jù)管道開銷。

在這些小的迭代時間中,無間隙和連續(xù)執(zhí)行是實現(xiàn)完美縮放的關鍵。 通過提示預分配 DALI 緩沖區(qū) 是我們引入的另一個功能,用于在探索數(shù)據(jù)集時減少動態(tài) GPU 內存分配的開銷。

MXNet 融合了 BN + ReLu 和 BN + Add + ReLu 性能優(yōu)化

對于 ResNet-50 ,批處理范數(shù)( BN )是網(wǎng)絡迭代時間的重要部分。通過矢量化、緩存友好的內存遍歷和減少量化,優(yōu)化了 MXNet 中融合的 BN + ReLu 和 BN + Add + ReLu 核。

改進的 MXNet 依賴引擎改進

新的 MXNet 依賴引擎提供了一種異步方法來調度 GPU 上的工作,減少了主機( CPU )開銷和抖動,例如 MXNet 和 Horovord 握手產(chǎn)生的開銷。

在新的依賴關系引擎中,只要在 GPU 上安排了工作,操作就會更新依賴關系,而不是在工作完成時。后續(xù)操作必須執(zhí)行同步以確保正確性。通過消除對同步的需要并使用 cudaStreamWait 事件來管理依賴關系,這一點得到了進一步的增強。

pYYBAGJHw3qAK7-qAACzhdN9FhA478.png

圖 6 。 ResNet-50 和舊的 MXNet 依賴引擎

poYBAGJHw3qANWwHAAC6-ZZcAS8228.png

圖 7 。 ResNet-50 和新的依賴引擎, cudaStreamWaitEvent

圖像分割( 3D U 網(wǎng))

U-Net3D 是這一輪 MLPerf 訓練的兩個新工作量之一。我們使用了以下優(yōu)化:

空間平行性

異步求值

數(shù)據(jù)加載器

通道上次布局支持

空間平行性

在 3du-Net 中,由于訓練數(shù)據(jù)集中的樣本數(shù)相對較小,因此在原始數(shù)據(jù)并行性的情況下,其可伸縮性有一個基本的限制。為了打破這一限制,我們使用空間平行性將單個圖像分割成八個 GPU s 。在反向傳播結束時,可以像往常一樣減少每個分區(qū)的梯度,以得到合成的梯度,然后可以用來計算權重梯度。

實現(xiàn)空間并行卷積的簡單方法是在運行卷積之前從相鄰的 GPU 傳輸光環(huán)信息。然而,為了提高效率,我們實現(xiàn)了一個不同的方案,在這個方案中,我們從相鄰的 GPU 轉移光環(huán),同時運行主要的內部卷積。這個主卷積的誤差項是用光暈獨立計算出來的,再加上它就得到了結果。通過隱藏傳輸成本,我們看到了比單純方法更好的擴展效率。

pYYBAGJHw3uAX_KPAABzKwkwMSE019.png

圖 8 。 fprop 空間并行卷積

對于反向傳播,類似地, dgrad 操作所需的光暈與權值梯度和數(shù)據(jù)梯度的計算并行傳輸。然后,為數(shù)據(jù)梯度傳輸?shù)墓鈺灡恢匦掠糜谟嬎銠嘀睾蛿?shù)據(jù)梯度的校正項。

poYBAGJHw3yARxWqAAB_pZwfR-U272.png

圖 9 。帶 bprop 的空間并行卷積

3D U-NET 在網(wǎng)絡中間具有瓶頸區(qū)域,其激活大小小得多,不適合于空間并行性。我們使用了一種混合方法,只對從中受益的層使用空間并行性。我們從瓶頸區(qū)域之前的所有 GPU 中收集樣本的激活,并在每個 GPU 上連續(xù)執(zhí)行這些層。當合作變得有益時,我們又把工作分給了 GPU 。這確保了我們?yōu)榫W(wǎng)絡的每個區(qū)域分別做出最佳選擇。

pYYBAGJHw32AWvXSAADY-k5Onak052.png

圖 10 ??臻g并行性在三維 U 網(wǎng)中的應用

異步求值

在參考代碼中,求值貢獻了大量的時間。因為評估可以與訓練同時運行,所以我們?yōu)檫\行評估分配了專用節(jié)點。

為了將評估完全隱藏在訓練周期之后,我們使用了空間并行來加速驗證步驟。此外,由于 evaluation 使用同一組圖像,因此這些圖像只加載一次,然后緩存在 GPU 內存中。

因為評估要到培訓的三分之一時間才會開始,所以評估節(jié)點有足夠的時間加載、處理和緩存數(shù)據(jù)集,以及初始化所有必需的庫。

在訓練周期結束時,訓練節(jié)點使用 InfiniBand 將模型快速傳輸?shù)皆u估節(jié)點,并繼續(xù)運行后續(xù)的訓練迭代。傳遞模型參數(shù)后,求值節(jié)點運行求值。在評估結束時,如果達到目標精度,評估節(jié)點將與訓練節(jié)點通信。

添加的評估節(jié)點數(shù)量剛好足以將整個評估周期隱藏在訓練周期之后。

poYBAGJHw32AJHu0AACYNipDJYU231.png

圖 11 。異步評估計劃

數(shù)據(jù)加載器

我們通過兩種方式優(yōu)化了數(shù)據(jù)加載器:優(yōu)化擴充和緩存數(shù)據(jù)集。

Augmentations :由于數(shù)據(jù)集的小尺寸, 3D U-Net 需要大量的擴充。最昂貴的操作之一是我們稱之為“有偏見的作物”。與隨機裁剪相反,有偏裁剪以給定的概率選擇具有正標簽的區(qū)域。這要求每次選擇昂貴的路徑時,都要對標簽上的三維連接組件進行大量計算。為了避免每次加載示例時都計算連接的組件,結果將緩存在主機中并重用,以便只計算一次。

數(shù)據(jù)加載 :隨著使用新特性的培訓變得更快, I / O 開始成為瓶頸。為了緩解這種情況,我們將整個圖像數(shù)據(jù)集緩存在 GPU 內存中。這將從關鍵數(shù)據(jù)加載程序路徑中移除 PCIe 和 I / O 。當圖像從大而高帶寬 GPU 內存加載時,標簽從 CPU 加載以執(zhí)行增強。

pYYBAGJHw4GAPB9MAAC6Zt5NVKs278.png

圖 12 。 ZFK5 內存上的數(shù)據(jù)緩存

通道上次布局支持

因為 Channels Last 布局對于卷積內核更有效,所以在 MXNet 中添加了對 Channels Last 格式的本機支持。這避免了模型中需要的任何額外轉置,以利用高效的 GPU 內核。

優(yōu)化的 cuDNN 內核

3du-Net 有多個編碼器和解碼器層,信道數(shù)很小。使用 256 的典型平鋪大小× 64 對于這些操作中使用的內核,會產(chǎn)生顯著的分片大小量化效果。為了優(yōu)化這一點, cuDNN 添加了一些內核,這些內核針對較小的磁貼大小進行了優(yōu)化,具有更好的緩存重用性。這有助于 3D-U-Net 實現(xiàn)更好的計算利用率。

除了這些優(yōu)化之外, 3du-Net 還受益于優(yōu)化的 BatchNorm + ReLu 激活內核。使用 BatchSize 值 1 重復運行 BatchNorm 內核以獲得實例 Norm 功能。在 MXNet 、 CUDA 圖形和 SHARP 中實現(xiàn)的異步依賴引擎也顯著提高了性能。

通過對 3D U-Net 進行一系列優(yōu)化,我們將 DGX 擴展到 100 個 A100 節(jié)點( 800 GPU s ),在 80 個節(jié)點( 640 GPU s )上運行訓練,在 20 個節(jié)點( 160 GPU s )上運行評估。與單節(jié)點配置相比, 100 節(jié)點的最大規(guī)模配置獲得了 9 。 7 倍以上的加速比。

目標檢測(輕量級)( SSD

這是輕量 SSD 第四次出現(xiàn)在 MLPerf 中。在這一輪中,評估時間表被改為每五個時代進行一次,從第一個時代開始。在前幾輪中,評估計劃從第 40 個時代開始。即使有額外的計算要求,我們也將提交時間加快了 x1 。 6 以上。

SSD 由許多較小的卷積層組成。如前所述, MXNet 依賴引擎 CUDA 圖的改進以及 SHARP 的啟用對基準測試尤其有影響。

更高效的配置

優(yōu)化評價

更高效的配置

深度學習模型的訓練時間是一個多變量函數(shù)。在其最基本的形式中,方程式如下:

latex.php?latex=Train%5C%3B+Time+%3D+Average%5C%3B+Iteration%5C%3B+Time%5C%3B+%5Ccdot%5C%3B+Number%5C%3B+of%5C%3B+Iterations&bg=ffffff&fg=000&s=1&c=20201002

目標是最小化

latex.php?latex=Train%5C%3B+Time&bg=ffffff&fg=000&s=0&c=20201002

它和

latex.php?latex=Average%5C%3B+Iteration%5C%3B+Time&bg=ffffff&fg=000&s=0&c=20201002

and

latex.php?latex=Number%5C%3B+of%5C%3B+Iterations&bg=ffffff&fg=000&s=0&c=20201002

是批量大小的函數(shù)。

latex.php?latex=Average%5C%3B+Iteration&bg=ffffff&fg=000&s=0&c=20201002

是單調非減函數(shù)。批量大小的計算效率更高,但每次迭代需要更多的時間。

另一方面,

latex.php?latex=Number%5C%3B+of%5C%3B+Iterations&bg=ffffff&fg=000&s=0&c=20201002

在一定的批量大小下,是一個單調的非遞增函數(shù)。更大的批量需要更少的迭代來收斂,因為模型每次迭代看到更多的圖像。

pYYBAGJHw92AAObJAAAZ-y2fQzI530.png

表 2 。使用不同批量大小收斂所需的迭代次數(shù)

( 1 ) MS-COCO 歷元大小為 117266 張圖像 (2 ) 經(jīng)驗值

與我們使用 2048 批量大小的 v0 。 7 提交相比, v1 。 0 批量大小為 3072 ,需要的迭代次數(shù)減少了 22% 。因為較大的迭代只慢了 20% ,結果是收斂速度快了 8% 。

在本例中,將批處理大小改為 4096 而不是 3072 將導致更長的訓練時間。迭代次數(shù)減少 11% 并不能彌補每次迭代額外 20% 的運行時間。

優(yōu)化評價

評估可分為三個階段:

Inference :使用經(jīng)過訓練的模型對驗證數(shù)據(jù)集進行預測。在 GPU 上運行。

Prep : [NEED DESCRIPTION]

Scoring :根據(jù)基本事實評估推理結果。在 CPU 上異步運行。

v1 。 0 中的新評估為基本提交添加了八個驗證周期。更糟糕的是,對 epoch 訓練時間的改進意味著得分需要不到 2 秒或 5 個 epoch 的訓練時間。否則,它不會被完全隱藏,任何訓練時間的改進都是毫無意義的。

為了提高推理時間,我們保證了推理圖是靜態(tài)的。我們改進了非最大值抑制實現(xiàn),并將用于過濾負檢測的布爾掩碼移到圖的外部。靜態(tài)圖節(jié)省了內存重新分配時間,使訓練和推理上下文之間的切換更快。

對于得分,我們使用 nv-cocoapi ,這是一個 C ++實現(xiàn)的 cocoapi 和 60X 倍的速度更快。對于 v1 。 0 ,我們通過多線程結果累積、更快的索引排序和緩存基本真相數(shù)據(jù)結構,將 nv-cocoapi 的性能提高了 2 倍。

目標檢測(重量級)( Mask R-CNN )

我們通過以下技術優(yōu)化了目標檢測:

CUDA graphs in PyTorch

刪除同步點

異步求值

數(shù)據(jù)加載器優(yōu)化

ResNet 層與 cuDNN v8 的更好融合

CUDA graphs in PyTorch

深度學習框架使用 GPU 加速計算,但大量代碼仍在 CPU 內核上運行。 CPU 代碼處理類似張量形狀的元數(shù)據(jù),以準備啟動 GPU 內核所需的參數(shù)。處理元數(shù)據(jù)的成本是固定的,而 GPU 所做的計算工作的成本與批處理大小正相關。對于大批量, CPU 開銷占總運行時成本的百分比可以忽略不計。在小批量時, CPU 開銷可能會大于 GPU 運行時。當這種情況發(fā)生時, GPU 在內核調用之間處于空閑狀態(tài)。

此問題可以在 Nsight Systems 時間軸圖上確定。下圖顯示了在繪圖前每 – GPU 批大小為 1 的掩碼 R-CNN 的“主干”部分。綠色部分顯示 CPU 負載,藍色部分顯示 GPU 負載。在這個配置文件中,您可以看到 CPU 在 100% 負載時達到最大值,而 GPU 大部分時間處于空閑狀態(tài)。 GPU 內核之間有很多空白。

poYBAGJHw4KAKEKkAAB7UurxGr8222.png

圖 13 。遮罩 R-CNN 的右時間軸圖

CUDA graph 是一個工具,當張量形狀是靜態(tài)的時,它可以自動消除 CPU 開銷。在第一步中捕獲所有內核調用的完整圖。在隨后的步驟中,整個圖形通過一個操作啟動,消除了所有的 CPU 開銷。 PyTorch 現(xiàn)在支持 CUDA 圖形,我們使用它來加速 MLPerf 1 。 0 的 Mask R-CNN 。

pYYBAGJHw4OAHZjZAABJ6V6NbLI840.png

圖 14 。 CUDA 圖形優(yōu)化

通過作圖,我們可以看到 GPU 內核被緊密打包, GPU 利用率仍然很高。圖示部分現(xiàn)在以 6 毫秒而不是 31 毫秒的速度運行,速度提高了 5 倍。我們主要只是繪制 ResNet 主干,而不是整個模型。即使在那時,我們看到整個基準的提升超過了 2 倍。

刪除同步點

有許多 PyTorch 模塊使主進程等待 GPU 完成之前啟動的所有內核。這可能對性能有害,因為當 CPU 可以啟動更多內核時,它會處于空閑狀態(tài)。 CPU 可以在低開銷段中領先于 GPU ,并開始從后續(xù)段啟動內核。只要總的 CPU 開銷小于總的 GPU 內核時間, CPU 就永遠不會成為瓶頸,但當引入同步點時,瓶頸就會中斷。而且,具有同步點的模型段不能用 CUDA 圖形表示,因此刪除同步非常重要。

我們?yōu)?mlperf1 。 0 做了一些工作。例如, Trang 。 RangPrm 改寫為使用 CUB 而不是推力,因為后者是同步 C ++模板庫。這些改進在最新的 NGC 容器中提供。

刪除所有同步將 CUDA 圖中的提升從 1 。 6x 提高到 2 。 5x 。

異步求值

我們提交的 mlperf0 。 7 進行了異步評估,但速度不夠快,無法跟上優(yōu)化后的培訓。每個歷元的評估時間為 18 秒,其中 4 秒是完全暴露的時間。如果不更改評估代碼,我們的 at-scale 提交的時間會慢大約 100 秒。

在三個評價階段中,推理和準備占了所有的暴露時間。為了加快推理速度,我們將測試圖像緩存在 GPU 內存中,因為它們永遠不會改變。我們將準備階段移到后臺進程池中,因為測試數(shù)據(jù)集中的每個樣本都可以獨立處理。我們在兩個背景過程中同時對分割模板和框進行評分。這些優(yōu)化將每個歷元的計算時間減少到了~ 4 秒。

數(shù)據(jù)加載器優(yōu)化

該組件在訓練期間加載和增強圖像。在我們提交的 mlperf0 。 7 中,所有數(shù)據(jù)加載工作都由 CPU 內核完成。舊的 dataloader 不夠快,無法跟上優(yōu)化后的培訓。為了解決這個問題,我們開發(fā)了一個混合數(shù)據(jù)加載器。

混合數(shù)據(jù)加載器對 CUDA 上的圖像進行解碼,然后使用 Torchvision 對 GPU 進行圖像增強。為了完全隱藏數(shù)據(jù)加載的代價,我們將 loss 后向調用移到主訓練循環(huán)中的 load next image 調用。由于 CPU 圖形啟動, CPU 在丟失向后調用后空閑了幾毫秒。這是足夠的時間解碼下一個圖像。在 GPU 完成反向傳播之后,它們處于空閑狀態(tài),而優(yōu)化器在梯度上進行所有減少。在此空閑時間內, dataloader 執(zhí)行圖像增強工作。

ResNet 層與 cuDNN v8 的更好融合

ResNet50 的基本構造塊是一個由卷積、批處理范數(shù)和激活函數(shù)組成的三層堆棧。對于 maskr-CNN ,批處理范數(shù)是凍結的,這意味著批處理范數(shù)和激活函數(shù)都是可以融合的逐點操作。

在前幾輪中,我們使用 PyTorch JIT fuser 來融合兩個逐點操作。多虧了 cuDNN v8 中的新融合引擎,我們通過將逐點運算與卷積融合在一起對其進行了改進。 fusion 引擎靈活的 API 還使我們能夠在一個 autograd 函數(shù)下融合所有三個基本層。這讓我們可以繞過定影器的限制,在反向傳播中進行不對稱融合,以獲得更大的性能提升。

poYBAGJHw4OAOD3DAACSxvWpEq0006.png

圖 15 。 cuDNN 圖形 API 將高級 DL 層融合用例降低為細粒度的 CUDA 內核圖形

pYYBAGJHw4SAF03lAAEqWuUMUl4924.png

圖 16 。細粒度的 CUDA 內核圖被進一步轉換為一個高效的張量核融合內核

語音識別( RNN-T )

RNN-T 語音識別是這一輪 MLPerf 訓練中的又一項新任務。我們使用了以下優(yōu)化:

頂點傳感器損耗

頂點傳感器接頭

序列分裂

批量拆分

用 CUDA 圖進行批量評估

cuDNN v8 中更優(yōu)化的 LSTMs

頂點傳感器損耗

RNN-T 使用一種特殊的損耗函數(shù),我們稱之為傳感器損耗函數(shù)。計算損耗的算法本質上是迭代的。由于不規(guī)則的內存訪問模式和暴露的長內存讀取延遲,簡單的實現(xiàn)通常效率低下。

為了克服這個困難,我們開發(fā)了 apex.contrib.transducer.TransducerLoss 。它采用了一種類似于對角線波前的計算范式來開發(fā)算法中的并行性。共享內存和寄存器廣泛用于緩存迭代之間交換的數(shù)據(jù)。 loss 函數(shù)還使用預取來隱藏內存訪問延遲。

頂點傳感器接頭

另一個經(jīng)常出現(xiàn)在傳感器類型網(wǎng)絡中的組件是傳感器聯(lián)合操作。為了加速這個操作,我們開發(fā)了 apex.contrib.transducer.TransducerJoint 。這個 Apex 擴展不僅比其本機的 PyTorch 擴展快,而且還支持輸出打包,減少了后續(xù)層的工作負載。

圖 17 顯示了頂點傳感器接頭的填料操作。在基線聯(lián)合操作中,由于聯(lián)合操作與輸入填充無關,因此輸入序列中的填充被轉移到輸出。在頂點傳感器聯(lián)合操作中,輸出端的填充被移除,減小了饋送給后續(xù)操作的張量的大小。

poYBAGJHw4WAbCJlAAFUJkYH3kQ975.png

圖 17 。 Apex 傳感器接頭填料操作

序列分裂

為了減少填充物上浪費的 LSTM 計算,我們將批處理分為兩個階段(圖 18 )。在第一個過程中,對小批量中的所有樣本進行評估,直到特定的時間步(用黑框括起來)。小批量樣品的一半在第一次通過時完成。另一半樣本的剩余時間步長(用紅色框括起來)在第二遍中進行評估。用藍色框括起來的區(qū)域表示批量拆分的節(jié)省。

pYYBAGJHw4aAflRpAAD4e925PnA095.png

圖 18 。序列分裂

圖 18 中的黑色虛線估計了 GPU 所看到的工作量。因為第二遍的批處理大小減少了一半, GPU 看到的工作負載大約減少了一半。在 multi- GPU 訓練中,通常是最慢的 GPU 限制了訓練吞吐量。虛線是從具有大多數(shù)工作負載的 GPU 中獲得的。

為了減輕這種負載不平衡,我們采用了一種稱為預排序的技術,即根據(jù)序列長度對小批量中的樣本進行排序。最長和最短的序列放在同一個 GPU 上以平衡工作負載。這背后的直覺是,具有長序列的 GPU 可能是瓶頸。因此,短序列也應該放在這些 GPU 上,以最大限度地發(fā)揮序列分裂的優(yōu)勢。

批量拆分

RNN-T 有一個有趣的網(wǎng)絡結構,其中 LSTM 處理相對較小的張量,而聯(lián)合網(wǎng)絡則處理更大的張量。為了使 LSTMs 能夠更有效地以大批量運行,同時不超過 GPU 內存容量,我們采用了一種稱為批處理拆分的技術(圖 17 )。我們使用了一個相當大的批量大小,這樣 LSTMs 就獲得了相當高的 GPU 利用率。相比之下,聯(lián)合網(wǎng)絡對批處理的一部分進行操作,并逐個遍歷這些子批。

在圖 19 中,使用了 2 的批次分割因子。在這種情況下,輸入到 LSTMs 和聯(lián)合網(wǎng)的批量大小分別是 B 和 B / 2 。因為在反向傳播完成后,除了權值的梯度之外,關節(jié)網(wǎng)絡生成的所有張量都不再需要,所以可以釋放它們并為循環(huán)中的下一個子批次創(chuàng)建空間。

poYBAGJHw4aALo-vAADfXH0ZxN0152.png

圖 19 批量拆分

用 CUDA 圖進行批量評估

除了加速訓練, RNN-T 的評估也被仔細審查。 RNN-T 的評估本質上是迭代的,預測網(wǎng)絡的評估是逐步進行的。批處理 MIG 中的每個示例在同一時間步中選擇不同的代碼路徑,具體取決于執(zhí)行結果。因此,簡單的實現(xiàn)會導致較低的 GPU 利用率和較長的評估時間,與培訓本身相當。

為了克服這些困難,我們在評估中進行了兩類優(yōu)化。第一個優(yōu)化在批處理模式下執(zhí)行評估,并使用謂詞處理批處理中的不同控制流。第二個優(yōu)化繪制了主 RNN-T 評估循環(huán),該循環(huán)由許多短 GPU 核組成。我們還使用循環(huán)展開和重疊 CPU – GPU 通信與 GPU 執(zhí)行來分攤相關的開銷。優(yōu)化后的評估速度比單節(jié)點配置的參考代碼快 100 倍以上,比最大規(guī)模配置快 30 倍以上。

cuDNN v8 中更優(yōu)化的 LSTMs

LSTM 是 RNN-T 的主要構造塊。端到端網(wǎng)絡時間的很大一部分花在 LSTMs 上。在 cuDNN v8 中, LSTMs 的性能得到了極大的優(yōu)化。例如,將更好的水平融合算法和啟發(fā)式算法應用于 LSTM 單元中的 gemm 和 LSTM 層之間的 drop-out ,提高了性能并減少了 drop-out 帶來的開銷。

概括

MLPerf v1 。 0 展示了人工智能領域的不斷創(chuàng)新。 NVIDIA 人工智能平臺通過硬件、數(shù)據(jù)中心技術和軟件的緊密集成,提供領先的性能,以充分發(fā)揮人工智能的潛力。

自第一個 MLPerf 訓練基準啟動以來的過去兩年半時間里, NVIDIA 性能提高了近 7 倍。 NVIDIA 平臺在性能和可用性方面都非常出色,提供了從數(shù)據(jù)中心到邊緣再到云的單一領導平臺。

所有用于 NVIDIA 提交的軟件都可以從 MLPerf 存儲庫獲得,以使您能夠重現(xiàn)我們的基準測試結果。我們不斷地將這些最前沿的 MLPerf 改進添加到我們的深度學習框架容器中,這些容器可以在 NGC 上找到,它是我們的 GPU 優(yōu)化應用程序的軟件中心。

關于作者

Vinh Nguyen 是一位深度學習的工程師和數(shù)據(jù)科學家,發(fā)表了 50 多篇科學文章,引文超過 2500 篇。在 NVIDIA ,他的工作涉及廣泛的深度學習和人工智能應用,包括語音、語言和視覺處理以及推薦系統(tǒng)。

Sukru Burc Eryilmaz 是 NVIDIA 計算機體系結構的高級架構師,他致力于在單節(jié)點和超級計算機規(guī)模上改進神經(jīng)網(wǎng)絡訓練的端到端性能。他從斯坦福大學獲得博士學位,并從比爾肯特大學獲得學士學位。

Davide Del Testa 是 NVIDIA 汽車解決方案架構師團隊的成員,他支持客戶構建基于 NVIDIA 驅動平臺的自主駕駛架構。在此之前,他是 NVIDIA 的深度學習研究實習生,在那里他應用深度學習技術開發(fā) BB8 , NVIDIA 的研究工具。 Davide 擁有應用于電信的機器學習博士學位,他在網(wǎng)絡優(yōu)化和信號處理領域采用了學習技術。他在意大利帕多瓦大學獲得電信工程碩士學位。

Shar Narasimhan 是 AI 的高級產(chǎn)品營銷經(jīng)理,專門從事 NVIDIA 的 Tesla 數(shù)據(jù)中心團隊的深度學習培訓和 OEM 業(yè)務。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5565

    瀏覽量

    109370
  • 數(shù)據(jù)中心

    關注

    17

    文章

    5583

    瀏覽量

    74807
  • 人工智能
    +關注

    關注

    1814

    文章

    49951

    瀏覽量

    263595
  • MLPerf
    +關注

    關注

    0

    文章

    37

    瀏覽量

    951
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    嵌入式系統(tǒng)中的人工智能

    本文編譯自ElectronicDesign人工智能(AI)正徹底變革嵌入式系統(tǒng),改變技術融入日常生活的方式。如今的人工智能不再局限于執(zhí)行基礎任務,它還被應用于智能汽車、工業(yè)自動化、醫(yī)療設備和
    的頭像 發(fā)表于 12-18 11:49 ?895次閱讀
    嵌入式系統(tǒng)中<b class='flag-5'>的人工智能</b>

    【產(chǎn)品介紹】Altair RapidMiner數(shù)據(jù)分析與人工智能平臺

    AltairRapidMiner賦能組織解鎖數(shù)據(jù)洞察,運用數(shù)據(jù)分析和先進的人工智能自動化,提供可擴展的面向未來的解決方案。Altair數(shù)據(jù)分析和人工智能平臺包括數(shù)據(jù)準備、數(shù)據(jù)科學、MLOps、編排
    的頭像 發(fā)表于 09-18 17:56 ?750次閱讀
    【產(chǎn)品介紹】Altair RapidMiner數(shù)據(jù)分析與<b class='flag-5'>人工智能</b>平臺

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    的框架小 10 倍,速度也快 10 倍,甚至可以在最先進的邊緣設備上進行人工智能處理。在這篇博文中,我們將介紹這對開發(fā)人員意味著什么,以及使用 Neuton 模型如何改進您的開發(fā)和終端
    發(fā)表于 08-31 20:54

    Andes晶心科技推出AutoOpTune v1.0提升開發(fā)效率

    Andes AutoOpTune v1.0 可自動探索并選擇優(yōu)化編譯程序選項,協(xié)助軟件開發(fā)人員在效能與程序代碼大小間取得最佳平衡,加速整體開發(fā)流程。
    的頭像 發(fā)表于 08-18 10:23 ?1050次閱讀

    請問是否可以將 Nu-Link2-Me V1.0 的固件升級到 V2.0?

    我目前有一個 NuMaker-M251KG V1.1 板,我正在嘗試將其連接到 Crossworks for ARM IDE 并運行它。但是,它沒有連接。 NuMaker-M433SE V1.0
    發(fā)表于 08-18 08:09

    瑞芯微RV1126&RV1109替換RV1126B-P說明_V1.0

    瑞芯微RV1126&RV1109替換RV1126B-P說明_V1.0目前RV1109/1126已停產(chǎn)可提供新版本樣品與技術支持
    發(fā)表于 08-11 12:02 ?2次下載

    挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器

    的深度學習,構建起從基礎到前沿的完整知識體系,一門實驗箱就能滿足多門課程的學習實踐需求,既節(jié)省經(jīng)費又不占地 。 五、代碼全開源,學習底層算法 所有實驗全部開源,這對于想要深入學習人工智能技術的人來說
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!

    的深度學習,構建起從基礎到前沿的完整知識體系,一門實驗箱就能滿足多門課程的學習實踐需求,既節(jié)省經(jīng)費又不占地 。 五、代碼全開源,學習底層算法 所有實驗全部開源,這對于想要深入學習人工智能技術的人來說
    發(fā)表于 08-07 14:23

    OAH0428 V1.0英文規(guī)格書

    電子發(fā)燒友網(wǎng)站提供《OAH0428 V1.0英文規(guī)格書.pdf》資料免費下載
    發(fā)表于 08-06 15:52 ?17次下載

    超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學習模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進的邊緣設備上進行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會發(fā)展的當下,無論是探索未來職業(yè)方向,還是更新技術儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能助手,到課堂用于學術研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10

    深控數(shù)據(jù)平臺V1.0發(fā)布!以IoT之力重塑工廠“數(shù)據(jù)脈絡”

    自主研發(fā)的“深控數(shù)據(jù)平臺V1.0”(軟著登記號:XXXXXXXX),以IoT技術為核心,打造“全域感知-智能分析-精準控制”的一體化平臺。
    的頭像 發(fā)表于 05-28 14:56 ?524次閱讀

    開售RK3576 高性能人工智能主板

    ,HDMI-4K 輸出,支 持千兆以太網(wǎng),WiFi,USB 擴展/重力感應/RS232/RS485/IO 擴展/I2C 擴展/MIPI 攝像頭/紅外遙控 器等功能,豐富的接口,一個全新八核擁有超強性能的人工智能
    發(fā)表于 04-23 10:55

    支持實時物體識別的視覺人工智能微處理器RZ/V2MA數(shù)據(jù)手冊

    DRP-AI 采用了一種由動態(tài)可重構處理器(DRP)和 AI-MAC組成的人工智能加速器,該加速器可加速人工智能推理,實現(xiàn)高速的人工智能推理和低功耗,無需散熱器或散熱風扇就能進行實時圖像人工智
    的頭像 發(fā)表于 03-18 18:12 ?832次閱讀
    支持實時物體識別的視覺<b class='flag-5'>人工智能</b>微處理器RZ/<b class='flag-5'>V</b>2MA數(shù)據(jù)手冊

    主機處理器板DSI MIPI輸出是否與DLPC3430的DSI輸入匹配?就是v1.0V1.2是否兼容?

    DLPC3430和DLPC3433控制器實現(xiàn)DSI v1.02.00和D-PHY MIPI v1.0,主機處理器DSI變送器的DSI適用標準為MIPI聯(lián)盟規(guī)范,DSIV1.2和MIPI D-PHY
    發(fā)表于 02-25 06:29