chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Triton 系列文章(4):創(chuàng)建模型倉

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:未知 ? 2022-11-15 21:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

推理模型倉(inference model repository)是 Triton 推理服務(wù)器的最基礎(chǔ)元件,如同數(shù)據(jù)庫(database)服務(wù)器必須先創(chuàng)建一個數(shù)據(jù)庫是類似的道理。要使用 Triton 推理服務(wù)器的第一件任務(wù),就是先創(chuàng)建一個模型存儲倉來作為服務(wù)器的組織中心,將所需的模型、配置文件和其他資源都位于這個存儲倉中,才能讓 Triton 進(jìn)行推理任務(wù)。


進(jìn)入https://github.com/triton-inference-server/server/tree/main/docs這個最完整的說明文件區(qū),在“User Guide”里的前 5 個步驟,就是為 Triton 服務(wù)器創(chuàng)建與管理模型倉的任務(wù),依序如下:


  • 創(chuàng)建模型儲存?zhèn)}(Creating a Model Repository)

  • 撰寫模型配置文件(Writing a Model Configuration)

  • 創(chuàng)建模型的流水線(Buillding a Model Pipeline)

  • 管理模型可用性(Managing Model Availablity)

  • 收集服務(wù)器指標(biāo)(Collecting Server Metrics)


本文先帶著讀者創(chuàng)建模型存儲倉,這是執(zhí)行 Triton 服務(wù)器之前必須執(zhí)行的環(huán)節(jié),另外四個部分會在后續(xù)文章中陸續(xù)探索。


這個儲存?zhèn)}的要求相對簡單,只要是常用的文件系統(tǒng)就行,包括企業(yè)內(nèi)部使用的 Windows NTFS 或 Linux ext3/4 文件服務(wù)器,也可以是 Google 云、亞馬遜云、微軟 Asure 之類的網(wǎng)上儲存空間。


Triton 模型倉是以“目錄結(jié)構(gòu)”為主體的方式搭建,將配套的文件放置對應(yīng)的位置里就可以,下面是一個簡單的范例:


目錄結(jié)構(gòu)與文件

├──

│ ├── <1>

│ │ └── model.onnx

│ ├── config.pbtxt

│ └── densenet_labels.txt

└──

├── <1>

│ └── model.graphdef

├── <2>

│ └── model.graphdef

├── config.pbtxt

└── inception_labels.txt

用途說明

根目錄:倉名稱

目錄:模型densenet_onnx

目錄:模型densenet_onnx的版本1

文件:模型densenet_onnx版本1的模型文件

文件:模型densenet_onnx的配置文件

文件:模型densenet_onnx的標(biāo)注文件

目錄:模型inception_graphdef

目錄:模型inception_graphdef版本1

文件:模型inception_graphdef版本1的模型文件

目錄:模型inception_graphdef版本2

文件:模型inception_graphdef版本2的模型文件

文件:模型inception_graphdef的配置文件

文件:模型inception_graphdef的標(biāo)注文件


這個模型倉主要分為以下兩大部分:


1. 目錄結(jié)構(gòu):需要創(chuàng)建以下三層目錄,并根據(jù)各層定義進(jìn)行命名

(1) 第一層“倉名稱”:簡單創(chuàng)建一個文件夾作為模型該模型倉的根路徑,一臺設(shè)備上可以有任意個模型倉,例如 model_repo1、model_repo2;

(2) 第二層“模型名稱”:在模型倉下面根據(jù)模型名稱創(chuàng)建目錄,通常習(xí)慣使用神經(jīng)網(wǎng)絡(luò)名稱_后端種類”的組合格式,例如

  • densenet_onnx 表示為 ONNX 后端的 densenet 網(wǎng)絡(luò)模型;

  • inception_graphdef 表示為 TensorFlow graphdef 后端的 inception 模型。

(3) 第三層“版本號”:用純數(shù)字表示,因為相同的模型可能存在不同訓(xùn)練回合(epoch)、不同精度的多個版本。


2. 文件內(nèi)容:將以下三種文件內(nèi)容,分別放置在對應(yīng)的目錄下

(1)配置文件:放在第二層的模型名稱目錄下,通常命名為 config.pbtxt,每個模型都有各自的配置文件,里面存放著該模型執(zhí)行推理時所需要的信息與參數(shù),是 Triton 模型倉里最重要的部分,主要內(nèi)容將在后面有專門文章提供詳細(xì)說明。

(2)標(biāo)注文件(如果有):放在第二層的模型名稱目錄下,例如 densenet_labels.txt

(3)模型文件:放在第三層的版本目錄下,就是最終執(zhí)行推理功能的神經(jīng)網(wǎng)絡(luò)模型,其附加文件名根據(jù)訓(xùn)練時所用的框架而定,如下所列

  • TensorRT 模型:附加名為 .plan,例如 model.plan

  • ONNX 模型:附加名為 .onnx,例如 model.onnx

  • TorchScript 模型:附加名為 .pt,例如 model.pt

  • TensorFlow 模型:根據(jù)存儲時的方式有 .graphdef 與 .savedmodel 兩種,例如 model.graphdef 或 model.savedmodel

  • OpenVINO 模型:需要由 .xml 與 .bin 組成,例如 model.xml 與 model.bin

  • Python 模型:附加名為 .py,例如 model.py

  • DALI 模型:附加名為 .dali,例如 model.dali


即便是在云存儲上,也只要根據(jù)上述要求創(chuàng)建目錄結(jié)構(gòu),并將各類文件放置在對應(yīng)目錄下,然后啟動 Triton 推理服務(wù)器時使用“--model-repostory=”參數(shù),指向模型倉根路徑的位置就可以,例如以下狀況:


# 在本機(jī)上
tritonserver --model-repository=/home/nvidia/triton/repo1
# 在Google云
tritonserver --model-repository=gs://bucket/triton/repo-google
# 在亞馬遜S3云
tritonserver --model-repository=s3://IP:端口/triton/repo-amazone
# 微軟Azure云
tritonserver--model-repository=as://用戶名/容器名/repo-azure


Triton 服務(wù)器啟動時,會將模型倉下的模型載入計算設(shè)備的內(nèi)存之中,并不需要與模型倉所在服務(wù)器進(jìn)行實時數(shù)據(jù)交換,因此啟動之初會消耗比較多時間,開始執(zhí)行推理計算之后是不會受到網(wǎng)絡(luò)速度影響推理性能。


為了協(xié)助讀者跟容易理解模型倉的使用,我們以 NVIDIA Jetson AGX Orin 設(shè)備作為實驗平臺,先下載https://github.com/triton-inference-server/server開源倉,里面的docs目錄下有個examples/model_repository就是個模型倉范例,里面有 8 個簡單的模型,可以做些簡單的測試與體驗?,F(xiàn)在請執(zhí)行以下指令:


cd$HOME&&mkdirtriton&&cdtriton
git clone https://github.com/triton-inference-server/server
cd server/docs/examples
treemodel_repository


就會看到如下面左方的列表,共有 8 個模型文件夾:


目錄結(jié)構(gòu)與文件

model_repository/

├── densenet_onnx

│ ├── config.pbtxt

│ └── densenet_labels.txt

├── inception_graphdef

│ ├── config.pbtxt

│ └── inception_labels.txt

├── simple

│ ├── 1

│ │ └── model.graphdef

│ └── config.pbtxt

├── simple_dyna_sequence

│ ├── 1

│ │ └── model.graphdef

│ └── config.pbtxt

《中間省略》

└── simple_string

├── 1

│ └── model.graphdef

└── config.pbtxt

用途說明

根目錄:倉名稱為model_repository

目錄:模型densenet_onnx

文件:模型densenet_onnx的配置文件

文件:模型densenet_onnx的標(biāo)注文件

目錄:模型inception_graphdef

文件:模型inception_graphdef的配置文件

文件:模型inception_graphdef的標(biāo)注文件

目錄:模型simple

目錄:模型simple的版本1

文件:模型simple的模型文件

文件:模型simple的配置文件

目錄:模型simple_dyna_sequence

目錄:模型simple_dyna_sequence的版本1

文件:模型simple_dyna_sequence的模型文件

文件:模型simple_dyna_sequence的配置文件

《中間省略》

目錄:模型simple_string

目錄:模型simple_string的版本1

文件:模型simple_string的模型文件

文件:模型simple_string的配置文件


我們可以看到每個文件夾里面都有 1 個獨立的 config.pbtxt 配置文件,而且內(nèi)容都不盡相同,這是針對不同模型所設(shè)置的內(nèi)容與參數(shù)。


在下載的模型倉里的 densenet_onnx 與 inception_graphdef 目錄下,并沒有提供對用的模型文件,因此需要執(zhí)行以下指令將這兩個模型文件下載,并存放在指定位置里:


$  ./fetch_models.sh


現(xiàn)在就能看到在 densenet_onnx 與 inception_graphdef 各生成版本 <1> 目錄,并且各有一個 model.onnx 與 model.graphdef 模型文件。


接下去只要安裝好 Triton 服務(wù)器軟件,就能開始使用這個模型倉來進(jìn)行測試與體驗,這是下一篇文章會帶著大家進(jìn)行安裝的部分。


推薦閱讀

NVIDIA Jetson Nano 2GB 系列文章(1):開箱介紹

NVIDIA Jetson Nano 2GB 系列文章(2):安裝系統(tǒng)

NVIDIA Jetson Nano 2GB 系列文章(3):網(wǎng)絡(luò)設(shè)置及添加 SWAPFile 虛擬內(nèi)存

NVIDIA Jetson Nano 2GB 系列文章(4):體驗并行計算性能

NVIDIA Jetson Nano 2GB 系列文章(5):體驗視覺功能庫



NVIDIA Jetson Nano 2GB 系列文章(6):安裝與調(diào)用攝像頭


NVIDIA Jetson Nano 2GB 系列文章(7):通過 OpenCV 調(diào)用 CSI/USB 攝像頭

NVIDIA Jetson Nano 2GB 系列文章(8):執(zhí)行常見機(jī)器視覺應(yīng)用


NVIDIA Jetson Nano 2GB 系列文章(9):調(diào)節(jié) CSI 圖像質(zhì)量

NVIDIA Jetson Nano 2GB 系列文章(10):顏色空間動態(tài)調(diào)節(jié)技巧

NVIDIA Jetson Nano 2GB 系列文章(11):你應(yīng)該了解的 OpenCV

NVIDIA Jetson Nano 2GB 系列文章(12):人臉定位


NVIDIA Jetson Nano 2GB 系列文章(13):身份識別


NVIDIA Jetson Nano 2GB 系列文章(14):Hello AI World

NVIDIA Jetson Nano 2GB 系列文章(15):Hello AI World 環(huán)境安裝


NVIDIA Jetson Nano 2GB 系列文章(16):10行代碼威力



NVIDIA Jetson Nano 2GB 系列文章(17):更換模型得到不同效果

NVIDIA Jetson Nano 2GB 系列文章(18):Utils 的 videoSource 工具

NVIDIA Jetson Nano 2GB 系列文章(19):Utils 的 videoOutput 工具

NVIDIA Jetson Nano 2GB 系列文章(20):“Hello AI World” 擴(kuò)充參數(shù)解析功能

NVIDIA Jetson Nano 2GB 系列文章(21):身份識別

NVIDIA Jetson Nano 2GB 系列文章(22):“Hello AI World” 圖像分類代碼

NVIDIA Jetson Nano 2GB 系列文章(23):“Hello AI World 的物件識別應(yīng)用

NVIDIAJetson Nano 2GB 系列文章(24): “Hello AI World” 的物件識別應(yīng)用

NVIDIAJetson Nano 2GB 系列文章(25): “Hello AI World” 圖像分類的模型訓(xùn)練

NVIDIAJetson Nano 2GB 系列文章(26): “Hello AI World” 物件檢測的模型訓(xùn)練

NVIDIAJetson Nano 2GB 系列文章(27): DeepStream 簡介與啟用

NVIDIAJetson Nano 2GB 系列文章(28): DeepStream 初體驗

NVIDIAJetson Nano 2GB 系列文章(29): DeepStream 目標(biāo)追蹤功能

NVIDIAJetson Nano 2GB 系列文章(30): DeepStream 攝像頭“實時性能”

NVIDIAJetson Nano 2GB 系列文章(31): DeepStream 多模型組合檢測-1

NVIDIAJetson Nano 2GB 系列文章(32): 架構(gòu)說明與deepstream-test范例

NVIDIAJetsonNano 2GB 系列文章(33): DeepStream 車牌識別與私密信息遮蓋

NVIDIA Jetson Nano 2GB 系列文章(34): DeepStream 安裝Python開發(fā)環(huán)境

NVIDIAJetson Nano 2GB 系列文章(35): Python版test1實戰(zhàn)說明

NVIDIAJetson Nano 2GB 系列文章(36): 加入USB輸入與RTSP輸出

NVIDIAJetson Nano 2GB 系列文章(37): 多網(wǎng)路模型合成功能

NVIDIAJetson Nano 2GB 系列文章(38): nvdsanalytics視頻分析插件

NVIDIAJetson Nano 2GB 系列文章(39): 結(jié)合IoT信息傳輸

NVIDIAJetson Nano 2GB 系列文章(40): Jetbot系統(tǒng)介紹

NVIDIAJetson Nano 2GB 系列文章(41): 軟件環(huán)境安裝

NVIDIAJetson Nano 2GB 系列文章(42): 無線WIFI的安裝與調(diào)試

NVIDIAJetson Nano 2GB 系列文章(43): CSI攝像頭安裝與測試

NVIDIAJetson Nano 2GB 系列文章(44): Jetson的40針引腳

NVIDIAJetson Nano 2GB 系列文章(45): I2C總線與PiOLED

NVIDIAJetson Nano 2GB 系列文章(46): 機(jī)電控制設(shè)備的安裝

NVIDIAJetson Nano 2GB 系列文章(47): 組裝過程的注意細(xì)節(jié)

NVIDIAJetson Nano 2GB 系列文章(48): 用鍵盤與搖桿控制行動

NVIDIAJetson Nano 2GB 系列文章(49): 智能避撞之現(xiàn)場演示

NVIDIAJetson Nano 2GB 系列文章(50): 智能避障之模型訓(xùn)練

NVIDIAJetson Nano 2GB 系列文章(51): 圖像分類法實現(xiàn)找路功能

NVIDIAJetson Nano 2GB 系列文章(52): 圖像分類法實現(xiàn)找路功能

NVIDIAJetson Nano 2GB 系列文章(53): 簡化模型訓(xùn)練流程的TAO工具套件

NVIDIA Jetson Nano 2GB 系列文章(54):NGC的內(nèi)容簡介與注冊密鑰

NVIDIA Jetson Nano 2GB 系列文章(55):安裝TAO模型訓(xùn)練工具

NVIDIA Jetson Nano 2GB 系列文章(56):啟動器CLI指令集與配置文件

NVIDIA Jetson Nano 2GB 系列文章(57):視覺類腳本的環(huán)境配置與映射

NVIDIA Jetson Nano 2GB 系列文章(58):視覺類的數(shù)據(jù)格式

NVIDIA Jetson Nano 2GB 系列文章(59):視覺類的數(shù)據(jù)增強(qiáng)

NVIDIA Jetson Nano 2GB 系列文章(60):圖像分類的模型訓(xùn)練與修剪

NVIDIA Jetson Nano 2GB 系列文章(61):物件檢測的模型訓(xùn)練與優(yōu)化

NVIDIA Jetson Nano 2GB 系列文章(62):物件檢測的模型訓(xùn)練與優(yōu)化-2

NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測的模型訓(xùn)練與優(yōu)化-3

NVIDIA Jetson Nano 2GB 系列文章(64):將模型部署到Jetson設(shè)備

NVIDIA Jetson Nano 2GB 系列文章(65):執(zhí)行部署的 TensorRT 加速引擎

NVIDIA Jetson 系列文章(1):硬件開箱

NVIDIA Jetson 系列文章(2):配置操作系統(tǒng)

NVIDIA Jetson 系列文章(3):安裝開發(fā)環(huán)境

NVIDIA Jetson 系列文章(4):安裝DeepStream

NVIDIA Jetson 系列文章(5):使用Docker容器的入門技巧

NVIDIA Jetson 系列文章(6):使用容器版DeepStream

NVIDIA Jetson 系列文章(7):配置DS容器Python開發(fā)環(huán)境

NVIDIA Jetson 系列文章(8):用DS容器執(zhí)行Python范例

NVIDIA Jetson 系列文章(9):為容器接入USB攝像頭

NVIDIA Jetson 系列文章(10):從頭創(chuàng)建Jetson的容器(1)

NVIDIA Jetson 系列文章(11):從頭創(chuàng)建Jetson的容器(2)

NVIDIA Jetson 系列文章(12):創(chuàng)建各種YOLO-l4t容器

NVIDIA Triton系列文章(1):應(yīng)用概論

NVIDIA Triton系列文章(2):功能與架構(gòu)簡介

NVIDIA Triton系列文章(3):開發(fā)資源說明


原文標(biāo)題:NVIDIA Triton 系列文章(4):創(chuàng)建模型倉

文章出處:【微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4084

    瀏覽量

    99162

原文標(biāo)題:NVIDIA Triton 系列文章(4):創(chuàng)建模型倉

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    借助NVIDIA CUDA Tile IR后端推進(jìn)OpenAI Triton的GPU編程

    NVIDIA CUDA Tile 是基于 GPU 的編程模型,其設(shè)計目標(biāo)是為 NVIDIA Tensor Cores 提供可移植性,從而釋放 GPU 的極限性能。CUDA Tile 的一大優(yōu)勢是允許開發(fā)者基于其構(gòu)建自定義的 DS
    的頭像 發(fā)表于 02-10 10:31 ?236次閱讀

    NVIDIA 推出 Nemotron 3 系列開放模型

    新聞?wù)?● Nemotron 3 系列開放模型包含 Nano、Super 和 Ultra 三種規(guī)模,具有極高的效率和領(lǐng)先的精度,適用于代理式 AI 應(yīng)用開發(fā)。 ● Nemotron 3 Nano
    的頭像 發(fā)表于 12-16 09:27 ?623次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Nemotron 3 <b class='flag-5'>系列</b>開放<b class='flag-5'>模型</b>

    NVIDIA攜手Mistral AI發(fā)布全新開源大語言模型系列

    全新 Mistral 3 系列涵蓋從前沿級到緊湊型模型,針對 NVIDIA 平臺進(jìn)行了優(yōu)化,助力 Mistral AI 實現(xiàn)云到邊緣分布式智能愿景。
    的頭像 發(fā)表于 12-13 09:58 ?1233次閱讀

    NVIDIA推動面向數(shù)字與物理AI的開源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語音、安全與輔助駕駛領(lǐng)域的全新 AI 工具,其中包括面向移動出行領(lǐng)域的行業(yè)級開源視覺-語言-動作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發(fā)表于 12-13 09:50 ?1329次閱讀

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗證數(shù)據(jù)生成。借助 NVID
    的頭像 發(fā)表于 12-01 09:25 ?1124次閱讀

    面向科學(xué)仿真的開放模型系列NVIDIA Apollo正式發(fā)布

    用于加速工業(yè)和計算工程的開放模型系列 NVIDIA Apollo 于近日舉行的 SC25 大會上正式發(fā)布。
    的頭像 發(fā)表于 11-25 11:15 ?7.4w次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1772次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2推理<b class='flag-5'>模型</b>發(fā)布

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺 NVIDIA Cosmos 中的關(guān)鍵模型——NVIDIA Cosmos Reason-1-7B。這款先進(jìn)的多模態(tài)大
    的頭像 發(fā)表于 07-09 10:17 ?805次閱讀

    使用NVIDIA Earth-2生成式AI基礎(chǔ)模型革新氣候建模

    NVIDIA 正通過 cBottle(Climate in a Bottle 的簡稱)為這項工作帶來新的突破,這是全球首個專為以公里尺度分辨率模擬全球氣候而設(shè)計的生成式 AI 基礎(chǔ)模型。
    的頭像 發(fā)表于 06-12 15:54 ?1302次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?1868次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    ServiceNow攜手NVIDIA構(gòu)建150億參數(shù)超級助手

    Apriel Nemotron 15B 開源大語言模型 (LLM) 使用 NVIDIA NeMo、NVIDIA Llama Nemotron 開放數(shù)據(jù)集以及 ServiceNow 專業(yè)領(lǐng)域數(shù)據(jù)
    的頭像 發(fā)表于 05-12 15:37 ?924次閱讀

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家模型 (MoE),235B-A22B(總參數(shù) 2,350
    的頭像 發(fā)表于 05-08 11:45 ?2980次閱讀
    <b class='flag-5'>NVIDIA</b>使用Qwen3<b class='flag-5'>系列</b><b class='flag-5'>模型</b>的最佳實踐

    企業(yè)使用NVIDIA NeMo微服務(wù)構(gòu)建AI智能體平臺

    已發(fā)布的 NeMo 微服務(wù)可與合作伙伴平臺集成,作為創(chuàng)建 AI 智能體的構(gòu)建模塊,使用商業(yè)智能與強(qiáng)大的邏輯推理模型 (包括 NVIDIA Llama Nemotron) 處理更多任務(wù)。
    的頭像 發(fā)表于 04-27 15:05 ?1278次閱讀

    英偉達(dá)GTC25亮點:NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    Triton 推理服務(wù)器的后續(xù)產(chǎn)品,NVIDIA Dynamo 是一款全新的 AI 推理服務(wù)軟件,旨在為部署推理 AI 模型的 AI 工廠最大化其 token 收益。它協(xié)調(diào)并加速數(shù)千個 GPU 之間的推理通信,并使用分離服務(wù)將
    的頭像 發(fā)表于 03-20 15:03 ?1230次閱讀

    基于RC熱阻SPICE模型的GaNPX?和PDFN封裝的熱特性建模

    GaN Systems提供RC熱阻模型,使客戶能夠使用SPICE進(jìn)行詳細(xì)的熱模擬。 模型基于有限元分析(FEA)熱模擬創(chuàng)建,并已由GaN Systems驗證。 選擇了考爾(Cauer)模型
    的頭像 發(fā)表于 03-11 18:32 ?1713次閱讀
    基于RC熱阻SPICE<b class='flag-5'>模型</b>的GaNPX?和PDFN封裝的熱特性<b class='flag-5'>建模</b>