chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用NVIDIA TSPP和Triton推理服務器加速模型推理

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-10 17:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在這篇文章中,我們詳細介紹了最近發(fā)布的 NVIDIA 時間序列預測平臺( TSPP ),這是一個設計用于輕松比較和實驗預測模型、時間序列數(shù)據集和其他配置的任意組合的工具。 TSPP 還提供了探索超參數(shù)搜索空間的功能,使用分布式訓練和自動混合精度( AMP )運行加速模型訓練,并在NVIDIA Triton 推理服務器上加速和運行加速模型格式的推理。

事實證明,在理解和管理復雜系統(tǒng)(包括但不限于電網、供應鏈和金融市場)時,使用以前的值準確預測未來的時間序列值至關重要。在這些預測應用中,預測精度的單位百分比提高可能會產生巨大的財務、生態(tài)和社會影響。除了需要精確之外,預測模型還必須能夠在實時時間尺度上運行。

圖 1 :典型滑動窗口時間序列預測問題的描述。每個滑動窗口都由時間序列數(shù)據組成,這些數(shù)據分為過去和未來兩部分。

滑動窗口預測問題,如圖 1 所示,涉及使用先前的數(shù)據和未來值的知識來預測未來的目標值。傳統(tǒng)的統(tǒng)計方法,如 ARIMA 及其變體,或 Holt-Winters 回歸,長期以來一直用于執(zhí)行這些任務的回歸。然而,隨著數(shù)據量的增加和回歸所要解決的問題變得越來越復雜, 深度學習方法已經證明它們能夠有效地表示和理解這些問題。

盡管出現(xiàn)了深度學習預測模型,但從歷史上看,還沒有一種方法可以有效地在任意一組數(shù)據集中試驗和比較時間序列模型的性能和準確性。為此,我們很高興公開開源 NVIDIA 時間序列預測平臺 。

什么是 TSPP ?

時間序列預測平臺是一個端到端的框架,使用戶能夠訓練、調整和部署時間序列模型。其分層配置系統(tǒng)和豐富的功能規(guī)范 API 允許輕松集成和試驗新模型、數(shù)據集、優(yōu)化器和指標。 TSPP 設計用于香草 PyTorch 型號,對云或本地平臺不可知。

圖 2 :NVIDIA 時間序列預測平臺的基本架構。 CLI 向 TSPP 啟動器提供輸入,后者實例化訓練所需的對象(模型、數(shù)據集等),并運行指定的實驗以生成性能和準確性結果。

TSPP 如圖 2 所示,以命令行控制的啟動器為中心。根據用戶對 CLI 的輸入,啟動器可以實例化 hyperparameter 管理器,該管理器可以并行運行一組訓練實驗,也可以通過創(chuàng)建所描述的組件(如模型、數(shù)據集、度量等)來運行單個實驗。

支持的模型

TSPP 默認支持 NVIDIA 優(yōu)化時間融合變壓器 ( TFT )。在 TSPP 中, TFT 訓練可以使用多 GPU 訓練、自動混合精度和指數(shù)移動權重平均來加速??梢允褂蒙鲜鐾评砗筒渴鸸艿啦渴鹉P汀?/p>

TFT 模型是一種混合架構,將 LSTM 編碼和可解釋 transformer 注意層結合在一起。預測基于三種類型的變量:靜態(tài)(給定時間序列的常數(shù))、已知(整個歷史和未來提前知道)、觀察(僅歷史數(shù)據已知)。所有這些變量都有兩種類型:分類變量和連續(xù)變量。除了歷史數(shù)據,我們還向模型提供時間序列本身的歷史值。

通過學習嵌入向量,將所有變量嵌入高維空間。范疇變量嵌入是在嵌入離散值的經典意義上學習的。該模型為每個連續(xù)變量學習一個向量,然后根據該變量的值進行縮放,以便進一步處理。下一步是通過變量選擇網絡( VSN )過濾變量,該網絡根據輸入與預測的相關性為輸入分配權重。靜態(tài)變量用作其他變量的變量選擇上下文,以及 LSTM 編碼器的初始狀態(tài)。

編碼后,變量被傳遞給多頭注意層(解碼器),從而產生最終的預測。整個體系結構與剩余連接交織在一起,門控機制允許體系結構適應各種問題。

圖 3 : TFT 架構圖: Bryan Lim 、 Sercan O.Arik 、 Nicolas Loeff 、 Tomas Pfister ,來自可解釋多地平線時間序列預測的時間融合轉換器, 2019 年。

加速訓練

在使用深度學習模型進行實驗時,訓練加速可以極大地增加在給定時間內可以進行的實驗迭代次數(shù)。時間序列預測平臺提供了通過自動混合精度、多 GPU 訓練和指數(shù)移動權重平均的任意組合來加速訓練的能力。

訓練快速開始

一旦進入 TSPP 容器,運行 TSPP 就很簡單,只需結合數(shù)據集、模型和其他您想要使用的組件調用啟動器。例如,要使用電力數(shù)據集訓練 TFT ,我們只需調用:

Python launch_tspp.py dataset=electricity model=tft criterion=quantile

生成的日志、檢查點和初始配置將保存到輸出中。有關包含更復雜工作流的示例,請參考 repository 文檔。

自動混合精度

自動混合精度( AMP )是深度學習培訓的一種執(zhí)行模式,適用的計算以 16 位精度而不是 32 位精度計算。 AMP 執(zhí)行可以極大地加快深度學習訓練,而不會降低準確性。 AMP 包含在 TSPP 中,只需在啟動呼叫中添加一個標志即可啟用。

多 GPU 訓練

多 GPU 數(shù)據并行訓練通過在所有可用 GPU 上并行運行模型計算來增加全局批量大小,從而加速模型訓練。這種方法可以在不損失模型精度的情況下大大縮短模型訓練時間,尤其是在使用了許多 GPU 的情況下。它通過 PyTorch DistributedDataParallel 包含在 TSPP 中,只需在啟動調用中添加一個元素即可啟用。

指數(shù)移動加權平均

指數(shù)移動加權平均是一種技術,它維護一個模型的兩個副本,一個通過反向傳播進行訓練,另一個模型是第一個模型權重的加權平均。在測試和推理時,平均權重用于計算輸出。實踐證明,這種方法可以縮短收斂時間,提高收斂精度,但代價是模型 GPU 內存需求翻倍。 EMWA 包含在 TSPP 中,只需在啟動調用中添加一個標志即可啟用。

沒有超參數(shù)

模型超參數(shù)調整是深度學習模型的模型開發(fā)和實驗過程中必不可少的一部分。為此, TSPP 包含與 Optuna 超參數(shù)搜索庫的豐富集成。用戶可以通過指定要搜索的超參數(shù)名稱和分布來運行廣泛的超參數(shù)搜索。一旦完成, TSPP 可以并行運行多 GPU 或單 GPU 試驗,直到探索出所需數(shù)量的超參數(shù)選項。

搜索完成時, TSPP 將返回最佳單次運行的超參數(shù),以及所有運行的日志文件。為了便于比較,日志文件是用NVIDIA DLLOGER 生成的,并且易于搜索,并且與張量板繪圖兼容。

可配置性

TSPP 中的可配置性由 Facebook 提供的開源庫 Hydra 驅動。 Hydra 允許用戶使用運行時組合的 YAML 文件定義分層配置系統(tǒng),使啟動運行簡單到聲明“我想用這個數(shù)據集嘗試這個模型”。

特性規(guī)范

特征規(guī)范包含在配置的數(shù)據集部分,是時間序列數(shù)據集的標準描述語言。它對每個表格特征的屬性進行編碼,其中包含關于未來是已知的、觀察到的還是靜態(tài)的、特征是分類的還是連續(xù)的以及更多可選屬性的信息。這種描述語言為模型提供了一個框架,可以根據任意描述的輸入自動配置自己。

組件集成

向 TSPP 添加一個新的數(shù)據集非常簡單,只需為其創(chuàng)建一個功能規(guī)范并描述數(shù)據集本身。一旦定義了特征規(guī)范和其他一些關鍵值,與 TSPP 集成的模型將能夠根據新的數(shù)據集進行配置。

將新模型添加到 TSPP 只需要模型期望特性規(guī)范提供的數(shù)據位于正確的通道中。如果模型正確地解釋了功能規(guī)范,那么模型應該與集成到 TSPP 、過去和未來的所有數(shù)據集一起工作。

除了模型和數(shù)據集, TSPP 還支持任意組件的集成,例如標準、優(yōu)化器和目標度量。通過使用 Hydra 使用 config 直接實例化對象,用戶可以集成他們自己的定制組件,并在 TSPP 發(fā)布時使用該規(guī)范。

推理和部署

推理是任何 Machine Learning 管道的關鍵組成部分。為此, TSPP 內置了推理支持,可與平臺無縫集成。除了支持本機推理, TSPP 還支持將轉換后的模型單步部署到 NVIDIA Triton 推理服務器。

NVIDIA Triton 型號導航器

TSPP 為 NVIDIA Triton 型號導航器 。兼容的模型可以輕松轉換為優(yōu)化的格式,包括 TorchScript 、 ONNX 和 NVIDIA TensorRT 。在同一步驟中,這些轉換后的模型將部署到 NVIDIA Triton 推理服務器 。甚至可以選擇在單個步驟中對給定模型進行剖面分析和生成舵圖。例如,給定一個 TFT 輸出文件夾,我們可以通過使用以下命令導出到 ONNX ,將模型轉換并部署為 fp16 中的 NVIDIA TensorRT 格式:

Python launch_deployment.py export=onnx convert=trt config.inference.precision=fp16 config.evaluator.checkpoint=/path/to/output/folder/

TFT 模型

我們在兩個數(shù)據集上對 TSPP 內的 TFT 進行了基準測試: UCI 數(shù)據集存儲庫中的電力負荷(電力)數(shù)據集和 PEMs 流量數(shù)據集(流量)。 TFT 在兩個數(shù)據集上都取得了很好的結果,在兩個數(shù)據集上都實現(xiàn)了最低的可見誤差,并證實了 TFT 論文作者的評估。

表 1 :

訓練表現(xiàn)

圖 4 和圖 5 分別顯示了電力和交通數(shù)據集上 TFT 的每秒吞吐量。每個批次大小為 1024 ,包含來自同一數(shù)據集中不同時間序列的各種時間窗口。使用自動混合精度計算了 100 次運行。顯然, TFT 在 A100 GPU 上具有優(yōu)異的性能和可擴展性,尤其是與在 96 核 CPU 上執(zhí)行相比。

圖 4:GPU 上電力數(shù)據集的 TFT 訓練吞吐量與 CPU 的對比。 GPU : 8x Tesla A100 80 GB 。 CPU:Intel ( R ) Xeon ( R ) Platinum 8168 CPU @ 2.70GHz ( 96 線程)。

圖 5 。 GPU 上流量數(shù)據集的 TFT 訓練吞吐量與 CPU 。 GPU : 8x Tesla A100 80 GB 。 CPU:Intel ( R ) Xeon ( R ) Platinum 8168 CPU @ 2.70GHz ( 96 線程)。

訓練時間

圖 6 和圖 7 分別顯示了 TFT 在電力和交通數(shù)據集上的端到端訓練時間。每個批次大小為 1024 ,包含來自同一數(shù)據集中不同時間序列的各種時間窗口。使用自動混合精度計算 100 次完成的運行。在這些實驗中,在 GPU 上, TFT 的訓練時間為分鐘,而 CPU 的訓練時間約為半天。

圖 6:TFT 在 GPU 上的電力數(shù)據集上的端到端訓練時間與 CPU 的比較。 GPU : 8x Tesla A100 80 GB 。 CPU:Intel ( R ) Xeon ( R ) Platinum 8168 CPU @ 2.70GHz ( 96 線程)。

圖 7:TFT 在 GPU 上的流量數(shù)據集上的端到端訓練時間與 CPU 的比較。 GPU : 8x Tesla A100 80 GB 。 CPU:Intel ( R ) Xeon ( R ) Platinum 8168 CPU @ 2.70GHz ( 96 線程)。

推理性能

圖 8 和圖 9 展示了電力數(shù)據集上不同批量大小的 A100 80GB GPU 與 96 核 CPU 的相對單設備推理吞吐量和平均延遲。由于較大的批量大小通常產生更大的推斷吞吐量,所以我們考慮 1024 元素批處理結果,其中顯而易見的是, A100 GPU 具有令人難以置信的性能,每秒處理大約 50000 個樣本。此外,更大的批量往往會導致更高的延遲,從 CPU 值可以明顯看出,這似乎與批量成正比。相比之下,與 CPU 相比, A100 GPU 具有接近恒定的平均延遲。

圖 8:TFT 在 GPU vs CPU 上部署到 NVIDIA Triton 推理服務器容器 21.12 時的電量數(shù)據集吞吐量。 GPU :使用 TensorRT 8.2 部署 1x Tesla A100 80 GB 。 CPU :使用 ONNX 部署的雙 AMD Rome 7742 ,總計 128 核@ 2.25 GHz (基本), 3.4 GHz (最大提升)( 256 個線程)。

圖 9:TFT 在 GPU vs CPU 上部署到 NVIDIA Triton 推理服務器容器 21.12 時,電力數(shù)據集的平均延遲。 GPU :使用 TensorRT 8.2 部署 1x Tesla A100 80 GB 。 CPU :使用 ONNX 部署的雙 AMD Rome 7742 ,總計 128 核@ 2.25 GHz (基本), 3.4 GHz (最大提升)( 256 個線程)。

端到端示例

結合前面的例子,我們演示了 TFT 模型在電力數(shù)據集上的簡單訓練和部署。我們首先從源代碼構建并啟動 TSPP 容器:

cd DeeplearningExamples/Tools/PyTorch/TimeSeriesPredictionPlatform source scripts/setup.sh docker build -t tspp . docker run -it --gpus all --ipc=host --network=host -v /your/datasets/:/workspace/datasets/ tspp bash

接下來,我們使用電力數(shù)據集 TFT 和分位數(shù)損耗啟動 TSPP 。我們還讓 10 年的歷次訓練負擔過重。一旦對模型進行了培訓,就會在 outputs /{ date }/{ time }中創(chuàng)建日志、配置文件和經過培訓的檢查點,在本例中為 outputs / 01-02-2022 /:

Python launch_tspp.py dataset=electricity model=tft criterion=quantile config.trainer.num_epochs=10

使用檢查點目錄,可以將模型轉換為 NVIDIA TensorRT 格式,并部署到 NVIDIA Triton 推理服務器。

Python launch_deployment.py export=onnx convert=trt config.evaluator.checkpoint=/path/to/checkpoint/folder/

可利用性

NVIDIA 時間序列預測平臺提供從訓練到時間序列模型的推斷的端到端 GPU 加速。平臺中包含的參考示例經過優(yōu)化和認證,可在 NVIDIA DGX A100 和 NVIDIA 認證系統(tǒng)上運行。

關于作者

Kyle Kranen 是NVIDIA 的深度學習軟件工程師。他在加利福尼亞大學伯克利分校獲得電氣工程和計算機科學學士學位。在NVIDIA ,他的研究目前集中在推薦系統(tǒng)和時間序列建模上。

Pawel Morkisz 是一位深度學習算法經理。他擁有計算數(shù)學博士學位。在NVIDIA ,他專注于推動時間序列和推薦系統(tǒng)的深度學習算法。

Carl (Izzy) Putterman 最近加入 NVIDIA ,擔任深度學習算法工程師。他畢業(yè)于加利福尼亞大學,伯克利在應用數(shù)學和計算機科學學士學位。在 NVIDIA ,他目前致力于時間序列建模和圖形神經網絡,重點是推理。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5444

    瀏覽量

    108559
  • 深度學習
    +關注

    關注

    73

    文章

    5587

    瀏覽量

    123745
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    什么是AI模型推理能力

    NVIDIA 的數(shù)據工廠團隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎,該模型近日在 Hugging Face 的物理
    的頭像 發(fā)表于 09-23 15:19 ?595次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1193次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理模型</b>發(fā)布

    模型推理顯存和計算量估計方法研究

    GPU、FPGA等硬件加速。通過分析硬件加速器的性能參數(shù),可以估算模型在硬件加速下的計算量。 四、實驗與分析 為了驗證上述估計方法的有效性,我們選取了幾個具有代表性的深度學習
    發(fā)表于 07-03 19:43

    基于RAKsmart云服務器的AI大模型實時推理方案設計

    面對高并發(fā)請求、嚴格的響應延遲要求及波動的業(yè)務負載,傳統(tǒng)本地化部署的算力瓶頸愈發(fā)顯著。RAKsmart云服務器憑借其彈性計算資源池、分布式網絡架構與全棧AI加速能力,為AI大模型實時推理
    的頭像 發(fā)表于 05-13 10:33 ?400次閱讀

    AI 推理服務器都有什么?2025年服務器品牌排行TOP10與選購技巧

    根據行業(yè)數(shù)據,AI推理服務器的性能差異可以達到10倍以上。比如,普通服務器跑一個700億參數(shù)的大模型,可能需要30秒才能出結果,而用頂級
    的頭像 發(fā)表于 04-09 11:06 ?6936次閱讀
    AI <b class='flag-5'>推理</b><b class='flag-5'>服務器</b>都有什么?2025年<b class='flag-5'>服務器</b>品牌排行TOP10與選購技巧

    國產推理服務器如何選擇?深度解析選型指南與華頡科技實戰(zhàn)案例

    人工智能技術的爆發(fā)催生了對推理算力的迫切需求,而進口服務器的高成本與技術依賴性,推動了國產推理服務器的快速發(fā)展。據IDC預測,到2025年,中國AI
    的頭像 發(fā)表于 03-24 17:11 ?802次閱讀
    國產<b class='flag-5'>推理</b><b class='flag-5'>服務器</b>如何選擇?深度解析選型指南與華頡科技實戰(zhàn)案例

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    Triton 推理服務器的后續(xù)產品,NVIDIA Dynamo 是一款全新的 AI 推理服務
    的頭像 發(fā)表于 03-20 15:03 ?933次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎設施以及生成式 AI 服務
    發(fā)表于 03-19 15:24 ?440次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作助力企業(yè)<b class='flag-5'>加速</b>代理式 AI <b class='flag-5'>推理</b>

    浪潮信息發(fā)布元腦R1推理服務器

    近日,浪潮信息正式推出了其創(chuàng)新的元腦R1推理服務器。這款服務器通過系統(tǒng)的創(chuàng)新與軟硬件的協(xié)同優(yōu)化,實現(xiàn)了對DeepSeek R1 671B模型的單機部署與運行,為客戶在智能應用部署方面帶
    的頭像 發(fā)表于 02-17 10:32 ?920次閱讀

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1113次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺提高AI<b class='flag-5'>推理</b>性能

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務

    近日,摩爾線程智能科技(北京)有限責任公司在其官方渠道發(fā)布了一則重要消息,宣布公司已經成功實現(xiàn)了對DeepSeek蒸餾模型推理服務的部署。這一技術突破,標志著摩爾線程在人工智能領域邁出了堅實的一步
    的頭像 發(fā)表于 02-06 13:49 ?1096次閱讀

    Triton編譯在機器學習中的應用

    1. Triton編譯概述 Triton編譯NVIDIA Triton
    的頭像 發(fā)表于 12-24 18:13 ?1442次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰(zhàn)。
    的頭像 發(fā)表于 11-15 14:20 ?2010次閱讀
    使用vLLM+OpenVINO<b class='flag-5'>加速</b>大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    高效大模型推理綜述

    模型由于其在各種任務中的出色表現(xiàn)而引起了廣泛的關注。然而,大模型推理的大量計算和內存需求對其在資源受限場景的部署提出了挑戰(zhàn)。業(yè)內一直在努力開發(fā)旨在提高大模型
    的頭像 發(fā)表于 11-15 11:45 ?2091次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    FPGA和ASIC在大模型推理加速中的應用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型
    的頭像 發(fā)表于 10-29 14:12 ?2463次閱讀
    FPGA和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的應用