chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Triton助力騰訊PCG加速在線推理

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-05-20 15:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

案例簡介

本案例中通過NVIDIA T4 GPU,通過Ronda平臺調用Triton以及TensorRT, 整體提升開發(fā)和推理效能, 幫助騰訊PCG的多個服務整體效能提升2倍,吞吐量最大提升6倍,同時降低了40%的延時。本案例主要應用到 NVIDIA T4 GPU、TensorRT和Triton。

本案例主要應用到 NVIDIA T4 GPU、TensorRT和Triton。

客戶簡介及應用背景

騰訊平臺與內容事業(yè)群(簡稱 騰訊PCG)負責公司互聯(lián)網平臺和內容文化生態(tài)融合發(fā)展,整合QQ、QQ空間等社交平臺,和應用寶、瀏覽器等流量平臺,以及新聞資訊、視頻、體育、直播、動漫、影業(yè)等內容業(yè)務,推動IP跨平臺、多形態(tài)發(fā)展,為更多用戶創(chuàng)造海量的優(yōu)質數字內容體驗。

騰訊PCG機器學習平臺部旨在構建和持續(xù)優(yōu)化符合PCG技術中臺戰(zhàn)略的機器學習平臺和系統(tǒng),提升PCG機器學習技術應用效率和價值。建設業(yè)務領先的模型訓練系統(tǒng)和算法框架;提供涵蓋數據標注、模型訓練、評測、上線的全流程平臺服務,實現(xiàn)高效率迭代;在內容理解和處理領域,輸出業(yè)界領先的元能力和智能策略庫。機器學習平臺部正服務于PCG所有業(yè)務產品。

客戶挑戰(zhàn)

業(yè)務繁多,場景復雜

業(yè)務開發(fā)語言包括C++/Python

模型格式繁多,包括ONNX、Pytorch、TensorFlow、TensorRT等

模型預處理涉及圖片下載等網絡io

多模型融合流程比教復雜,涉及循環(huán)調用

支持異構推理

模型推理結果異常時,難以方便地調試定位問題

需要與公司內現(xiàn)有協(xié)議/框架/平臺進行融合

應用方案

基于以上挑戰(zhàn),騰訊PCG選擇了采用NVIDIA 的Triton推理服務器,以解決新場景下模型推理引擎面臨的挑戰(zhàn),在提升用戶研效的同時,大幅降低了服務成本。

NVIDIA Triton 是一款開源軟件,對于所有推理模式都可以簡化模型在任一框架中以及任何 GPU 或 CPU 上的運行方式,從而在生產環(huán)境中使用 AI。Triton 支持多模型ensemble,以及 TensorFlow、PyTorch、ONNX 等多種深度學習模型框架,可以很好的支持多模型聯(lián)合推理的場景,構建起視頻、圖片、語音、文本整個推理服務過程,大大降低多個模型服務的開發(fā)和維護成本。

基于C++ 的基礎架構、Dynamic-batch、以及對 TensorRT 的支持,同時配合 T4 的 GPU,將整體推理服務的吞吐能力最大提升 6 倍,延遲最大降低 40%,既滿足了業(yè)務的低延時需求,成本也降低了20%-66%。

通過將Triton編譯為動態(tài)鏈接庫,可以方便地鏈入公司內部框架,對接公司的平臺治理體系。符合C語言規(guī)范的API也極大降低了用戶的接入成本。

借助Python Backend和Custom Backend,用戶可以自由選擇使用C++/Python語言進行二次開發(fā)。

Triton的Tracing能力可以方便地捕捉執(zhí)行過程中的數據流狀態(tài)。結合Metrics 和 Perf Analysis等組件,可以快速定位開發(fā)調試,甚至是線上問題,對于開發(fā)和定位問題的效率有很大提升。

NVIDIA DALI 是 GPU 加速的數據增強和圖像加載庫。DALI Backend可以用于替換掉原來的圖片解碼、resize等操作。FIL Backend也可以替代Python XGBoost模型推理,進一步提升服務端推理性能。

方案效果及影響

借助NVIDIA Triton 推理框架,配合 DALI/FIL/Python 等Backend,以及 TensorRT,整體推理服務的吞吐能力最大提升 6 倍,延遲最大降低 40%。幫助騰訊PCG各業(yè)務場景中,以更低的成本構建了高性能的推理服務,同時更低的延遲降低了整條系統(tǒng)鏈路的響應時間,優(yōu)化了用戶體驗。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5696

    瀏覽量

    110130
  • C++
    C++
    +關注

    關注

    22

    文章

    2131

    瀏覽量

    77407
  • python
    +關注

    關注

    58

    文章

    4888

    瀏覽量

    90320
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA加速計算平臺助力從地球到太空的AI應用

    NVIDIA 今日宣布,其最新一代加速計算平臺正在開啟太空創(chuàng)新的新時代,將為軌道數據中心 (ODC)、地理空間信息收集以及自主太空運行提供 AI 算力。
    的頭像 發(fā)表于 03-18 14:44 ?563次閱讀

    NVIDIA推出BlueField-4 STX存儲架構

    NVIDIA 今日宣布推出 NVIDIA BlueField-4? STX 模塊化參考架構,該架構可助力企業(yè)、云計算及 AI 服務商輕松部署加速存儲基礎設施,以滿足代理式 AI 所需的
    的頭像 發(fā)表于 03-18 14:40 ?293次閱讀

    NVIDIA DGX SuperPOD為Rubin平臺橫向擴展提供藍圖

    NVIDIA DGX Rubin 系統(tǒng)整合了 NVIDIA 在計算、網絡和軟件領域的最新突破,將推理 token 成本降至 NVIDIA Blackwell 平臺的十分之一,可
    的頭像 發(fā)表于 01-14 09:14 ?886次閱讀

    NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發(fā)

    新聞摘要 : l NVIDIA 率先發(fā)布為應對輔助駕駛長尾場景挑戰(zhàn)而設計的開源視覺-語言-動作推理模型(Reasoning VLA);NVIDIA Alpamayo 系列還包含賦能輔助駕駛汽車開發(fā)
    的頭像 發(fā)表于 01-06 09:40 ?521次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Alpamayo 系列開源 AI 模型與工具,<b class='flag-5'>加速</b>安全可靠的<b class='flag-5'>推理</b>型輔助駕駛汽車開發(fā)

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實
    的頭像 發(fā)表于 10-21 11:04 ?1444次閱讀

    NVIDIA 利用全新開源模型與仿真庫加速機器人研發(fā)進程

    ? 由 NVIDIA、Google DeepMind 以及 Disney Research 聯(lián)合開發(fā)的開源物理引擎 Newton,現(xiàn)可在 NVIDIA Isaac Lab 中使用。這一物理引擎將助力
    的頭像 發(fā)表于 09-30 09:52 ?3222次閱讀
    <b class='flag-5'>NVIDIA</b> 利用全新開源模型與仿真庫<b class='flag-5'>加速</b>機器人研發(fā)進程

    什么是AI模型的推理能力

    NVIDIA 的數據工廠團隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎,該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1491次閱讀

    ADI借助NVIDIA Jetson Thor平臺加速人形機器人研發(fā)進程

    當前,人形機器人正逐步邁向實際應用部署階段,其落地節(jié)奏取決于物理智能與實時推理能力的發(fā)展。隨著NVIDIA Jetson Thor平臺的正式面市,Analog Devices, Inc. (ADI)將進一步加速人形機器人與自主移
    的頭像 發(fā)表于 08-29 14:07 ?3509次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?2024次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理</b>模型發(fā)布

    NVIDIA三臺計算機解決方案如何協(xié)同助力機器人技術

    NVIDIA DGX、基于 NVIDIA RTX PRO 服務器的 Omniverse 和 Cosmos,以及 Jetson AGX Thor,正全面加速從人形機器人到機器人工廠等基于物理 AI 的系統(tǒng)的開發(fā),貫穿訓練、仿真和
    的頭像 發(fā)表于 08-27 11:48 ?2626次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    的發(fā)布持續(xù)深化了雙方的 AI 創(chuàng)新合作。NVIDIANVIDIA Blackwell 架構上優(yōu)化了這兩款全新的開放權重模型并實現(xiàn)了推理性能加速,在
    的頭像 發(fā)表于 08-15 20:34 ?2525次閱讀
    <b class='flag-5'>NVIDIA</b>從云到邊緣<b class='flag-5'>加速</b>OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS<b class='flag-5'>推理</b>

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現(xiàn)可借助 RTX 和 NVIDIA
    的頭像 發(fā)表于 07-16 09:16 ?2199次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應用原型驗證與產品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2455次閱讀

    大模型推理顯存和計算量估計方法研究

    上進行了實驗。實驗結果表明,所提出的估計方法具有較高的準確性和實用性。 五、結論 本文針對大模型推理的顯存和計算量估計問題,提出了基于模型結構和硬件加速的估計方法。實驗結果表明,這些方法具有較高的準確性和實用性
    發(fā)表于 07-03 19:43

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?2091次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應用的最佳實踐