chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Triton推理服務(wù)器簡化人工智能推理

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Uttara Kumar ? 2022-04-08 16:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能的快速發(fā)展正在推高數(shù)據(jù)集的規(guī)模,以及網(wǎng)絡(luò)的規(guī)模和復(fù)雜性。支持人工智能的應(yīng)用程序,如電子商務(wù)產(chǎn)品推薦、基于語音的助手和呼叫中心自動化,需要數(shù)十到數(shù)百個經(jīng)過培訓(xùn)的人工智能模型。推理服務(wù)幫助基礎(chǔ)設(shè)施管理人員部署、管理和擴(kuò)展這些模型,并在生產(chǎn)中保證實時服務(wù)質(zhì)量( QoS )。此外,基礎(chǔ)架構(gòu)經(jīng)理希望提供和管理用于部署這些 AI 模型的正確計算基礎(chǔ)架構(gòu),最大限度地利用計算資源,靈活地放大或縮小規(guī)模,以優(yōu)化部署的運(yùn)營成本。將人工智能投入生產(chǎn)既是一項推理服務(wù),也是一項基礎(chǔ)設(shè)施管理挑戰(zhàn)。

NVIDIA 與谷歌云合作,將 CPUGPU 通用推理服務(wù)平臺 NVIDIA Triton Inference Server的功能與谷歌 Kubernetes 引擎( GKE )相結(jié)合,使企業(yè)更容易將人工智能投入生產(chǎn)。NVIDIA Triton Inference Server 是一個托管環(huán)境,用于在安全的谷歌基礎(chǔ)設(shè)施中部署、擴(kuò)展和管理容器化人工智能應(yīng)用程序。

使用 NVIDIA Triton 推理服務(wù)器在谷歌云上的 CPU 和 GPU 上提供推理服務(wù)

在企業(yè)應(yīng)用程序中操作 AI 模型帶來了許多挑戰(zhàn)——為在多個框架中培訓(xùn)的模型提供服務(wù),處理不同類型的推理查詢類型,并構(gòu)建一個能夠跨 CPU 和 GPU 等多個部署平臺進(jìn)行優(yōu)化的服務(wù)解決方案。

Triton 推理服務(wù)器通過提供一個單一的標(biāo)準(zhǔn)化推理平臺來解決這些挑戰(zhàn),該平臺可以從任何基于 TensorFlow 、TensorRT、 PyTorch 、 ONNX 運(yùn)行時、 OpenVINO 或自定義 C ++/ Python 框架的本地存儲或谷歌云的托管存儲在任何基于 GPU 或 CPU 的基礎(chǔ)設(shè)施上部署經(jīng)過培訓(xùn)的 AI 模型。

圖 1 Triton 部署在 Google Kubernetes 引擎( GKE )上的推理服務(wù)器

在 GKE 集群上一鍵部署 NVIDIA Triton 推理服務(wù)器

Google Kubernetes Engine ( GKE )上的 Triton 為部署在 CPU 和 GPU 上的 AI 模型提供了通用推理服務(wù)平臺,并結(jié)合了 Kubernetes 群集管理、負(fù)載平衡和基于需求的自動縮放計算的方便性。

使用谷歌市場上新的一鍵式 Triton GKE 推理服務(wù)器應(yīng)用程序,可以將 Triton 無縫部署為 Google Kubernetes Engine ( GKE )管理的集群上的容器化微服務(wù)。

GKE 的 Triton 推理服務(wù)器應(yīng)用程序是一個 helm chart 部署程序,可自動安裝和配置 Triton ,以便在具有 NVIDIA GPU 節(jié)點池的 GKE 集群上使用,包括 NVIDIA A100 Tensor Core GPU s 和 NVIDIA T4 Tensor Core GPU s ,并利用谷歌云上的 Istio 進(jìn)行流量進(jìn)入和負(fù)載平衡。它還包括一個水平 pod autoscaler ( HPA ),它依賴堆棧驅(qū)動程序自定義度量適配器來監(jiān)控 GPU 占空比,并根據(jù)推理查詢和 SLA 要求自動縮放 GKE 集群中的 GPU 節(jié)點。

關(guān)于作者

Uttara Kumar 是 NVIDIA 的高級產(chǎn)品營銷經(jīng)理,專注于 GPU - 云計算中的人工智能加速應(yīng)用。她非常關(guān)心讓每個人都能獲得技術(shù)的民主化,讓開發(fā)者能夠利用 NVIDIA 數(shù)據(jù)中心平臺的力量來加快創(chuàng)新步伐。在 NVIDIA 之前,她領(lǐng)導(dǎo)半導(dǎo)體和科學(xué)計算軟件公司的軟件產(chǎn)品營銷。她擁有安娜堡密歇根大學(xué)的 Eel CTR 工程碩士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11187

    瀏覽量

    221292
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    10000

    瀏覽量

    90127
  • 人工智能
    +關(guān)注

    關(guān)注

    1811

    文章

    49498

    瀏覽量

    258200
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Lambda采用Supermicro NVIDIA Blackwell GPU服務(wù)器集群構(gòu)建人工智能工廠

    大批量 Supermicro GPU 優(yōu)化服務(wù)器(包括基于 NVIDIA Blackwell 的系統(tǒng)),以擴(kuò)展其人工智能基礎(chǔ)設(shè)施并向客戶交付高性能計算系統(tǒng)。此次合作于今年 6 月率先在俄亥俄州哥倫布市的 Cologix COL4
    的頭像 發(fā)表于 08-30 16:55 ?481次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1173次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理</b>模型發(fā)布

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    DeepSeek-R1:強(qiáng)大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開發(fā)的新一代AI大模型。其核心優(yōu)勢在于強(qiáng)大的推理引擎能力,融合了自然語言處理(NLP)、深度
    發(fā)表于 07-16 15:29

    大模型推理顯存和計算量估計方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過程對顯存和計算資源的需求較高,給實際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文將探討大模型推理顯存和計算量的估計
    發(fā)表于 07-03 19:43

    ai服務(wù)器是什么?與普通服務(wù)器有什么區(qū)別

    AI服務(wù)器并非簡單的硬件堆砌,而是專門為人工智能任務(wù)設(shè)計的高性能計算系統(tǒng)。其核心目標(biāo)是高效處理海量數(shù)據(jù)并行計算(如矩陣乘法、模型推理),并針對AI工作負(fù)載(如深度學(xué)習(xí)訓(xùn)練、大模型推理
    的頭像 發(fā)表于 06-24 16:39 ?2253次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?1089次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    AI 推理服務(wù)器都有什么?2025年服務(wù)器品牌排行TOP10與選購技巧

    根據(jù)行業(yè)數(shù)據(jù),AI推理服務(wù)器的性能差異可以達(dá)到10倍以上。比如,用普通服務(wù)器跑一個700億參數(shù)的大模型,可能需要30秒才能出結(jié)果,而用頂級服務(wù)器可能只需要3秒。這就是為什么選對
    的頭像 發(fā)表于 04-09 11:06 ?6843次閱讀
    AI <b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>都有什么?2025年<b class='flag-5'>服務(wù)器</b>品牌排行TOP10與選購技巧

    推理服務(wù)器的7大可靠性指標(biāo),寬溫/抗震/EMC防護(hù)實測數(shù)據(jù)分享

    在 AIoT 設(shè)備突破百億級的今天,邊緣計算推理服務(wù)器已成為智能時代的 "神經(jīng)末梢"。根據(jù) Gartner 預(yù)測,到 2025 年將有 75% 的企業(yè)關(guān)鍵任務(wù)部署在邊緣端。然而,工業(yè)級應(yīng)用場景(如
    的頭像 發(fā)表于 04-02 10:43 ?715次閱讀
    <b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>的7大可靠性指標(biāo),寬溫/抗震/EMC防護(hù)實測數(shù)據(jù)分享

    國產(chǎn)推理服務(wù)器如何選擇?深度解析選型指南與華頡科技實戰(zhàn)案例

    人工智能技術(shù)的爆發(fā)催生了對推理算力的迫切需求,而進(jìn)口服務(wù)器的高成本與技術(shù)依賴性,推動了國產(chǎn)推理服務(wù)器的快速發(fā)展。據(jù)IDC預(yù)測,到2025年,
    的頭像 發(fā)表于 03-24 17:11 ?775次閱讀
    國產(chǎn)<b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>如何選擇?深度解析選型指南與華頡科技實戰(zhàn)案例

    英偉達(dá)GTC25亮點:NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    Triton 推理服務(wù)器的后續(xù)產(chǎn)品,NVIDIA Dynamo 是一款全新的 AI 推理服務(wù)
    的頭像 發(fā)表于 03-20 15:03 ?915次閱讀

    浪潮信息發(fā)布元腦R1推理服務(wù)器

    近日,浪潮信息正式推出了其創(chuàng)新的元腦R1推理服務(wù)器。這款服務(wù)器通過系統(tǒng)的創(chuàng)新與軟硬件的協(xié)同優(yōu)化,實現(xiàn)了對DeepSeek R1 671B模型的單機(jī)部署與運(yùn)行,為客戶在智能應(yīng)用部署方面帶
    的頭像 發(fā)表于 02-17 10:32 ?900次閱讀

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1062次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺提高AI<b class='flag-5'>推理</b>性能

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    近日,摩爾線程智能科技(北京)有限責(zé)任公司在其官方渠道發(fā)布了一則重要消息,宣布公司已經(jīng)成功實現(xiàn)了對DeepSeek蒸餾模型推理服務(wù)的部署。這一技術(shù)突破,標(biāo)志著摩爾線程在人工智能領(lǐng)域邁出
    的頭像 發(fā)表于 02-06 13:49 ?1077次閱讀

    Triton編譯在機(jī)器學(xué)習(xí)中的應(yīng)用

    1. Triton編譯概述 Triton編譯NVIDIA Triton
    的頭像 發(fā)表于 12-24 18:13 ?1411次閱讀

    嵌入式和人工智能究竟是什么關(guān)系?

    領(lǐng)域,如工業(yè)控制、智能家居、醫(yī)療設(shè)備等。 人工智能是計算機(jī)科學(xué)的一個分支,它研究如何使計算機(jī)具備像人類一樣思考、學(xué)習(xí)、推理和決策的能力。人工智能的發(fā)展歷程可以追溯到上世紀(jì)50年代,經(jīng)
    發(fā)表于 11-14 16:39