感謝眾多用戶及合作伙伴一直以來(lái)對(duì)NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開(kāi)發(fā)布!
TensorRT-LLM
持續(xù)助力用戶優(yōu)化推理性能
TensorRT-LLM 可在 NVIDIA GPU 上加速和優(yōu)化最新的大語(yǔ)言模型(Large Language Models)的推理性能。該開(kāi)源程序庫(kù)在 /NVIDIA/TensorRT-LLM GitHub 資源庫(kù)中免費(fèi)提供。
近期,我們收到了許多用戶的積極反饋,并表示,TensorRT-LLM 不僅顯著提升了性能表現(xiàn),還成功地將其應(yīng)用集成到各自的業(yè)務(wù)中。TensorRT-LLM 強(qiáng)大的性能和與時(shí)俱進(jìn)的新特性,為客戶帶來(lái)了更多可能性。
Roadmap 現(xiàn)已公開(kāi)發(fā)布
過(guò)往,許多用戶在將 TensorRT-LLM 集成到自身軟件棧的過(guò)程中,總是希望能更好地了解 TensorRT-LLM 的 Roadmap。即日起,NVIDIA 正式對(duì)外公開(kāi) TensorRT-LLM 的 Roadmap ,旨在幫助用戶更好地規(guī)劃產(chǎn)品開(kāi)發(fā)方向。
我們非常高興地能與用戶分享,TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開(kāi)發(fā)布。您可以通過(guò)以下鏈接隨時(shí)查閱:
https://github.com/NVIDIA/TensorRT-LLM
圖 1. NVIDIA/TensorRT-LLM GitHub 網(wǎng)頁(yè)截屏
這份 Roadmap 將為您提供關(guān)于未來(lái)支持的功能、模型等重要信息,助力您提前部署和開(kāi)發(fā)。
同時(shí),在 Roadmap 頁(yè)面的底部,您可通過(guò)反饋鏈接提交問(wèn)題。無(wú)論是問(wèn)題報(bào)告還是新功能建議,我們都期待收到您的寶貴意見(jiàn)。
圖 2.Roadmap 整體框架介紹
利用 TensorRT-LLM
優(yōu)化大語(yǔ)言模型推理
TensorRT-LLM 是一個(gè)用于優(yōu)化大語(yǔ)言模型(LLM)推理的庫(kù)。它提供最先進(jìn)的優(yōu)化功能,包括自定義 Attention Kernel、Inflight Batching、Paged KV Caching、量化技術(shù)(FP8、INT4 AWQ、INT8 SmoothQuant 等)以及更多功能,以讓你手中的 NVIDIA GPU 能跑出極致推理性能。
TensorRT-LLM 已適配大量的流行模型。通過(guò)類似 PyTorch 的 Python API,可以輕松修改和擴(kuò)展這些模型以滿足自定義需求。以下是已支持的模型列表。
我們鼓勵(lì)所有用戶定期查閱 TensorRT-LLM Roadmap。這不僅有助于您及時(shí)了解 TensorRT-LLM 的最新動(dòng)態(tài),還能讓您的產(chǎn)品開(kāi)發(fā)與 NVIDIA 的技術(shù)創(chuàng)新保持同步。
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5302瀏覽量
106312 -
GitHub
+關(guān)注
關(guān)注
3文章
483瀏覽量
17656 -
LLM
+關(guān)注
關(guān)注
1文章
325瀏覽量
832
原文標(biāo)題:NVIDIA TensorRT-LLM Roadmap 現(xiàn)已在 GitHub 上公開(kāi)發(fā)布!
文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署
NVIDIA Isaac Sim和Isaac Lab現(xiàn)已推出早期開(kāi)發(fā)者預(yù)覽版
NVIDIA Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場(chǎng)景中的性能紀(jì)錄

使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

LM Studio使用NVIDIA技術(shù)加速LLM性能

小白學(xué)大模型:從零實(shí)現(xiàn) LLM語(yǔ)言模型

使用NVIDIA RTX PRO Blackwell系列GPU加速AI開(kāi)發(fā)
無(wú)法在OVMS上運(yùn)行來(lái)自Meta的大型語(yǔ)言模型 (LLM),為什么?
京東廣告生成式召回基于 NVIDIA TensorRT-LLM 的推理加速實(shí)踐
在NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

解鎖NVIDIA TensorRT-LLM的卓越性能
TensorRT-LLM低精度推理優(yōu)化

NVIDIA Nemotron-4 340B模型幫助開(kāi)發(fā)者生成合成訓(xùn)練數(shù)據(jù)

評(píng)論