NVIDIA今天在其官方博客中表示,今天與谷歌合作,在所有NVIDIA AI平臺上為Gemma推出了優(yōu)化。Gemma是谷歌最先進的新輕量級2B(20億)和7B(70億)參數(shù)開放語言模型,可以在任何地方運行,降低了成本,加快了特定領(lǐng)域用例的創(chuàng)新工作。
這兩家公司的團隊密切合作,主要是使用NVIDIA TensorRT LLM加速谷歌Gemma開源模型的性能。開源模型Gemma采用與Gemini模型相同的底層技術(shù)構(gòu)建,而NVIDIA TensorRT LLM是一個開源庫,用于在數(shù)據(jù)中心的NVIDIA GPU、云服務(wù)器以及帶有NVIDIA RTX GPU的PC上運行時,可以極大優(yōu)化大型語言模型推理。這也這使得開發(fā)人員能夠完全利用全球超過1億臺數(shù)量的RTX GPU AI PC完成自己的工作。

同時,開發(fā)人員還可以在云計算服務(wù)器中的NVIDIA GPU上運行Gemma,包括在谷歌云基于H100 Tensor Core GPU,以及很快谷歌將于今年部署的NVIDIA H200 TensorCore GPU——該GPU具有141GB的HBM3e內(nèi)存,內(nèi)存帶寬可以達到4.8TB/s。

另外,企業(yè)開發(fā)人員還可以利用NVIDIA豐富的工具生態(tài)系統(tǒng),包括具有NeMo框架的NVIDIA AI Enterprise和TensorRT LLM,對Gemma進行微調(diào),并在其生產(chǎn)應(yīng)用程序中部署優(yōu)化模型。

NVIDIA表示,先期上線支持Gemma的是Chat with RTX,這是一款NVIDIA技術(shù)演示應(yīng)用,使用檢索增強生成和TensorRT LLM擴展,在基于RTX GPU的本地Windows PC上為用戶提供生成式AI應(yīng)用的功能。通過RTX聊天,用戶可以輕松地將PC上的本地文件連接到大型語言模型,從而使用自己的數(shù)據(jù)對聊天機器人進行個性化設(shè)置。
由于該模型在本地運行,因此可以快速提供結(jié)果,并且用戶數(shù)據(jù)保留在設(shè)備上。與基于云的LLM服務(wù)不同,使用Chat with RTX聊天可以讓用戶在本地PC上處理敏感數(shù)據(jù),而無需與第三方共享或連接互聯(lián)網(wǎng)。
審核編輯:劉清
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5444瀏覽量
108585 -
GPU芯片
+關(guān)注
關(guān)注
1文章
306瀏覽量
6341 -
LLM
+關(guān)注
關(guān)注
1文章
339瀏覽量
1203 -
生成式AI
+關(guān)注
關(guān)注
0文章
536瀏覽量
989
原文標題:TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天
文章出處:【微信號:Microcomputer,微信公眾號:Microcomputer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
NVIDIA TensorRT LLM 1.0推理框架正式上線
谷歌推出AI模型Gemma 3 270M
DeepSeek R1 MTP在TensorRT-LLM中的實現(xiàn)與優(yōu)化
Votee AI借助NVIDIA技術(shù)加速方言小語種LLM開發(fā)
NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開放下載
如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署
使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐
使用NVIDIA RTX PRO Blackwell系列GPU加速AI開發(fā)
NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型
在NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化
解鎖NVIDIA TensorRT-LLM的卓越性能
NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布
NVIDIA RTX AI Toolkit擁抱LoRA技術(shù)
TensorRT-LLM低精度推理優(yōu)化

TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天
評論