chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天

jf_MYvksKR0 ? 來源:MicroComputer ? 2024-02-23 09:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA今天在其官方博客中表示,今天與谷歌合作,在所有NVIDIA AI平臺(tái)上為Gemma推出了優(yōu)化。Gemma是谷歌最先進(jìn)的新輕量級(jí)2B(20億)和7B(70億)參數(shù)開放語(yǔ)言模型,可以在任何地方運(yùn)行,降低了成本,加快了特定領(lǐng)域用例的創(chuàng)新工作。

這兩家公司的團(tuán)隊(duì)密切合作,主要是使用NVIDIA TensorRT LLM加速谷歌Gemma開源模型的性能。開源模型Gemma采用與Gemini模型相同的底層技術(shù)構(gòu)建,而NVIDIA TensorRT LLM是一個(gè)開源庫(kù),用于在數(shù)據(jù)中心的NVIDIA GPU、云服務(wù)器以及帶有NVIDIA RTX GPU的PC上運(yùn)行時(shí),可以極大優(yōu)化大型語(yǔ)言模型推理。這也這使得開發(fā)人員能夠完全利用全球超過1億臺(tái)數(shù)量的RTX GPU AI PC完成自己的工作。

9c3d6116-d19c-11ee-a297-92fbcf53809c.png

同時(shí),開發(fā)人員還可以在云計(jì)算服務(wù)器中的NVIDIA GPU上運(yùn)行Gemma,包括在谷歌云基于H100 Tensor Core GPU,以及很快谷歌將于今年部署的NVIDIA H200 TensorCore GPU——該GPU具有141GB的HBM3e內(nèi)存,內(nèi)存帶寬可以達(dá)到4.8TB/s。

9c7d73b4-d19c-11ee-a297-92fbcf53809c.png

另外,企業(yè)開發(fā)人員還可以利用NVIDIA豐富的工具生態(tài)系統(tǒng),包括具有NeMo框架的NVIDIA AI Enterprise和TensorRT LLM,對(duì)Gemma進(jìn)行微調(diào),并在其生產(chǎn)應(yīng)用程序中部署優(yōu)化模型。

9c90b0dc-d19c-11ee-a297-92fbcf53809c.png

NVIDIA表示,先期上線支持Gemma的是Chat with RTX,這是一款NVIDIA技術(shù)演示應(yīng)用,使用檢索增強(qiáng)生成和TensorRT LLM擴(kuò)展,在基于RTX GPU的本地Windows PC上為用戶提供生成式AI應(yīng)用的功能。通過RTX聊天,用戶可以輕松地將PC上的本地文件連接到大型語(yǔ)言模型,從而使用自己的數(shù)據(jù)對(duì)聊天機(jī)器人進(jìn)行個(gè)性化設(shè)置。

由于該模型在本地運(yùn)行,因此可以快速提供結(jié)果,并且用戶數(shù)據(jù)保留在設(shè)備上。與基于云的LLM服務(wù)不同,使用Chat with RTX聊天可以讓用戶在本地PC上處理敏感數(shù)據(jù),而無(wú)需與第三方共享或連接互聯(lián)網(wǎng)。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5694

    瀏覽量

    110119
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    307

    瀏覽量

    6557
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    350

    瀏覽量

    1394
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    538

    瀏覽量

    1133

原文標(biāo)題:TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天

文章出處:【微信號(hào):Microcomputer,微信公眾號(hào):Microcomputer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌正式發(fā)布Gemma Scope 2模型

    大語(yǔ)言模型 (LLM) 具備令人驚嘆的推理能力,但其內(nèi)部決策過程在很大程度上仍然不透明。如果系統(tǒng)未按預(yù)期運(yùn)行,對(duì)其內(nèi)部運(yùn)作機(jī)制缺乏可見性將難以準(zhǔn)確定位問題根源。過去,我們通過發(fā)布 Gemma
    的頭像 發(fā)表于 01-24 14:01 ?739次閱讀

    NVIDIA RTX PRO 5000 Blackwell GPU的深度評(píng)測(cè)

    NVIDIA RTX PRO 5000 Blackwell 是 NVIDIA RTX 5000 Ada Generation 的升級(jí)迭代產(chǎn)品,其各項(xiàng)核心指標(biāo)均針對(duì) GPU
    的頭像 發(fā)表于 01-06 09:51 ?4094次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>RTX</b> PRO 5000 Blackwell GPU的深度評(píng)測(cè)

    NVIDIA RTX PRO 2000 Blackwell GPU性能測(cè)試

    越來越多的應(yīng)用正在使用 AI 加速,而無(wú)論工作站的大小或形態(tài)如何,都有越來越多的用戶需要 AI 性能。NVIDIA RTX PRO 2000
    的頭像 發(fā)表于 11-28 09:39 ?7031次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>RTX</b> PRO 2000 Blackwell GPU性能測(cè)試

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺(tái)上的推理性能瓶頸。為實(shí)
    的頭像 發(fā)表于 10-21 11:04 ?1426次閱讀

    TensorRT-LLM的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM 的大規(guī)模專家并行架構(gòu)設(shè)計(jì)與創(chuàng)新實(shí)現(xiàn)。
    的頭像 發(fā)表于 09-23 14:42 ?1387次閱讀
    <b class='flag-5'>TensorRT-LLM</b>的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    谷歌推出AI模型Gemma 3 270M

    過去幾個(gè)月,Gemma 開放模型系列的發(fā)展是激動(dòng)人心的。我們推出了 Gemma 3 和 Gemma 3 QAT,為單一云端和桌面加速器帶來了最先進(jìn)的性能。
    的頭像 發(fā)表于 09-11 15:09 ?1314次閱讀

    DeepSeek R1 MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLMNVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實(shí)現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4684次閱讀
    DeepSeek R1 MTP在<b class='flag-5'>TensorRT-LLM</b>中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLM中的分離式服務(wù)

    在之前的技術(shù)博客中,我們介紹了低延遲[1] 和高吞吐[2] 場(chǎng)景的優(yōu)化方法。對(duì)于生產(chǎn)部署,用戶還關(guān)心在滿足特定延遲約束的情況下,每個(gè) GPU 的吞吐表現(xiàn)。本文將圍繞“吞吐量-延遲”性能場(chǎng)景,介紹 TensorRT-LLM 分離式服務(wù)的設(shè)計(jì)理念、使用方法,以及性能研究結(jié)果。
    的頭像 發(fā)表于 08-27 12:29 ?1981次閱讀
    <b class='flag-5'>TensorRT-LLM</b>中的分離式服務(wù)

    Votee AI借助NVIDIA技術(shù)加速方言小語(yǔ)種LLM開發(fā)

    Votee AI 利用 NVIDIA 的 GPU 硬件、NeMo Curator 數(shù)據(jù)處理軟件、NeMo Framework 模型訓(xùn)練框架及 Auto Configurator 優(yōu)化工具,高效構(gòu)建
    的頭像 發(fā)表于 08-20 14:21 ?1030次閱讀

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開放下載

    NVIDIA RTXNVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,
    的頭像 發(fā)表于 07-16 09:16 ?2186次閱讀

    NVIDIA RTX AI PC為AnythingLLM加速本地AI工作流

    大語(yǔ)言模型(LLM)基于包含數(shù)十億個(gè) Token 的數(shù)據(jù)集訓(xùn)練而來,能夠生成高質(zhì)量的內(nèi)容。它們是眾多最熱門 AI 應(yīng)用的核心支撐技術(shù),包括聊天機(jī)器人、智能助手、代碼生成工具等。
    的頭像 發(fā)表于 07-04 15:05 ?1082次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫(kù),可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)
    的頭像 發(fā)表于 07-04 14:38 ?2432次閱讀

    谷歌Gemma 3n預(yù)覽版全新發(fā)布

    Gemma 3 和 Gemma 3 QAT 的成功發(fā)布之后,我們的先進(jìn)開放模型系列具備了在單一云端或桌面加速器上運(yùn)行的能力,我們正在進(jìn)一步推進(jìn)我們對(duì)可訪問 AI 的愿景。
    的頭像 發(fā)表于 06-26 17:18 ?1099次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?2079次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT-LLM</b>部署TTS應(yīng)用的最佳實(shí)踐

    LM Studio使用NVIDIA技術(shù)加速LLM性能

    隨著 AI 使用場(chǎng)景不斷擴(kuò)展(從文檔摘要到定制化軟件代理),開發(fā)者和技術(shù)愛好者正在尋求以更 快、更靈活的方式來運(yùn)行大語(yǔ)言模型(LLM)。
    的頭像 發(fā)表于 06-06 15:14 ?1448次閱讀
    LM Studio使用<b class='flag-5'>NVIDIA</b>技術(shù)<b class='flag-5'>加速</b><b class='flag-5'>LLM</b>性能