chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

RTX AI PC和工作站提供強大AI性能

NVIDIA英偉達 ? 來源:NVIDIA英偉達 ? 2024-08-23 16:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由 NVIDIA RTX 和 GeForce RTX 技術驅(qū)動的 AI PC 時代已經(jīng)到來。在這一背景下,一種評估 AI 加速性能的新方法應運而生,同時還帶來了一套新術語,這套術語成了用戶選擇臺式電腦和筆記本電腦的參考標準。

雖然 PC 游戲玩家了解每秒幀數(shù)(FPS)及類似的統(tǒng)計數(shù)據(jù),但衡量 AI 性能需要新的指標。

TOPS 脫穎而出

TOPS,即每秒萬億次運算是首要的基準指標?!叭f億”是這里的關鍵詞:生成式 AI 任務背后的處理運算量是巨大的。您可以將 TOPS 視為原始性能指標,類似于發(fā)動機的額定功率。這個數(shù)值自然是越大越好。

例如,比較一下微軟最近發(fā)布的 Windows 11 AI PC,其中就包含每秒至少可執(zhí)行 40 萬億次運算的神經(jīng)處理單元(NPU)。40 TOPS 的算力足以勝任一些輕量級 AI 輔助任務,例如詢問本地聊天機器人昨天的筆記在哪里。

但許多生成式 AI 的算力需求遠不止于此。NVIDIA RTX 和 GeForce RTX GPU 可在所有生成式任務中提供卓越的性能,其中 GeForce RTX 4090 GPU 的算力可達 1177 TOPS。這就是處理 AI 輔助數(shù)字內(nèi)容創(chuàng)作(DCC)、PC 游戲 AI 超分辨率、根據(jù)文本或視頻生成圖像、與本地大語言模型(LLM)交互等任務所需的算力。

以 Token 衡量性能

TOPS 只是一項基礎衡量指標。LLM 的性能以模型生成的 Token 數(shù)量來衡量。

Token 是 LLM 的輸出,它可以是句子中的一個詞,甚至可以是標點符號或空格這類更小的片段。AI 加速任務的性能可以用“每秒 Token 數(shù)”來衡量。

另一個重要因素則是 batch size,也就是在一次推理過程中可同時處理的輸入數(shù)量。由于大語言模型(LLM)是許多現(xiàn)代 AI 系統(tǒng)的核心,處理多個輸入(例如來自單個應用或跨多個應用)的能力將成為關鍵的差異化因素。雖然較大的 batch size 可以提升并發(fā)輸入的性能,但也需要占用更多的內(nèi)存,尤其是運行較大的模型時。

RTX GPU 非常適合 LLM,因為它們擁有大量專用的顯存(VRAM)、Tensor Core 和 TensorRT-LLM 軟件。

GeForce RTX GPU 最多可提供 24GB 的高速 VRAM,而 NVIDIA RTX GPU 最多可提供 48GB 的高速 VRAM,可支持更大的模型和更大的 batch size。RTX GPU 還可利用 Tensor Core,這是一種專用的 AI 加速器,可顯著加速深度學習和生成式 AI 模型中的計算密集型運算。應用在使用 NVIDIA TensorRT 軟件開發(fā)套件(SDK)的情況下可輕松實現(xiàn)超高性能。該套件可在超過 1 億臺由 RTX GPU 驅(qū)動的 Windows PC 和工作站上解鎖超高性能生成式 AI。

結(jié)合了大顯存、專用 AI 加速器和優(yōu)化的軟件,RTX GPU 的吞吐量得到了巨大提升,尤其是在 batch size 增加的情況下。

文本生圖像,速度超以往

測量圖像生成速度是評估性能的另一種方法。最直接的一個方法是使用 Stable Diffusion,這是一種基于圖像的熱門 AI 模型,可讓用戶輕松地將文本描述轉(zhuǎn)換為復雜的視覺畫面。

借由 Stable Diffusion,用戶可以通過輸入關鍵詞快速獲得想要的圖像相比于 CPU 或 NPU,使用 RTX GPU 運行 AI 模型時可以更快生成所需結(jié)果。

在熱門的 Automatic1111 界面使用 TensorRT 擴展程序時,相應性能表現(xiàn)甚至會更好。借助 SDXL 模型,RTX 用戶通過提示生成圖像的速度至多可提升至原來的 2 倍,這可大幅簡化 Stable Diffusion 工作流。

另一個熱門的 Stable Diffusion 用戶界面 ComfyUI 在上周也支持了 TensorRT 加速?,F(xiàn)在,RTX 用戶文生圖的速度可提升多達 60%。RTX 用戶還可使用 Stable Video Diffusion 將這些圖像轉(zhuǎn)換為視頻,在 TensorRT 的助力下,轉(zhuǎn)換速度甚至可提升多達 70%。

全新的 UL Procyon AI 圖像生成基準測試現(xiàn)已支持 TensorRT 加速。與最快的非 TensorRT 加速狀態(tài)相比,TensorRT 加速可在 GeForce RTX 4080 SUPER GPU 上帶來 50% 的速度提升。

適用于 Stable Diffusion 3 的 TensorRT 加速近期發(fā)布,前者是 Stability AI 備受期待的全新文本轉(zhuǎn)圖像模型。此外,全新的 TensorRT-Model Optimizer 可進一步提升性能。與非 TensorRT 加速狀態(tài)相比,它可帶來顯著的速度提升,同時減少顯存消耗。

當然,眼見方能為實。真正的考驗來自于不斷迭代提示詞這種真實場景。在 RTX GPU 上,用戶通過改進提示詞來優(yōu)化圖像的速度可得到顯著提升,每次迭代只需數(shù)秒即可完成。而在 Macbook Pro M3 Max 上,完成相同的迭代需要耗費數(shù)分鐘。此外,如果在由 RTX 驅(qū)動的 PC 或工作站上本地運行,用戶可以同時享受到速度和安全性方面的優(yōu)勢,并讓所有內(nèi)容保持私密。

測試結(jié)果出爐,相關技術開源

不過,且不要僅聽我們的一面之詞。開源的 Jan.ai 背后的 AI 研究人員和工程師團隊最近將 TensorRT-LLM 集成到了其本地聊天機器人應用中,然后親自測試了這些優(yōu)化效果。

研究人員在社區(qū)使用的各種 GPU 和 CPU 上,以開源的 llama.cpp 推理引擎為對照,測試了 TensorRT-LLM 的實際表現(xiàn)。他們發(fā)現(xiàn) TensorRT“在相同硬件上比 llama.cpp 快 30-70%”,并且在進行連續(xù)處理時效率更高。該團隊還提供了測試方法,邀請其他人親自測試生成式 AI 的性能。

無論是游戲還是生成式 AI,速度才是其致勝法寶。在確定性能冠軍時,TOPS、每秒 Token 數(shù)和 batch size 均需納入考量。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5431

    瀏覽量

    108297
  • PC
    PC
    +關注

    關注

    9

    文章

    2161

    瀏覽量

    158043
  • 內(nèi)存
    +關注

    關注

    8

    文章

    3157

    瀏覽量

    75904
  • AI
    AI
    +關注

    關注

    88

    文章

    37057

    瀏覽量

    290249

原文標題:解碼 RTX AI PC 和工作站上的 AI 性能

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    國產(chǎn)算力,正在AI工作站里“生根”

    從機房到桌面:AI工作站點燃“小型化革命”
    的頭像 發(fā)表于 10-14 20:32 ?2265次閱讀
    國產(chǎn)算力,正在<b class='flag-5'>AI</b><b class='flag-5'>工作站</b>里“生根”

    革新科研智造,引領材料未來——高通量智能科研制備工作站

    的“高通量智能科研制備工作站”,正推動一場科研范式的深刻變革。 智能驅(qū)動,全程自動化, redefine 科研效率 高通量智能科研制備工作站集成智能機器人控制技術,具備樣品抓取轉(zhuǎn)移、移液、旋涂、反溶劑萃取
    發(fā)表于 09-27 14:17

    創(chuàng)通新科全棧AI算力產(chǎn)品亮相人工智能展 創(chuàng)盈芯AI工作站獲雙獎

    自主研發(fā)的AI工作站AI推理一體機和AI迷你主機系列產(chǎn)品。 創(chuàng)通新科集團構建全棧AI算力基座,為AGI生態(tài)
    的頭像 發(fā)表于 09-02 18:37 ?253次閱讀
    創(chuàng)通新科全棧<b class='flag-5'>AI</b>算力產(chǎn)品亮相人工智能展 創(chuàng)盈芯<b class='flag-5'>AI</b><b class='flag-5'>工作站</b>獲雙獎

    制作團隊如何借助NVIDIA RTX AI讓創(chuàng)意成真

    藝術家和開發(fā)者已經(jīng)在利用生成式 AI 簡化工作、突破創(chuàng)意邊界,無論是探索概念、設計虛擬世界還是構建智能應用。借助 RTX AI PC,用戶能
    的頭像 發(fā)表于 07-09 16:28 ?490次閱讀

    潤開鴻推出基于OpenHarmony的桌面操作系統(tǒng)及AI PC工作站

    股份有限公司旗下子公司江蘇潤開鴻數(shù)字科技有限公司(以下簡稱“潤開鴻”)受邀出席,并重磅發(fā)布基于OpenHarmony的HiHopeOS桌面操作系統(tǒng)及AI PC工作站軟、硬件新品,以創(chuàng)新技術共筑中國電腦產(chǎn)業(yè)未來。
    的頭像 發(fā)表于 06-03 16:25 ?654次閱讀

    英特爾發(fā)布全新GPU,AI工作站迎來新選擇

    Pro B50 GPU,搭載了為AI推理和專業(yè)工作站量身定制的配置,擴展了英特爾銳炫Pro產(chǎn)品系列。 英特爾 ? Gaudi 3 AI 加速器: 英特爾Gaud
    發(fā)表于 05-20 11:03 ?1596次閱讀

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應手

    Studio提供了最優(yōu)解。Neuron Studio可針對模型到應用,提供式、全鏈路、自動化的開發(fā)協(xié)助,不僅讓AI應用開發(fā)的全流程可視化,更帶來整個多種工具的一
    發(fā)表于 04-13 19:52

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計算與嵌入式開發(fā)

    RZ/V2N——近期在嵌入式世界2025上新發(fā)布,為 AI 計算、嵌入式系統(tǒng)及工自動化提供強大支持。這款全新的計算平臺旨在滿足開發(fā)者和企業(yè)用戶對高性能、低功耗和靈活擴展的需求。 [](
    發(fā)表于 03-19 17:54

    NVIDIA Blackwell RTX PRO 提供工作站和服務器兩種規(guī)格,助力設計師、開發(fā)者、數(shù)據(jù)科學家和創(chuàng)作人員構建代理式

    月 18 日 —— NVIDIA 今日發(fā)布了 NVIDIA RTX PRO? Blackwell 系列工作站和服務器 GPU,通過突破性的加速計算、AI 推理、光線追蹤和神經(jīng)渲染技術,重新定義
    發(fā)表于 03-19 09:50 ?497次閱讀
    NVIDIA Blackwell <b class='flag-5'>RTX</b> PRO <b class='flag-5'>提供</b><b class='flag-5'>工作站</b>和服務器兩種規(guī)格,助力設計師、開發(fā)者、數(shù)據(jù)科學家和創(chuàng)作人員構建代理式

    工業(yè)機器人工作站的建設意義

    其他輔助設備的配合,形成了一套完整的自動化生產(chǎn)流程。桐爾作為專業(yè)的自動化解決方案提供商,致力于通過工業(yè)機器人工作站的建設,為企業(yè)帶來顯著的經(jīng)濟效益和生產(chǎn)效率提升。 工業(yè)機器人工作站的建立首先能夠顯著
    發(fā)表于 03-17 14:49

    快速升級DELL與HP工作站儲存效能,實現(xiàn)高效工作流!

    。對于已配備超薄型光驅(qū)插槽位及PCIe插槽的HP工作站、Dell工作站,ICYDOCK可以提供創(chuàng)新的解決方案,幫助用戶有效率地提升存儲容量??杉嫒莸?b class='flag-5'>工作站型號HP
    的頭像 發(fā)表于 02-14 15:38 ?795次閱讀
    快速升級DELL與HP<b class='flag-5'>工作站</b>儲存效能,實現(xiàn)高效<b class='flag-5'>工作</b>流!

    NVIDIA推出面向RTX AI PCAI基礎模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運行的基礎模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開發(fā)提供強大助力。
    的頭像 發(fā)表于 01-08 11:01 ?750次閱讀

    提升企業(yè)效能:迷你工作站的潛力

    杰和科技迷你工作站WA814正式上線以來,客戶們和合作伙伴就對這款產(chǎn)品表現(xiàn)出了濃厚的興趣,迫不及待地想要深入了解并親身體驗它所帶來的價值。對比傳統(tǒng)的工作站,杰和迷你工作站WA814只有3.4L的小巧體積,外出
    的頭像 發(fā)表于 01-06 11:02 ?557次閱讀
    提升企業(yè)效能:迷你<b class='flag-5'>工作站</b>的潛力

    NVIDIA RTX AI Toolkit擁抱LoRA技術

    RTX AI PC工作站上使用最新版 RTX AI Toolkit 微調(diào) LLM,最高可
    的頭像 發(fā)表于 11-20 09:14 ?1065次閱讀
    NVIDIA <b class='flag-5'>RTX</b> <b class='flag-5'>AI</b> Toolkit擁抱LoRA技術

    NVIDIA NIM在搭載RTX技術的AI工作站上的應用

    AI 計算資源的需求正不斷增長。從概念驗證到企業(yè)部署需要針對生成性 AI 工作負載進行優(yōu)化的強大計算基礎設施。同時,AI 開發(fā)項目需要更多的
    的頭像 發(fā)表于 11-09 11:47 ?1007次閱讀