曰本美女∴一区二区特级A级黄色大片, 国产亚洲精品美女久久久久久2025, 页岩实心砖-高密市宏伟建材有限公司, 午夜小视频在线观看欧美日韩手机在线,国产人妻奶水一区二区,国产玉足,妺妺窝人体色WWW网站孕妇,色综合天天综合网中文伊,成人在线麻豆网观看

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA使用Qwen3系列模型的最佳實(shí)踐

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2025-05-08 11:45 ? 次閱讀

阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM)通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家模型 (MoE),235B-A22B(總參數(shù) 2,350 億,激活參數(shù) 220 億)和 30B-A3B,以及六款稠密 (Dense) 模型 0.6B、1.7B、4B、8B、14B、32B。

現(xiàn)在,開發(fā)者能夠基于 NVIDIA GPU,使用NVIDIA TensorRT-LLM、Ollama、SGLang、vLLM等推理框架高效集成和部署 Qwen3 模型,從而實(shí)現(xiàn)極快的詞元 (token) 生成,以及生產(chǎn)級(jí)別的應(yīng)用研發(fā)。

本文提供使用 Qwen3 系列模型的最佳實(shí)踐,我們會(huì)展示如何使用上述框架來部署模型實(shí)現(xiàn)高效推理。開發(fā)者可以根據(jù)他們的應(yīng)用場(chǎng)景需求來選擇合適的框架,例如高吞吐量、低延遲、或是 GPU 內(nèi)存占用 (GPU footprint)。

Qwen3 模型

Qwen3 是中國(guó)首個(gè)混合推理模型,在 AIME、LiveCodeBench、ArenaHard、BFCL 等權(quán)威評(píng)測(cè)集上均獲得出色的表現(xiàn)(信息來源于阿里巴巴官方微信公眾號(hào))。Qwen3 提供的系列開源稠密和 MoE 模型在推理、指令遵循、Agent 能力、多語言支持等方面均大幅增強(qiáng),是全球領(lǐng)先的開源模型。

大語言模型的推理性能對(duì)于實(shí)時(shí)、經(jīng)濟(jì)高效的生產(chǎn)級(jí)部署至關(guān)重要

LLM 生態(tài)系統(tǒng)快速演進(jìn),新模型和新技術(shù)不斷更新迭代,需要一種高性能且靈活的解決方案來優(yōu)化模型。

推理系統(tǒng)設(shè)計(jì)頗具挑戰(zhàn),要求也不斷提升,這些挑戰(zhàn)包括 LLM 推理計(jì)算預(yù)填充 (prefill) 和解碼 (decode) 兩個(gè)階段對(duì)于計(jì)算能力和顯存大小 / 帶寬的需求差異,超大尺寸模型并行分布式推理,海量并發(fā)請(qǐng)求,輸入輸出長(zhǎng)度高度動(dòng)態(tài)請(qǐng)求等。

目前在推理引擎上有許多優(yōu)化技術(shù)可用,包括高性能 kernel、低精度量化、Batch 調(diào)度、采樣優(yōu)化、KV 緩存 (KV cache) 優(yōu)化等等,選擇最適合自己應(yīng)用場(chǎng)景的技術(shù)組合需要耗費(fèi)開發(fā)者大量精力。

NVIDIA TensorRT-LLM提供了最新的極致優(yōu)化的計(jì)算 kernel、高性能 Attention 實(shí)現(xiàn)、多機(jī)多卡通信分布式支持、豐富的并行和量化策略等,從而在 NVIDIA GPU 上實(shí)現(xiàn)高效的 LLM 推理。此外,TensorRT-LLM 采用PyTorch 的新架構(gòu)還提供了直觀、簡(jiǎn)潔且高效的模型推理配置 LLM API,從而能夠兼顧極佳性能和靈活友好的工作流。

通過使用 TensorRT-LLM,開發(fā)者可以迅速上手先進(jìn)的優(yōu)化技術(shù),其中包括定制的 Attention kernel、連續(xù)批處理 (in-flight batching)、分頁KV 緩存 (Paged KV cache)、量化 (FP8、FP4、INT4 AWQ、INT8 SmoothQuant)、投機(jī)采樣等諸多技術(shù)。

使用 TensorRT-LLM運(yùn)行 Qwen3 的推理部署優(yōu)化

下面以使用 Qwen3-4B 模型配置 PyTorch backend為例,描述如何快捷進(jìn)行基準(zhǔn)測(cè)試以及服務(wù)化的工作。采用類似的步驟,也可以實(shí)現(xiàn) Qwen3 其他 Dense 和 MoE 模型的推理部署優(yōu)化。

1. 首先準(zhǔn)備 benchmark 測(cè)試數(shù)據(jù)集合和extra-llm-api-config.yml
配置文件:

python3/path/to/TensorRT-LLM/benchmarks/cpp/prepare_dataset.py 
 --tokenizer=/path/to/Qwen3-4B 
 --stdout token-norm-dist--num-requests=32768
 --input-mean=1024--output-mean=1024
 --input-stdev=0--output-stdev=0>/path/to/dataset.txt


cat>/path/to/extra-llm-api-config.yml<

2. 通過trtllm-bench運(yùn)行 benchmark 指令:

trtllm-bench 
  --modelQwen/Qwen3-4B 
  --model_path/path/to/Qwen3-4B 
   throughput 
  --backendpytorch 
  --max_batch_size128
  --max_num_tokens16384
  --dataset/path/to/dataset.txt
  --kv_cache_free_gpu_mem_fraction0.9
  --extra_llm_api_options/path/to/extra-llm-api-config.yml
  --concurrency128
  --num_requests32768
  --streaming

相同 GPU 環(huán)境配置下,基于 ISL = 1K,OSL = 1K,相較 BF16 基準(zhǔn),Qwen3-4B 稠密模型使用 TensorRT-LLM 在 BF16 的推理吞吐(每秒生成的 token 數(shù))加速比最高可達(dá) 16.04 倍。

725609e4-27da-11f0-9310-92fbcf53809c.png

圖 1:Qwen3-4B 稠密模型在 TensorRT-LLM BF16 與 BF16 基準(zhǔn)的推理吞吐性能比較

該圖片來源于 NVIDIA Blog:Integrate and Deploy Tongyi Qwen3 Models into Production Applications with NVIDIA,若您有任何疑問或需要使用該圖片,請(qǐng)聯(lián)系 NVIDIA

3. 通過trtllm-serve運(yùn)行 serve 指令:

trtllm-serve 
 /path/to/Qwen3-4B 
--hostlocalhost 
--port8000
--backendpytorch 
--max_batch_size128
--max_num_tokens16384
--kv_cache_free_gpu_memory_fraction0.95
--extra_llm_api_options/path/to/extra-llm-api-config.yml

4. 模型啟動(dòng)成功后,便可通過標(biāo)準(zhǔn) OpenAI API 進(jìn)行模型推理調(diào)用。

curl -X POST"http://localhost:8000/v1/chat/completions"
 -H"Content-Type: application/json"
 --data '{
 "model":"Qwen/Qwen3-4B",
     "Max_tokens": 1024,
     "Temperature": 0,
 "messages": [
   {
   "role":"user",
   "content":"What is the capital of France?"
   }
  ]
 }'

使用 Ollama,SGLang,vLLM 框架運(yùn)行 Qwen3-4B

除了 TensorRT-LLM,Qwen 模型也可以使用諸如 Ollama,SGLang,vLLM 等框架,通過簡(jiǎn)單幾步部署到 NVIDIA GPU。Qwen3 提供了多種模型可以運(yùn)行在終端和設(shè)備上,例如NVIDIA Jeston以及適用于 Windows 開發(fā)者的NVIDIA RTX。

使用 Ollama 在本地運(yùn)行 Qwen3-4B:

1. 從以下網(wǎng)址下載和安裝最新版本的 Ollama: ollama.com/download

2. 使用ollama run命令運(yùn)行模型,此操作將加載并初始化模型用于后續(xù)與用戶交互。

ollamarun qwen3:4b

3. 在用戶提示詞或系統(tǒng)消息中添加/think(默認(rèn)值)和/no_think可在模型的思考模式之間切換。運(yùn)行ollama run命令后,可以直接在終端中使用以下的示例提示詞,來測(cè)試思考模式:

"Writeapython lambda functiontoadd two numbers" - Thinking mode enabled
"Writeapython lambda functiontoadd two numbers /no_think" - Non-thinking mode

4. 參考o(jì)llama.com/library/qwen3查看更多模型變量,這些變量基于 NVIDIA GPU 完成了優(yōu)化。

使用 SGLang 運(yùn)行 Qwen3-4B:

1. 安裝 SGLang 庫

pipinstall"sglang[all]"

2. 下載模型,在這個(gè)演示中,我們使用的是 Hugging Face 上的 huggingfaceCLI 命令提示符執(zhí)行,請(qǐng)注意需要提供一個(gè) API key 來下載模型。

huggingface-cli download--resume-downloadQwen/Qwen3-4B--local-dir./

3. 加載和運(yùn)行模型,請(qǐng)注意,根據(jù)不同的需求,可以傳遞額外的參數(shù)。更多詳細(xì)信息可以參考相關(guān)文檔。

python-m sglang.launch_server   
--model-path /ssd4TB/huggingface/hub/models/ 
--trust-remote-code 
--device "cuda:0" 
--port 30000 
--host 0.0.0.0

4. 調(diào)用模型推理

curl -X POST"http://localhost:30000/v1/chat/completions"
 -H"Content-Type: application/json"
 --data '{
 "model":"Qwen/Qwen3-4B",
 "messages": [
   {
   "role":"user",
   "content":"What is the capital of France?"
   }
  ]
 }'

使用 vLLM 運(yùn)行 Qwen3-4B:

1. 安裝 vLLM 庫

pipinstall vllm

2. 通過vllm serve加載和運(yùn)行模型,請(qǐng)注意,根據(jù)不同的需求,可以傳遞額外的參數(shù)。更多詳細(xì)信息可以參考相關(guān)文檔。

vllm serve "Qwen/Qwen3-4B" 
--tensor-parallel-size 1 
--gpu-memory-utilization 0.85 
--device "cuda:0" 
--max-num-batched-tokens 8192 
--max-num-seqs 256

3. 調(diào)用模型推理

curl -X POST"http://localhost:8000/v1/chat/completions"
 -H"Content-Type: application/json"
 --data '{
 "model":"Qwen/Qwen3-4B",
 "messages": [
   {
   "role":"user",
   "content":"What is the capital of France?"
   }
  ]
 }'

總結(jié)

僅通過幾行代碼,開發(fā)者即可通過包括 TensorRT-LLM 在內(nèi)的流行推理框架來使用最新的 Qwen 系列模型。

此外,對(duì)模型推理和部署框架的技術(shù)選型需要考慮到諸多關(guān)鍵因素,尤其是在把 AI 模型部署到生產(chǎn)環(huán)境中時(shí),對(duì)性能、資源和成本的平衡。

作者

Ankit Patel

NVIDIA 資深總監(jiān),負(fù)責(zé)軟件開發(fā)工具包、應(yīng)用程序編程接口以及開發(fā)者工具方面的開發(fā)者拓展工作。2011 年作為 GPU 產(chǎn)品經(jīng)理加入 NVIDIA,之后從事虛擬化、光線追蹤和 AI 等產(chǎn)品在軟件產(chǎn)品管理方面的工作。Ankit 畢業(yè)于康考迪亞大學(xué) (Concordia University),獲計(jì)算機(jī)科學(xué)學(xué)士學(xué)位,并在康奈爾大學(xué) (Cornell University) 取得工商管理碩士學(xué)位 (MBA)。

劉川

NVIDIA 解決方案架構(gòu)經(jīng)理,整體負(fù)責(zé)中國(guó)區(qū)云計(jì)算行業(yè) GPU 解決方案。于南京大學(xué)獲計(jì)算機(jī)科學(xué)與技術(shù)專業(yè)碩士學(xué)位。帶領(lǐng)團(tuán)隊(duì)主要從事大語言模型、生成式 AI 以及搜索推薦等重點(diǎn) AI 任務(wù)的 GPU 適配、優(yōu)化和加速方案的設(shè)計(jì)、部署和落地,幫助多家頭部互聯(lián)網(wǎng)公司在諸多業(yè)務(wù)中大幅降本增效。

金國(guó)強(qiáng)

NVIDIA 資深解決方案架構(gòu)師,主要負(fù)責(zé)深度學(xué)習(xí)生成式 AI 領(lǐng)域模型訓(xùn)練、推理優(yōu)化以及大模型開發(fā)與應(yīng)用云端落地等技術(shù)方向合作。

郝尚榮

NVIDIA 深度學(xué)習(xí)解決方案架構(gòu)師,2021 年加入 NVIDIA 解決方案架構(gòu)團(tuán)隊(duì),主要從事模型推理優(yōu)化加速的工作,目前主要支持國(guó)內(nèi) CSP 客戶在大語言模型推理加速的工作。

谷鋆

NVIDIA 深度學(xué)習(xí)解決方案架構(gòu)師,于 2022 年加入 NVIDIA 解決方案架構(gòu)師團(tuán)隊(duì),專門為國(guó)內(nèi) CSP 進(jìn)行 LLM 模型推理優(yōu)化。

高慧怡

NVIDIA 深度學(xué)習(xí)解決方案架構(gòu)師,2020 年加入 NVIDIA 解決方案架構(gòu)團(tuán)隊(duì),從事深度學(xué)習(xí)應(yīng)用在異構(gòu)系統(tǒng)的加速工作,目前主要支持國(guó)內(nèi) CSP 客戶在大語言模型的訓(xùn)練加速工作。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5196

    瀏覽量

    105526
  • 阿里巴巴
    +關(guān)注

    關(guān)注

    7

    文章

    1632

    瀏覽量

    48011
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3471

    瀏覽量

    49866
  • 通義千問
    +關(guān)注

    關(guān)注

    1

    文章

    33

    瀏覽量

    376

原文標(biāo)題:NVIDIA 實(shí)現(xiàn)通義千問 Qwen3 的生產(chǎn)級(jí)應(yīng)用集成和部署

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    在openEuler上基于vLLM Ascend部署Qwen3

    近日,阿里巴巴正式發(fā)布新一代Qwen大語言模型系列Qwen3Qwen3-MoE),在模型規(guī)模
    的頭像 發(fā)表于 05-07 14:44 ?241次閱讀
    在openEuler上基于vLLM Ascend部署<b class='flag-5'>Qwen3</b>

    《電子發(fā)燒友電子設(shè)計(jì)周報(bào)》聚焦硬科技領(lǐng)域核心價(jià)值 第10期:2025.05.6--2025.05.9

    存儲(chǔ)分區(qū) 6、NVIDIA使用Qwen3系列模型最佳實(shí)踐 7、開發(fā)板Air8101
    發(fā)表于 05-09 19:26

    使用NVIDIA RTX光線跟蹤的最佳實(shí)踐

      這篇文章根據(jù)我們目前在游戲中使用 NVIDIA RTX 光線跟蹤的經(jīng)驗(yàn)收集了最佳實(shí)踐。實(shí)用技巧被組織成簡(jiǎn)短的、可操作的項(xiàng)目,供今天從事光線跟蹤工作的開發(fā)人員使用。他們旨在深入了解什么樣的解決方案在大多數(shù)情況下會(huì)帶來良好的性能
    的頭像 發(fā)表于 10-10 15:01 ?1261次閱讀

    通義千問發(fā)布第二代視覺語言模型Qwen2-VL

    。Qwen2-VL系列模型在多模態(tài)處理領(lǐng)域取得了突破性進(jìn)展,于多個(gè)權(quán)威測(cè)評(píng)中嶄露頭角,刷新了多項(xiàng)最佳成績(jī)記錄,展現(xiàn)出強(qiáng)大的視覺理解與語言交互能力。
    的頭像 發(fā)表于 09-03 16:31 ?757次閱讀

    號(hào)稱全球最強(qiáng)開源模型 ——Qwen2.5 系列震撼來襲!PerfXCloud同步上線,快來體驗(yàn)!

    9月19日凌晨,阿里通義千問 正式開源Qwen2.5系列模型 ,最新發(fā)布包括了語言模型Qwen2.5,以及專門針對(duì)編程的
    的頭像 發(fā)表于 09-25 16:52 ?1051次閱讀
    號(hào)稱全球最強(qiáng)開源<b class='flag-5'>模型</b> ——<b class='flag-5'>Qwen</b>2.5 <b class='flag-5'>系列</b>震撼來襲!PerfXCloud同步上線,快來體驗(yàn)!

    阿里云開源Qwen2.5-Coder代碼模型系列

    近日,阿里云通義大模型團(tuán)隊(duì)宣布開源其通義千問代碼模型系列,共包含6款Qwen2.5-Coder模型。這一舉措展示了阿里云在推動(dòng)AI技術(shù)開放
    的頭像 發(fā)表于 11-14 11:28 ?716次閱讀

    壁仞科技完成阿里巴巴通義千問Qwen3系列模型支持

    4月29日,阿里巴巴通義千問發(fā)布并開源8款新版Qwen3系列“混合推理模型”(簡(jiǎn)稱“Qwen3”)。Qwen3發(fā)布后數(shù)小時(shí)內(nèi),壁仞科技完成全
    的頭像 發(fā)表于 04-30 15:19 ?416次閱讀

    上新:小米首個(gè)推理大模型開源 馬斯克:下周推出Grok 3.5

    似乎國(guó)內(nèi)外AI競(jìng)爭(zhēng)日趨白熱化,就在阿里巴巴發(fā)布Qwen3(通義千問3)之后,引發(fā)業(yè)界廣泛關(guān)注;很多大廠在跟進(jìn),大模型不斷上新: 阿里巴巴開源新一代通義千問模型
    的頭像 發(fā)表于 04-30 16:08 ?581次閱讀

    幾B都有!BM1684X一鍵適配全系列Qwen3

    Qwen3發(fā)布,大小尺寸通吃Qwen3一發(fā)布,登頂開源大模型排行榜!235B、32B、8B、4B、1.7B云邊端全尺寸模型,BF16和FP8兩種精度,一次性發(fā)布,無論云端大卡還是邊緣A
    的頭像 發(fā)表于 04-30 18:37 ?106次閱讀
    幾B都有!BM1684X一鍵適配全<b class='flag-5'>系列</b><b class='flag-5'>Qwen3</b>

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式發(fā)布并全部開源8款混合推理模型。作為Qwen系列中的最新一代大型語言模型Qwen3
    的頭像 發(fā)表于 05-06 15:17 ?183次閱讀

    摩爾線程GPU率先支持Qwen3系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團(tuán)隊(duì)在模型發(fā)布當(dāng)天,率先完成了Qwen3
    的頭像 發(fā)表于 05-07 15:24 ?198次閱讀

    寒武紀(jì)率先支持Qwen3系列模型

    近日,阿里Qwen團(tuán)隊(duì)一口氣上新8大模型Qwen3正式發(fā)布并全部開源。
    的頭像 發(fā)表于 05-07 15:51 ?142次閱讀

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時(shí)不到1天,后摩智能自研NPU迅速實(shí)現(xiàn)Qwen3 系列
    的頭像 發(fā)表于 05-07 16:46 ?210次閱讀

    MediaTek天璣9400率先完成阿里Qwen3模型部署

    通義大模型團(tuán)隊(duì)在天璣 9400 旗艦移動(dòng)平臺(tái)上率先完成 Qwen3(千問 3)的端側(cè)部署。未來,搭載天璣 9400 移動(dòng)平臺(tái)的設(shè)備可充分發(fā)揮端側(cè) AI 性能潛力,運(yùn)行千問 3
    的頭像 發(fā)表于 05-08 10:11 ?208次閱讀

    NVIDIA RTX 5880 Ada與Qwen3系列模型實(shí)測(cè)報(bào)告

    近日,阿里巴巴通義千問團(tuán)隊(duì)正式推出新一代開源大語言模型——Qwen3 系列,該系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合
    的頭像 發(fā)表于 05-09 15:05 ?164次閱讀
    <b class='flag-5'>NVIDIA</b> RTX 5880 Ada與<b class='flag-5'>Qwen3</b><b class='flag-5'>系列</b><b class='flag-5'>模型</b>實(shí)測(cè)報(bào)告