近日,阿里巴巴正式發(fā)布新一代Qwen大語(yǔ)言模型系列(Qwen3與Qwen3-MoE),在模型規(guī)模與性能上實(shí)現(xiàn)多方面升級(jí)。openEuler社區(qū)團(tuán)隊(duì)與vLLM社區(qū)通力合作,在第一時(shí)間完成Qwen3模型驗(yàn)證。目前,開發(fā)者可以基于OpenAtom openEuler(簡(jiǎn)稱“openEuler”)和vLLM在昇騰設(shè)備上完成 Qwen3 推理。
新一代Qwen大語(yǔ)言模型主要包含2個(gè)版本:
?Qwen3,包括Qwen3-0.6B、Qwen3-1.7B、Qwen3-4B、Qwen3-8B
?Qwen3-MoE,包括Qwen3-MoE-15B-A2B、Qwen3-30B-A3B、Qwen3-235B-A22B
早在4月中旬,vLLM發(fā)布的v0.8.4版本中已經(jīng)包括對(duì)Qwen3最新結(jié)構(gòu)的支持。隨即,vLLM社區(qū)的vLLM Ascend團(tuán)隊(duì)同步發(fā)布了v0.8.4rc1版本,并完成了跟進(jìn)和適配。在該版本中,openEuler成為上游默認(rèn)支持的操作系統(tǒng)之一,同步發(fā)布容器鏡像。
Qwen3發(fā)布后,openEuler社區(qū)與vLLM社區(qū)通力合作,在第一時(shí)間完成Qwen3模型驗(yàn)證,這意味著開發(fā)者現(xiàn)在就可以一鍵拉起基于openEuler的vLLM-Ascend容器鏡像在昇騰設(shè)備上實(shí)現(xiàn)Qwen3的推理。
快速體驗(yàn)Qwen3
體驗(yàn)之前,您需確認(rèn)固件/驅(qū)動(dòng)已正確安裝,可運(yùn)行如下命令確認(rèn):
npu-smi info
您可以使用如下命令,一鍵拉起基于openEuler的vLLM-Ascend容器鏡像:
# Update DEVICE according to your device (/dev/davinci[0-7]) exportDEVICE=/dev/davinci0 # Update the openeuler-vllm-ascend image exportIMAGE=quay.io/ascend/vllm-ascend:v0.8.4rc2-openeuler docker run --rm --name openeuler-vllm-ascend --device$DEVICE --device /dev/davinci_manager --device /dev/devmm_svm --device /dev/hisi_hdc -v /usr/local/dcmi:/usr/local/dcmi -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi -v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ -v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info -v /etc/ascend_install.info:/etc/ascend_install.info -v /root/.cache:/root/.cache -p 8000:8000 -it$IMAGEbash
進(jìn)入容器環(huán)境后,使用ModelScope平臺(tái)進(jìn)行下載加速:
exportVLLM_USE_MODELSCOPE=true
在線推理
您可以使用vLLM和vLLM Ascend一鍵部署在線推理服務(wù):
vllmserve Qwen/Qwen3-8B
服務(wù)啟動(dòng)后,您可以通過(guò)curl請(qǐng)求來(lái)進(jìn)行內(nèi)容生成:
curl http://localhost:8000/v1/completions -H"Content-Type: application/json" -d '{"model":"Qwen/Qwen3-8B","prompt":"The future of AI is","max_tokens":5, "temperature":0}'|python3-m json.tool
離線推理
您可以使用vLLM和vLLM Ascend進(jìn)行離線推理。
以下是example.py的示例:
fromvllmimportLLM, SamplingParams prompts = [ "Hello, my name is", "The future of AI is",] # Create a sampling params object. sampling_params = SamplingParams(temperature=0.8, top_p=0.95) # Create an LLM. llm = LLM(model="Qwen/Qwen3-8B") # Generate texts from the prompts. outputs = llm.generate(prompts, sampling_params) foroutputinoutputs: prompt = output.prompt generated_text = output.outputs[0].text print(f"Prompt:{prompt!r}, Generated text:{generated_text!r}")
運(yùn)行以上腳本即可使用vLLM和vLLM Ascend進(jìn)行推理:
#exportVLLM_USE_MODELSCOPE=trueto speed up downloadifhuggingface is not reachable. python example.py
推理結(jié)果如下圖所示:
問(wèn)題反饋
若您在openEuler上部署與運(yùn)行Qwen3時(shí)遇到任何問(wèn)題,可在openEuler官方論壇【Qwen3 on openEuler】問(wèn)題收集與討論專帖下面進(jìn)行反饋。
-
操作系統(tǒng)
+關(guān)注
關(guān)注
37文章
7033瀏覽量
124795 -
模型
+關(guān)注
關(guān)注
1文章
3471瀏覽量
49869 -
昇騰
+關(guān)注
關(guān)注
1文章
152瀏覽量
6842 -
openEuler
+關(guān)注
關(guān)注
2文章
325瀏覽量
6208
原文標(biāo)題:搶先體驗(yàn)!在openEuler上基于vLLM Ascend部署Qwen3
文章出處:【微信號(hào):開放原子,微信公眾號(hào):開放原子】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
NVIDIA使用Qwen3系列模型的最佳實(shí)踐

Embedded SIG | 多 OS 混合部署框架
使用 Canonical MAAS 部署 openEuler 測(cè)試
一次 Rancher 和 openEuler 的上云之旅
如何讓openEuler在WSL上運(yùn)行
歐拉(openEuler)亮點(diǎn)openEuler Summit 2021上中科創(chuàng)達(dá)展示在邊緣側(cè)的能力

壁仞科技完成阿里巴巴通義千問(wèn)Qwen3全系列模型支持
上新:小米首個(gè)推理大模型開源 馬斯克:下周推出Grok 3.5
幾B都有!BM1684X一鍵適配全系列Qwen3

中科曙光DeepAI深算智能引擎全面支持Qwen3
摩爾線程GPU率先支持Qwen3全系列模型
寒武紀(jì)率先支持Qwen3全系列模型
后摩智能NPU適配通義千問(wèn)Qwen3系列模型
MediaTek天璣9400率先完成阿里Qwen3模型部署
NVIDIA RTX 5880 Ada與Qwen3系列模型實(shí)測(cè)報(bào)告

評(píng)論