chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

寒武紀(jì)成功適配DeepSeek-V3.2-Exp模型

寒武紀(jì)開(kāi)發(fā)者 ? 來(lái)源:寒武紀(jì)開(kāi)發(fā)者 ? 2025-10-11 17:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2025年9月29日,寒武紀(jì)已同步實(shí)現(xiàn)對(duì)深度求索公司最新模型DeepSeek-V3.2-Exp的適配,并開(kāi)源大模型推理引擎vLLM-MLU源代碼。代碼地址和測(cè)試步驟見(jiàn)文末,開(kāi)發(fā)者可以在寒武紀(jì)軟硬件平臺(tái)上第一時(shí)間體驗(yàn)DeepSeek-V3.2-Exp的亮點(diǎn)。

寒武紀(jì)一直高度重視大模型軟件生態(tài)建設(shè),支持以DeepSeek為代表的所有主流開(kāi)源大模型。借助于長(zhǎng)期活躍的生態(tài)建設(shè)和技術(shù)積累,寒武紀(jì)得以快速實(shí)現(xiàn)對(duì)DeepSeek-V3.2-Exp這一全新實(shí)驗(yàn)性模型架構(gòu)的day 0適配和優(yōu)化。

寒武紀(jì)一直重視芯片和算法的聯(lián)合創(chuàng)新,致力于以軟硬件協(xié)同的方式,優(yōu)化大模型部署性能,降低部署成本。此前,我們對(duì)DeepSeek系列模型進(jìn)行了深入的軟硬件協(xié)同性能優(yōu)化,達(dá)成了業(yè)界領(lǐng)先的算力利用率水平。針對(duì)本次的DeepSeek-V3.2-Exp新模型架構(gòu),寒武紀(jì)通過(guò)Triton算子開(kāi)發(fā)實(shí)現(xiàn)了快速適配,利用BangC融合算子開(kāi)發(fā)實(shí)現(xiàn)了極致性能優(yōu)化,并基于計(jì)算與通信的并行策略,再次達(dá)成了業(yè)界領(lǐng)先的計(jì)算效率水平。依托DeepSeek-V3.2-Exp帶來(lái)的全新DeepSeek Sparse Attention機(jī)制,疊加寒武紀(jì)的極致計(jì)算效率,可大幅降低長(zhǎng)序列場(chǎng)景下的訓(xùn)推成本,共同為客戶提供極具競(jìng)爭(zhēng)力的軟硬件解決方案。

↓ vLLM-MLU DeepSeek-V3.2-Exp適配的源碼(點(diǎn)擊文末“閱讀原文”可直接跳轉(zhuǎn))↓

https://github.com/Cambricon/vllm-mlu

基于vLLM-MLU的DeepSeek-V3.2-Exp運(yùn)行指南

一、環(huán)境準(zhǔn)備

軟件:需使用寒武紀(jì)訓(xùn)推一體鏡像Cambricon Pytorch Container部署,鏡像內(nèi)預(yù)裝運(yùn)行vLLM-MLU的各項(xiàng)依賴。

硬件:4臺(tái)8卡MLU服務(wù)器。

如需獲取完整的軟硬件運(yùn)行環(huán)境,請(qǐng)通過(guò)官方渠道聯(lián)系寒武紀(jì)。

二、運(yùn)行步驟及結(jié)果展示

Step1:模型下載

模型文件請(qǐng)從Huggingface官網(wǎng)自行下載,后文用${MODEL_PATH}表示下載好的模型路徑。

Step 2:?jiǎn)?dòng)容器

加載鏡像,啟動(dòng)容器,命令如下:

# 加載鏡像
docker load -i cambricon_pytorch_container-torch2.7.1-torchmlu1.28.0-ubuntu22.04-py310.tar.gz

# 啟動(dòng)容器
docker run -it --net=host 
  --shm-size'64gb'--privileged -it 
  --ulimitmemlock=-1${IMAGE_NAME}
  /bin/bash

# 安裝社區(qū)vLLM 0.9.1版本
pushd${VLLM_SRC_PATH}/vllm
  VLLM_TARGET_DEVICE=empty pip install .
popd
# 安裝寒武紀(jì)vLLM-mlu
pushd${VLLM_SRC_PATH}/vllm-mlu
  pip install .
popd

Step 3:?jiǎn)?dòng)Ray服務(wù)

在執(zhí)行模型前,需要先啟動(dòng)ray服務(wù)。啟動(dòng)命令如下:


# 設(shè)置環(huán)境變量
exportGLOO_SOCKET_IFNAME=${INFERENCE_NAME}
exportNOSET_MLU_VISIBLE_DEVICES_ENV_VAR=1

# 主節(jié)點(diǎn)
ray start --head--port${port}
# 從節(jié)點(diǎn)
ray start --address='${master_ip}:${port}'

Step 4:運(yùn)行離線推理

這里提供簡(jiǎn)易的離線推理腳本`offline_inference.py`:

importsys

fromvllmimportLLM, SamplingParams


defmain(model_path):
  # Sample prompts.
  prompts = [
    "Hello, my name is",
    "The capital of France is",
    "The future of AI is",
  ]
  sampling_params = SamplingParams(
    temperature=0.6, top_p=0.95, top_k=20, max_tokens=10)

  # Create an LLM.
  engine_args_dict = {
    "model": model_path,
    "tensor_parallel_size":32,
    "distributed_executor_backend":"ray",
    "enable_expert_parallel":True,
    "enable_prefix_caching":False,
    "enforce_eager":True,
    "trust_remote_code":True,
  }
  llm = LLM(**engine_args_dict)
  # Generate texts from the prompts.
  outputs = llm.generate(prompts, sampling_params)

  # Print the outputs.
  foroutputinoutputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    print(f"Prompt:{prompt!r}, Generated text:{generated_text!r}")


if__name__ =='__main__':
  main(sys[1])

運(yùn)行如下命令,完成模型離線推理:


# 運(yùn)行推理命令
pythonoffline_inference.py --model${MODEL_PATH}

運(yùn)行結(jié)果符合預(yù)期,具體結(jié)果如下:

e67780d8-9d1d-11f0-8c8f-92fbcf53809c.jpg

Step 5:運(yùn)行在線推理


分別啟動(dòng)server和client,完成推理服務(wù),示例如下:

# server
vllmserve${MODEL_PATH}
  --port8100
  --max-model-len40000
  --distributed-executor-backend ray 
  --trust-remote-code 
  --tensor-parallel-size32
  --enable-expert-parallel 
  --no-enable-prefix-caching 
  --disable-log-requests 
  --enforce-eager

# client, we post a single request here.
curl -X POST http://localhost:8100/v1/completions 
  -H"Content-Type: application/json"
  -d'{"model":${MODEL_PATH}, 
     "prompt": "The future of AI is", 
     "max_tokens": 50, "temperature": 0.7 
    }'

運(yùn)行結(jié)果如下:

e6d18b8c-9d1d-11f0-8c8f-92fbcf53809c.png

提取輸入輸出信息如下,符合預(yù)期。

Prompt:The futureofAIis
Output:being shapedbya numberofkey trends. These include the riseoflargelanguagemodels, the increasing useofAIinenterprise, the developmentofmore powerfulandefficient AI hardware,andthe growing focusonAI ethicsandsafety.

Largelanguagemodelsare

Step 6:運(yùn)行交互式對(duì)話



使用vLLM-MLU框架,運(yùn)行交互式對(duì)話demo,執(zhí)行結(jié)果如下:

e72e304e-9d1d-11f0-8c8f-92fbcf53809c.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 開(kāi)源
    +關(guān)注

    關(guān)注

    3

    文章

    3874

    瀏覽量

    45155
  • 寒武紀(jì)
    +關(guān)注

    關(guān)注

    13

    文章

    209

    瀏覽量

    74685
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    820

    瀏覽量

    2537

原文標(biāo)題:寒武紀(jì)Day 0適配DeepSeek-V3.2-Exp,同步開(kāi)源推理引擎vLLM-MLU

文章出處:【微信號(hào):Cambricon_Developer,微信公眾號(hào):寒武紀(jì)開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    寒武紀(jì)“思元220”推動(dòng)邊緣AI應(yīng)用發(fā)展

    11月14日,寒武紀(jì)在第21屆高交會(huì)正式發(fā)布邊緣AI系列產(chǎn)品思元220(MLU220)芯片及M.2加速卡產(chǎn)品。思元220標(biāo)志寒武紀(jì)在云、邊、端實(shí)現(xiàn)了全方位、立體式的覆蓋。 寒武紀(jì)曾于今年6月發(fā)布中文
    的頭像 發(fā)表于 11-14 14:49 ?5187次閱讀

    寒武紀(jì)科技上市了嗎_寒武紀(jì)科技股權(quán)結(jié)構(gòu)是怎樣的

    寒武紀(jì)科技上市了嗎_寒武紀(jì)科技股權(quán)結(jié)構(gòu)是怎樣的?北京中科寒武紀(jì)科技有限公司宣布完成1億美元A輪融資,成為全球AI芯片界首個(gè)獨(dú)角獸的初創(chuàng)公司。背后“獨(dú)角獸”橫空出世,麒麟970的關(guān)鍵部件NPU,采用了來(lái)自
    發(fā)表于 12-29 17:02 ?7.4w次閱讀

    寒武紀(jì)芯片量產(chǎn)了嗎_如何看待國(guó)產(chǎn)自主的寒武紀(jì)芯片

    寒武紀(jì)芯片量產(chǎn)了嗎_如何看待國(guó)產(chǎn)自主的寒武紀(jì)芯片?智能芯片哪家強(qiáng),還是中國(guó)寒武紀(jì)。寒武紀(jì)發(fā)布會(huì)7顆AI芯片全解析,三年后,寒武紀(jì)要力爭(zhēng)占據(jù)中
    發(fā)表于 12-29 17:16 ?2.6w次閱讀

    寒武紀(jì)科技的股東都有誰(shuí)_寒武紀(jì)科技十大股東

    寒武紀(jì)科技的戰(zhàn)略投資方和合作方包括頂尖互聯(lián)網(wǎng)企業(yè)(阿里巴巴)、頂尖服務(wù)器廠商(聯(lián)想、曙光)、頂尖人工智能公司(科大訊飛,天使輪戰(zhàn)略投資方)下面來(lái)了解一下寒武紀(jì)科技的十大股東or戰(zhàn)略伙伴吧。
    發(fā)表于 01-05 10:37 ?17.2w次閱讀

    寒武紀(jì)科技生態(tài)爆發(fā),產(chǎn)業(yè)伙伴展示寒武紀(jì)芯片應(yīng)用

    業(yè)界領(lǐng)先的智能芯片設(shè)計(jì)公司寒武紀(jì)科技今天于上海發(fā)布了Cambricon MLU100 云端智能芯片和板卡產(chǎn)品、寒武紀(jì) 1M 終端智能處理器 IP 產(chǎn)品。聯(lián)想、曙光和科大訊飛作為寒武紀(jì)的合作伙伴同時(shí)發(fā)布了基于
    的頭像 發(fā)表于 05-04 17:15 ?1.1w次閱讀

    麒麟980將整合寒武紀(jì)科技的最新AI技術(shù):“寒武紀(jì)1M”

    麒麟980。華為和臺(tái)積電關(guān)系密切,比如16nm工藝的麒麟960、10nm工藝的麒麟970,都是雙方合作的成果。 此外,麒麟980將整合寒武紀(jì)科技的最新AI技術(shù),基本斷定就是寒武紀(jì)剛剛發(fā)布的第三代IP產(chǎn)品“寒武紀(jì)1M”,后者正是基
    的頭像 發(fā)表于 05-16 10:21 ?7189次閱讀

    華為棄用寒武紀(jì)AI IP背后的原因是什么?

    提到華為為什么棄用寒武紀(jì)AI IP,這要從華為為什么在麒麟970芯片中采用寒武紀(jì)AI 處理器說(shuō)起。
    的頭像 發(fā)表于 03-01 08:49 ?1.3w次閱讀

    寒武紀(jì)先后推出了用于終端場(chǎng)景的寒武紀(jì)1A寒武紀(jì)1M系列芯片

    寒武紀(jì)董事長(zhǎng)、CEO陳天石此前曾表示:“作為一家中立的芯片公司,我們走最正統(tǒng)的芯片設(shè)計(jì)公司的路徑,把應(yīng)用場(chǎng)景留給人工智能行業(yè)的客戶,而我們自己做大家的墊腳石。我們有遠(yuǎn)大的志向,但長(zhǎng)跑才剛剛開(kāi)始,通往偉大芯片公司的賽程很長(zhǎng),寒武紀(jì)將沿大路而行?!?/div>
    發(fā)表于 07-20 17:17 ?1924次閱讀

    寒武紀(jì)持續(xù)研發(fā)投入 2020年虧損收窄,營(yíng)收穩(wěn)步上漲

    轉(zhuǎn)化為銷售額。據(jù)了解,寒武紀(jì)現(xiàn)已成功推出的產(chǎn)品體系覆蓋了云端、邊緣端的智能芯片及其加速卡、終端智能處理器IP,可滿足云、邊、端不同規(guī)模的人工智能計(jì)算需求,同時(shí)提供貫通云邊端的端云一體的軟件棧。具體來(lái)看
    的頭像 發(fā)表于 04-28 13:16 ?2406次閱讀

    寒武紀(jì)的思元(MLU)云端智能加速卡與百川智能完成大模型適配,攜手創(chuàng)新生成式AI

    近日,寒武紀(jì)思元(MLU)系列云端智能加速卡與百川智能旗下的大模型Baichuan2-53B、Baichuan2-13B、Baichuan2-7B等已完成全面適配,寒武紀(jì)思元(MLU)
    的頭像 發(fā)表于 11-06 20:32 ?2456次閱讀
    <b class='flag-5'>寒武紀(jì)</b>的思元(MLU)云端智能加速卡與百川智能完成大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>,攜手創(chuàng)新生成式AI

    寒武紀(jì)與智象未來(lái)達(dá)成戰(zhàn)略合作并完成大模型適配

    1月22日,寒武紀(jì)與智象未來(lái) (HiDream.ai) 在北京簽訂戰(zhàn)略合作協(xié)議,雙方將通過(guò)資源共享、優(yōu)勢(shì)互補(bǔ),依托各自在大模型領(lǐng)域的技術(shù)積累,持續(xù)產(chǎn)品適配,攜手推動(dòng)視覺(jué)大模型的創(chuàng)新與落
    的頭像 發(fā)表于 01-23 13:46 ?958次閱讀
    <b class='flag-5'>寒武紀(jì)</b>與智象未來(lái)達(dá)成戰(zhàn)略合作并完成大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>

    寒武紀(jì)與智象未來(lái)聯(lián)手,推動(dòng)視覺(jué)大模型的技術(shù)創(chuàng)新與應(yīng)用

    在大模型領(lǐng)域,寒武紀(jì)自底層硬件架構(gòu)至基礎(chǔ)軟件更新,皆針對(duì)大模型的實(shí)際應(yīng)用場(chǎng)景進(jìn)行了細(xì)致優(yōu)化。依托高效的推理引擎MagicMind,寒武紀(jì)思元(MLU)系列云端智能加速卡支持輸入輸出變換
    的頭像 發(fā)表于 01-24 09:59 ?2143次閱讀

    寒武紀(jì)增資全資子公司上海寒武紀(jì)

    近日,寒武紀(jì)科技公司發(fā)布公告,宣布了一項(xiàng)重要的增資計(jì)劃。為了保障募投項(xiàng)目的順利實(shí)施,并滿足全資子公司上海寒武紀(jì)的實(shí)際運(yùn)營(yíng)需求,寒武紀(jì)決定使用募集資金1500萬(wàn)元及自有資金1.85億元,合計(jì)2億元
    的頭像 發(fā)表于 02-05 13:44 ?1291次閱讀

    寒武紀(jì)85后創(chuàng)始人陳天石身價(jià)超1500億

    芯片生產(chǎn)和DeepSeek適配國(guó)產(chǎn)芯片的利好刺激下,加之還有國(guó)外投行高盛宣布將寒武紀(jì)-U目標(biāo)價(jià)上調(diào)50%至1835元,AI芯片龍頭寒武紀(jì)股價(jià)持續(xù)大漲。目前
    的頭像 發(fā)表于 08-26 10:37 ?5815次閱讀

    曙光AI超集群系統(tǒng)全面支持DeepSeek-V3.2-Exp

    9月29日,DeepSeek-V3.2-Exp正式發(fā)布并開(kāi)源,引入創(chuàng)新的稀疏Attention架構(gòu)?;谥袊?guó)首個(gè)AI計(jì)算開(kāi)放架構(gòu),芯片層、軟件層、模型層實(shí)現(xiàn)“跨層協(xié)同”,使得曙光AI超集群系統(tǒng)完成對(duì)DeepSeek新版本的深度
    的頭像 發(fā)表于 09-30 16:18 ?1223次閱讀