chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OrangePi AI Studio運(yùn)行Deepseek-R1蒸餾模型,開(kāi)啟你的AI之旅

香橙派 ? 2025-02-11 10:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2025年蛇年春節(jié),DeepSeek強(qiáng)勢(shì)出圈,以十分之一的訓(xùn)練成本比肩OpenAI GPT-4o的性能,重塑AI世界新秩序。DeepSeek向全世界開(kāi)源,為全球的數(shù)據(jù)科學(xué)家、AI愛(ài)好者乃至中小開(kāi)發(fā)者開(kāi)辟了一條通往前沿技術(shù)的道路。

DeepSeek是一款集成多種AI技術(shù)的開(kāi)發(fā)平臺(tái),旨在為用戶提供高效、便捷的AI模型訓(xùn)練、部署和應(yīng)用服務(wù)。它支持自然語(yǔ)言處理(NLP)、計(jì)算機(jī)視覺(jué)(CV)、語(yǔ)音識(shí)別等多個(gè)領(lǐng)域的任務(wù),還提供豐富的預(yù)訓(xùn)練模型和工具,幫助用戶快速構(gòu)建和優(yōu)化AI應(yīng)用。

DeepSeek點(diǎn)燃了AI應(yīng)用。今天,我們就給大家分享如何利用手中的設(shè)備運(yùn)行Deepseek。我們所采用的設(shè)備是OrangePi AI Studio。

wKgZPGeqsHyALNbIAAL5MNGGlJI653.png

OrangePi AI Studio:高算力人工智能算力卡

OrangePi AI Studio采用昇騰AI技術(shù)路線,融合“ARM core,AI core,Vector core,Image core”于一體,提供“基礎(chǔ)通用算力+超強(qiáng)AI算力+編解碼核心”,充分滿足推訓(xùn)一體AI任務(wù)需求,擁有48GB /96GB LPDDR4X,速率高達(dá)4266Mbps。

wKgZPGeqsH2AVsH9AAajDfrCWic698.png

OrangePi AI Studio匯聚了Type-C(USB4.0)、電源接口、電源按鍵、LED指示燈等,可廣泛應(yīng)用于OCR識(shí)別、目標(biāo)識(shí)別、人臉識(shí)別、搜索推薦、大模型多模態(tài)、內(nèi)容審核、VR智能、數(shù)字醫(yī)療、物聯(lián)網(wǎng)等諸多AI應(yīng)用場(chǎng)景。

OrangePi AI Studio當(dāng)前支持Ubuntu22.04.5、內(nèi)核linux5.15.0.126,即將支持Windows,滿足市場(chǎng)對(duì)于算力的強(qiáng)烈需求,降低用戶的學(xué)習(xí)成本、開(kāi)發(fā)成本和運(yùn)營(yíng)成本。

實(shí)操指南:OrangePi AI Studio運(yùn)行Deepseek

1.1硬件連接

使用USB4數(shù)據(jù)線連接opi ai studio和Ubuntu PC。開(kāi)啟Ubuntu PC,參考用戶手冊(cè)中驅(qū)動(dòng)安裝步驟安裝驅(qū)動(dòng)。

正確連接opi ai studio和pc后,在pc開(kāi)機(jī)狀態(tài)下,左右兩側(cè)指示燈常亮,中間指示燈閃爍。

wKgZPGeqsH6AfCaoAAxIFth9zOg172.png

1.2下載docker鏡像

1)首先在Ubuntu電腦中安裝下docker軟件,安裝完docker后如果使用docker -v命令能看到版本號(hào)說(shuō)明安裝成功。

#apt update

#apt install -y docker.io

#docker -v

2)打開(kāi)下面的鏈接,再點(diǎn)擊ATB-Models下載選項(xiàng):

https://www.hiascend.com/developer/download/community/result?module=ie%2Bpt%2Bcann

wKgZPGeqsHyAHC5PAAMwVTINt70709.png

3)然后點(diǎn)擊鏡像版本中的1.0.0-300I-Duo-py311-openeuler24.03-lts對(duì)應(yīng)的下載選項(xiàng)。

wKgZO2eqsHyAJxbFAAJroE04LI4339.png

4)點(diǎn)擊1.0.0-300I-Duo-py311-openeuler24.03-lts右側(cè)的立即下載后會(huì)顯示下面的安裝步驟:

wKgZPGeqsHyASfG_AAGAgh6T2WU449.png

a)使用root用戶運(yùn)行下面的命令獲取登錄訪問(wèn)權(quán)限,然后輸入密碼登錄。不同賬號(hào)看到的下載地址是不一樣的,按照實(shí)際獲取的信息填寫(xiě)。

#docker login -u cn-south-1@ADW7CJ164S04NRFEELZP swr.cn-south-1.myhuaweicloud.com

Password:

WARNING! Your password will be stored unencrypted in /root/.docker/config.json.

Configure a credential helper to remove this warning. See

https://docs.docker.com/engine/reference/commandline/login/#credential-stores

Login Succeeded

b)然后下載鏡像即可。

#docker pull swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie:1.0.0-300I-Duo-py311-openeuler24.03-lts

c)下載好的鏡像如下所示:

#docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie 1.0.0-300I-Duo-py311-openeuler24.03-lts 74a5b9615370

3weeks ago 17.5GB

1.3 使用docker鏡像的方法

1)在任意位置創(chuàng)建一個(gè)名為start-docker.sh的啟動(dòng)腳本,內(nèi)容如下所示:

#vim start-docker.sh

IMAGES_ID=$1

NAME=$2

if [ $# -ne 2 ]; then

echo "error: need one argument describing your container name."

exit 1

fi

docker run --name ${NAME} -it -d --net=host --shm-size=500g \

--privileged=true \

-w /home \

--device=/dev/davinci_manager \

--device=/dev/hisi_hdc \

--device=/dev/devmm_svm \

--entrypoint=bash \

-v /models:/models \

-v /usr/local/Ascend/driver:/usr/local/Ascend/driver \

-v /usr/local/dcmi:/usr/local/dcmi \

-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \

-v /usr/local/sbin:/usr/local/sbin \

-v /home:/home \

-v /tmp:/tmp \

-v /usr/share/zoneinfo/Asia/Shanghai:/etc/localtime \

-e http_proxy=$http_proxy \

-e https_proxy=$https_proxy \

${IMAGES_ID}

2)然后查看下docker鏡像的IMAGE ID。

#docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie 1.0.0-300I-Duo-py311-openeuler24.03-lts 74a5b9615370

3weeks ago 17.5GB

3)然后依次執(zhí)行如下命令啟動(dòng)并進(jìn)入容器:

a.首先運(yùn)行start-docker.sh腳本創(chuàng)建運(yùn)行容器,此命令只需執(zhí)行一次。74a5b9615370是我們上一步中查詢到的docker鏡像ID,mindIE是我們自定義的容器名,可以自行更改,之后進(jìn)入docker容器的時(shí)候需要使用這個(gè)名字。

#chmod +xstart-docker.sh

#bash start-docker.sh74a5b9615370deepseek

b.然后運(yùn)行下面的命令進(jìn)入容器命令行。

#docker exec -itdeepseekbash

1.4 DeepSeek-R1-Distill-Qwen-14B

1)依次執(zhí)行下面的命令,下載DeepSeek-R1-Distill-Qwen-14B模型權(quán)重,將其放到/models目錄下。如無(wú)法下載可參考國(guó)內(nèi)模型網(wǎng)站使用方法一小節(jié)的方法通過(guò)國(guó)內(nèi)模型網(wǎng)站下載。

#mkdir /models

#cd /models

#apt install -y git-lfs

#git clone--depth=1https://deepseek-ai/DeepSeek-R1-Distill-Qwen-14B

2)如果是32GB或32GB以下內(nèi)存的電腦,需要加大內(nèi)存交換分區(qū)的大小,不然轉(zhuǎn)換權(quán)重和執(zhí)行推理程序時(shí)會(huì)由于內(nèi)存不夠而退出。這一步請(qǐng)?jiān)谖锢頇C(jī)上執(zhí)行,不支持在docker容器內(nèi)執(zhí)行。

#fallocate -l 64G /swap_model

#chmod 600 /swap_model

#mkswap /swap_model

#swapon /swap_model

#使用完成后可以使用下面的命令釋放空間

#swapoff /swap_model

#rm /swap_model

3)使用chown命令將/models/DeepSeek-R1-Distill-Qwen-14B目錄及其所有文件的所有者和組更改為root用戶和root組。

#chown root:root -R/models/DeepSeek-R1-Distill-Qwen-14B

4)推理DeepSeek-R1-Distill-Qwen-14B模型的命令如下所示:

#cd $ATB_SPEED_HOME_PATH

#torchrun --nproc_per_node 1 --master_port 20037 -m examples.run_pa --model_path /models/DeepSeek-R1-Distill-Qwen-14B/ --max_output_length 256

5)推理成功后,在輸出的最后,可以找到Question和Answer,結(jié)果如下所示:

wKgZO2eqsHyAcshrAACk-UQ85io331.png

6)純模型能夠正常推理后,我們修改mindie server配置。

#vim /usr/local/Ascend/mindie/latest/mindie-service/conf/config.json

"httpsEnabled" : false,

"npuDeviceIds" : [[0]],

"modelName" : "DeepSeek",

"modelWeightPath" : "/models/DeepSeek-R1-Distill-Qwen-14B",

"worldSize" :1,

7)我們需要先修改模型目錄下的config.json文件的權(quán)限為640,否則無(wú)法啟動(dòng)server服務(wù)。

#chmod 640/models/DeepSeek-R1-Distill-Qwen-14B/config.json

8)執(zhí)行以下命令啟動(dòng)MindIE Server服務(wù),如果最后有如下的輸出,表示啟動(dòng)成功。。

#cd /usr/local/Ascend/mindie/latest/mindie-service/bin

#./mindieservice_daemon

......

Daemon start success!

9)接著拉取聊天機(jī)器人案例代碼。

#git clone https://gitee.com/toolsmanhehe/chat_robot.git

10)安裝依賴。

#cd chat_robot

#pip3 install -r requirements.txt -i https://mirrors.huaweicloud.com/repository/pypi/simple

11)啟動(dòng)聊天機(jī)器人demo程序。啟動(dòng)后,會(huì)打印如下信息,復(fù)制其中的url到瀏覽器打開(kāi)。

a)首先程序會(huì)自動(dòng)查詢當(dāng)前設(shè)備上MindIE中運(yùn)行的模型信息,并打印出來(lái)。

b)如果提示暫不支持,請(qǐng)核對(duì)MindIE Server中的“modelName”字段。

c)然后等一會(huì)就會(huì)打印兩個(gè)ip地址。第一個(gè)url只能在啟動(dòng)主程序的電腦上訪問(wèn),第二個(gè)url可以通過(guò)和啟動(dòng)主程序的電腦同一網(wǎng)絡(luò)下的設(shè)備訪問(wèn)。

# python3 main.py

檢測(cè)到mindie server中啟動(dòng)了DeepSeek模型。

* Serving Flask app 'main'

* Debug mode: off

WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead.

* Running on all addresses (0.0.0.0)

* Running on http://127.0.0.1:5000

* Running on http://10.31.3.139:5000

Press CTRL+C to quit

12)瀏覽器打開(kāi)上面的鏈接后我們可以看到下面這個(gè)頁(yè)面,左側(cè)提供了一些問(wèn)題,點(diǎn)擊可以直接提問(wèn)。

wKgZO2eqsH2AQ74gAAcf6L5ofDs506.png

1.5 DeepSeek-R1-Distill-Qwen-1.5B

13)依次執(zhí)行下面的命令,下載DeepSeek-R1-Distill-Qwen-14B模型權(quán)重,將其放到/models目錄下。如無(wú)法下載可參考國(guó)內(nèi)模型網(wǎng)站使用方法一小節(jié)的方法通過(guò)國(guó)內(nèi)模型網(wǎng)站下載。

#mkdir /models

#cd /models

#apt install -y git-lfs

#git clone--depth=1https://deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

14)如果是32GB或32GB以下內(nèi)存的電腦,需要加大內(nèi)存交換分區(qū)的大小,不然轉(zhuǎn)換權(quán)重和執(zhí)行推理程序時(shí)會(huì)由于內(nèi)存不夠而退出。這一步請(qǐng)?jiān)谖锢頇C(jī)上執(zhí)行,不支持在docker容器內(nèi)執(zhí)行。

#fallocate -l 64G /swap_model

#chmod 600 /swap_model

#mkswap /swap_model

#swapon /swap_model

#使用完成后可以使用下面的命令釋放空間

#swapoff /swap_model

#rm /swap_model

15)使用chown命令將/models/DeepSeek-R1-Distill-Qwen-1.5B目錄及其所有文件的所有者和組更改為root用戶和root組。

#chown root:root -R/models/DeepSeek-R1-Distill-Qwen-1.5B

16)推理DeepSeek-R1-Distill-Qwen-14B模型的命令如下所示:

#cd $ATB_SPEED_HOME_PATH

#torchrun --nproc_per_node 1 --master_port 20037 -m examples.run_pa --model_path /models/DeepSeek-R1-Distill-Qwen-1.5B/ --max_output_length 256

17)推理成功后,在輸出的最后,可以找到Question和Answer,結(jié)果如下所示:

wKgZO2eqsHyAcshrAACk-UQ85io331.png

18)純模型能夠正常推理后,我們修改mindie server配置。

#vim /usr/local/Ascend/mindie/latest/mindie-service/conf/config.json

"httpsEnabled" : false,

"npuDeviceIds" : [[0]],

"modelName" : "DeepSeek",

"modelWeightPath" : "/models/DeepSeek-R1-Distill-Qwen-1.5B",

"worldSize" :1,

19)我們需要先修改模型目錄下的config.json文件的權(quán)限為640,否則無(wú)法啟動(dòng)server服務(wù)。

#chmod 640/models/DeepSeek-R1-Distill-Qwen-1.5B/config.json

20)執(zhí)行以下命令啟動(dòng)MindIE Server服務(wù),如果最后有如下的輸出,表示啟動(dòng)成功。。

#cd /usr/local/Ascend/mindie/latest/mindie-service/bin

#./mindieservice_daemon

......

Daemon start success!

21)接著拉取聊天機(jī)器人案例代碼。

#git clone https://gitee.com/toolsmanhehe/chat_robot.git

22)安裝依賴。

#cd chat_robot

#pip3 install -r requirements.txt -i https://mirrors.huaweicloud.com/repository/pypi/simple

23)啟動(dòng)聊天機(jī)器人demo程序。啟動(dòng)后,會(huì)打印如下信息,復(fù)制其中的url到瀏覽器打開(kāi)。

a)首先程序會(huì)自動(dòng)查詢當(dāng)前設(shè)備上MindIE中運(yùn)行的模型信息,并打印出來(lái)。

b)如果提示暫不支持,請(qǐng)核對(duì)MindIE Server中的“modelName”字段。

c)然后等一會(huì)就會(huì)打印兩個(gè)ip地址。第一個(gè)url只能在啟動(dòng)主程序的電腦上訪問(wèn),第二個(gè)url可以通過(guò)和啟動(dòng)主程序的電腦同一網(wǎng)絡(luò)下的設(shè)備訪問(wèn)。

# python3 main.py

檢測(cè)到mindie server中啟動(dòng)了DeepSeek模型。

* Serving Flask app 'main'

* Debug mode: off

WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead.

* Running on all addresses (0.0.0.0)

* Running on http://127.0.0.1:5000

* Running on http://10.31.3.139:5000

Press CTRL+C to quit

24)瀏覽器打開(kāi)上面的鏈接后我們可以看到下面這個(gè)頁(yè)面,左側(cè)提供了一些問(wèn)題,點(diǎn)擊可以直接提問(wèn)。

wKgZO2eqsH2AQ74gAAcf6L5ofDs506.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39961

    瀏覽量

    301600
  • 開(kāi)發(fā)板
    +關(guān)注

    關(guān)注

    26

    文章

    6305

    瀏覽量

    118441
  • orange pi
    +關(guān)注

    關(guān)注

    0

    文章

    45

    瀏覽量

    3140
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    836

    瀏覽量

    3290
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    百度騰訊搶灘布局!DeepSeek-R1升級(jí)和開(kāi)源背后,國(guó)產(chǎn)AI的逆襲之路

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)日前,DeepSeek官方宣布DeepSeek-R1模型已完成小版本試升級(jí),當(dāng)前版本為DeepSeek-R1-0528。次日,
    的頭像 發(fā)表于 06-03 06:34 ?6216次閱讀

    太強(qiáng)了!AI PC搭載70B大模型,算力狂飆,內(nèi)存開(kāi)掛

    DeepSeek-R1不同模型。相對(duì)來(lái)說(shuō),DeepSeek-R1 70B大模型或許是日常AI功能的頂格需求,它也是當(dāng)前高性能
    的頭像 發(fā)表于 03-24 08:52 ?3698次閱讀
    太強(qiáng)了!<b class='flag-5'>AI</b> PC搭載70B大<b class='flag-5'>模型</b>,算力狂飆,內(nèi)存開(kāi)掛

    邊緣AI算力臨界點(diǎn):深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價(jià)值

    /697f13887c1d88441d911697.html)。 實(shí)測(cè)數(shù)據(jù)如下 : 平臺(tái) :OrangePi AI Station (Ascend 310P RC模式) 推理耗時(shí) :約 200ms (端到端,包含圖像渲染和
    發(fā)表于 03-10 14:19

    速看!EASY-EAI教你離線部署Deepseek R1模型

    1.Deepseek簡(jiǎn)介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。
    的頭像 發(fā)表于 07-25 15:22 ?1393次閱讀
    速看!EASY-EAI教你離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書(shū)籍介紹+第一章讀后心得

    實(shí)現(xiàn)三重超越;而對(duì)開(kāi)源生態(tài)、技術(shù)趨勢(shì)的前瞻探討,則印證了DeepSeek“用開(kāi)源擊穿技術(shù)壁壘”的初心。 當(dāng)DeepSeek-R1以60TPS的生成速度刷新認(rèn)知,當(dāng)蒸餾模型讓尖端
    發(fā)表于 07-17 11:59

    信而泰×DeepSeekAI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    DeepSeek-R1:強(qiáng)大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開(kāi)發(fā)的新一代AI模型。其核心優(yōu)勢(shì)
    發(fā)表于 07-16 15:29

    Arm Neoverse N2平臺(tái)實(shí)現(xiàn)DeepSeek-R1滿血版部署

    頗具優(yōu)勢(shì)。Arm 攜手合作伙伴,在 Arm Neoverse N2 平臺(tái)上使用開(kāi)源推理框架 llama.cpp 實(shí)現(xiàn) DeepSeek-R1 滿血版的部署,目前已可提供線上服務(wù)。
    的頭像 發(fā)表于 07-03 14:37 ?1263次閱讀
    Arm Neoverse N2平臺(tái)實(shí)現(xiàn)<b class='flag-5'>DeepSeek-R1</b>滿血版部署

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】CPU部署DeekSeek-R1模型1B和7B)

    ,使用如下命令: ollama pull deepseek-r1:1.5b 拉取deepseek-r1 1.5b模型,過(guò)程中會(huì)下載速度和進(jìn)度: 稍等一段時(shí)間,下載完成: 2.4 ollama
    發(fā)表于 04-21 00:39

    DevEco Studio AI輔助開(kāi)發(fā)工具兩大升級(jí)功能 鴻蒙應(yīng)用開(kāi)發(fā)效率再提升

    開(kāi)發(fā)者的喜愛(ài)。 應(yīng)廣大開(kāi)發(fā)者的需求建議,我們最近又對(duì)CodeGenie進(jìn)行了一次升級(jí),不僅針對(duì)DeepSeek-R1新增支持鴻蒙知識(shí)RAG能力,還上線了代碼解釋功能,持續(xù)拓展AI在輔助鴻蒙應(yīng)用開(kāi)發(fā)全流程
    發(fā)表于 04-18 14:43

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    。 端側(cè)AI應(yīng)用開(kāi)發(fā)往往需要調(diào)用各種各樣的大模型能力,需要更豐富、類(lèi)型更多的模型適配。為此,Gen-AI Model Hub全面擴(kuò)容,模型
    發(fā)表于 04-13 19:52

    如何基于Android 14在i.MX95 EVK上運(yùn)行Deepseek-R1-1.5B和性能

    圖標(biāo): 3. Download deepseek-R1 models through PocketPal 1. 打開(kāi) pocketPal 并單擊右下角的“轉(zhuǎn)到模型”按鈕。 2. 確保您可以訪問(wèn)
    發(fā)表于 04-04 06:59

    香橙派發(fā)布OrangePi RV2本地部署Deepseek-R1蒸餾模型指南

    繼香橙派昇騰系列產(chǎn)品、OrangePi5系列產(chǎn)品完成與DeepSeek模型的深度適配之后,香橙派日前官方發(fā)布OrangePiRV2運(yùn)行Deepsee
    的頭像 發(fā)表于 03-28 11:55 ?1715次閱讀
    香橙派發(fā)布<b class='flag-5'>OrangePi</b> RV2本地部署<b class='flag-5'>Deepseek-R1</b><b class='flag-5'>蒸餾</b><b class='flag-5'>模型</b>指南

    DeepSeek到Qwen,AI模型的移植與交互實(shí)戰(zhàn)指南-飛凌嵌入式

    在不久前發(fā)布的《技術(shù)實(shí)戰(zhàn)|OK3588-C開(kāi)發(fā)板上部署DeepSeek-R1模型的完整指南》一文中,小編為大家介紹了DeepSeek-R1在飛凌嵌入式OK3588-C開(kāi)發(fā)板上的移植部署、效果展示以及性能評(píng)測(cè),本篇文章不僅將繼續(xù)
    的頭像 發(fā)表于 03-28 08:06 ?2853次閱讀
    從<b class='flag-5'>DeepSeek</b>到Qwen,<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>的移植與交互實(shí)戰(zhàn)指南-飛凌嵌入式

    AI筑基,智領(lǐng)未來(lái) | DeepSeek-R1本地大模型賦能邁威通信智能化轉(zhuǎn)型

    在人工智能技術(shù)迅猛發(fā)展的浪潮中,邁威通信始終秉承創(chuàng)新驅(qū)動(dòng)發(fā)展的理念,積極探索AI技術(shù)在企業(yè)級(jí)場(chǎng)景中的深度應(yīng)用。近日,公司成功完成基于DeepSeek-R1模型的本地化部署,標(biāo)志著其在AI
    的頭像 發(fā)表于 03-26 10:26 ?1053次閱讀
    <b class='flag-5'>AI</b>筑基,智領(lǐng)未來(lái) | <b class='flag-5'>DeepSeek-R1</b>本地大<b class='flag-5'>模型</b>賦能邁威通信智能化轉(zhuǎn)型

    DevEco Studio 聯(lián)合小藝接入 DeepSeek,步驟更簡(jiǎn)單開(kāi)發(fā)鴻蒙更專(zhuān)業(yè)

    CodeGenie,在底部 Agents 中選擇 DeepSeek-R1(Beta),就可以直接開(kāi)始使用 DeepSeek 的能力輔助開(kāi)發(fā)原生鴻蒙應(yīng)用了! 我們來(lái)結(jié)合鴻蒙原生應(yīng)用開(kāi)發(fā)+應(yīng)用流行趨勢(shì)+鴻蒙特性來(lái)
    發(fā)表于 03-13 15:11