chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在ZYNQ本地部署DeepSeek模型

FPGA技術(shù)江湖 ? 來源:OpenFPGA ? 2025-12-19 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

以下文章來源于OpenFPGA,作者碎碎思

一個(gè)將最小號(hào) DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項(xiàng)目。

ccb047e2-da13-11f0-8c8f-92fbcf53809c.png

1. 引言

如果你過去幾年沒注意人工智能的大趨勢(shì),那么你可能不知道大型語言模型(LLM)已在 AI 領(lǐng)域占據(jù)重要地位。

這些模型能夠理解人類的文本查詢,并生成文本回應(yīng)。之所以稱“大模型”,是因?yàn)樗鼈兺ǔT诖罅烤W(wǎng)頁、書籍、對(duì)話、代碼等數(shù)據(jù)上訓(xùn)練。

其本質(zhì)并非“真正的智能”,而是深度學(xué)習(xí)模型——基于復(fù)雜數(shù)學(xué)運(yùn)算(如線性代數(shù)、優(yōu)化算法)實(shí)現(xiàn)的預(yù)測(cè)機(jī)制。

常見的做法是:若希望獲得良好性能,通常依賴高性能的 GPU(例如 AMD Instinct GPU)進(jìn)行推理。

但在某些應(yīng)用場(chǎng)景,我們可能希望將 LLM 部署在 邊緣設(shè)備(edge device) 本地執(zhí)行。出于這個(gè)目的,本項(xiàng)目將在 ZUBoard(含 Arm Cortex-A53 內(nèi)核的 Zynq UltraScale+ MPSoC)上運(yùn)行一個(gè)較小的 DeepSeek 模型。

部署在邊緣設(shè)備的優(yōu)勢(shì)包括:

隱私:模型在本地運(yùn)行,無需上傳數(shù)據(jù)到云端。

離線訪問:不依賴寬帶或云服務(wù)。

成本:節(jié)省托管云推理的費(fèi)用。

但工程中必須在 隱私、成本、性能之間做權(quán)衡。

2. 什么是 DeepSeek

如果你還不熟悉 DeepSeek:這是一系列高性能的開放權(quán)重 LLM 和大規(guī)模多模態(tài)模型(LMM),用于推動(dòng)開放 AI 研究。

這些模型從零開始訓(xùn)練,使用了數(shù)萬億 tokens 的多語言網(wǎng)頁、學(xué)術(shù)文獻(xiàn)、代碼庫(kù)及精編數(shù)據(jù)集。

架構(gòu)上基于 Transformer,并加入了諸如:Grouped Query Attention (GQA)、SwiGLU 激活函數(shù)、多查詢注意力層,以提升推理效率。

模型尺寸可選范圍:1.5B、7B、13B 參數(shù)及以上,以便在資源使用與準(zhǔn)確度之間平衡。

DeepSeek-VL(視覺-語言版本)擴(kuò)展支持圖像數(shù)據(jù)與文本監(jiān)督,能夠進(jìn)行跨模態(tài)推理、視覺問答、圖片-文本生成。

其還提供量化版本(4 bit、8 bit)以適配邊緣設(shè)備與移動(dòng)部署。

在多個(gè)基準(zhǔn)上(如 MMLU、GSM8K、HumanEval、MMMU)表現(xiàn)出接近或達(dá)到最先進(jìn)水平,同時(shí)優(yōu)化 CPU/GPU 推理效率。

3. 在 Zynq UltraScale+ MPSoC 上開始

項(xiàng)目使用 PYNQ 平臺(tái)作為 DeepSeek 安裝基礎(chǔ)。

步驟如下:

從 PYNQ 官網(wǎng)下載適用于 Avnet ZUBoard 的鏡像,并將鏡像燒錄至 SD 卡。

cd191a4c-da13-11f0-8c8f-92fbcf53809c.png

將板上的啟動(dòng)開關(guān)設(shè)為 SD 卡啟動(dòng),插入 SD 卡,并通過 USB UART以太網(wǎng)將 ZUBoard 連接至主機(jī)。

cd7b3c22-da13-11f0-8c8f-92fbcf53809c.jpg

啟動(dòng)后使用瀏覽器訪問 http://pynq:9090,密碼通常為 xilinx。

cddaba08-da13-11f0-8c8f-92fbcf53809c.png

打開終端,準(zhǔn)備安裝 DeepSeek 模型。

ce2eddcc-da13-11f0-8c8f-92fbcf53809c.png

4. 準(zhǔn)備工作

由于 ZUBoard 僅配備 1 GB 的 LPDDR4 內(nèi)存,需在 SD 卡上建立足夠的交換(swap)空間,以防止內(nèi)存耗盡導(dǎo)致系統(tǒng)崩潰。

具體命令示例:

swapon --show 
sudo swapoff /var/swap 
sudo rm /var/swap 
sudo chmod 600 /var/swap 
sudo mkswap /var/swap 
sudo swapon /var/swap

執(zhí)行完成后,通過 swapon --show 可確認(rèn)現(xiàn)在有約 4 GB 的 swap 空間。

ce890dba-da13-11f0-8c8f-92fbcf53809c.png

5. 安裝 Ollama 與 DeepSeek

使用開源工具 Ollama 來運(yùn)行 LLM,本項(xiàng)目使用 Ollama 框架。

安裝命令示例:

curl -fsSL https://ollama.com/install.sh | sh

系統(tǒng)無 GPU,可忽略相應(yīng)警告。

cee699c6-da13-11f0-8c8f-92fbcf53809c.png

在安裝成功后,下載 DeepSeek 1.5B 參數(shù)版本。示例命令:

mkdir deepseek 
exportHOME=/home/xilinx/deepseek 
ollama pull deepseek-r1:1.5b

cf45bf5a-da13-11f0-8c8f-92fbcf53809c.png

6. 測(cè)試

在 ZUBoard 上運(yùn)行模型示例命令:

ollama run deepseek-r1:1.5b

系統(tǒng)將顯示提示符,等待你的輸入。

cf99c51e-da13-11f0-8c8f-92fbcf53809c.png

我做的第一件事就是詢問它關(guān)于模型的問題。

cff32190-da13-11f0-8c8f-92fbcf53809c.png

模型信息如下圖所示。

d04c1b6a-da13-11f0-8c8f-92fbcf53809c.png

然后,像操作普通 LLM 一樣與該模型進(jìn)行交互。

d0a93a84-da13-11f0-8c8f-92fbcf53809c.png

可在另一個(gè)終端運(yùn)行 top 命令來觀察系統(tǒng)資源消耗。

d0fd8300-da13-11f0-8c8f-92fbcf53809c.png

需要注意:

參數(shù)較少(1.5B)意味著推理能力有限。

使用 swap 空間意味著性能會(huì)受到影響。

7. 總結(jié)

該項(xiàng)目展示了:即便沒有 GPU,也能在邊緣設(shè)備(如 ZYNQ)上部署 LLM。盡管性能受限,但具備“本地離線自動(dòng)推理”的能力,在特定應(yīng)用場(chǎng)景中極具價(jià)值。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • amd
    amd
    +關(guān)注

    關(guān)注

    25

    文章

    5657

    瀏覽量

    139134
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3658

    瀏覽量

    51804
  • Zynq
    +關(guān)注

    關(guān)注

    10

    文章

    627

    瀏覽量

    49262
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    826

    瀏覽量

    2858

原文標(biāo)題:邊緣 AI 新玩法:在 ZYNQ 本地部署 DeepSeek 模型

文章出處:【微信號(hào):HXSLH1010101010,微信公眾號(hào):FPGA技術(shù)江湖】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開發(fā)板本地部署DeepSeek模型的完整指南

    ELF 2開發(fā)板本地部署DeepSeek模型的完整指南
    的頭像 發(fā)表于 05-16 11:13 ?2346次閱讀
    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開發(fā)板<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整指南

    本地部署openWebUI + ollama+DeepSeek 打造智能知識(shí)庫(kù)并實(shí)現(xiàn)遠(yuǎn)程訪問

    DeepSeek 作為一個(gè)開源的大語言模型,我們可以通過 ZeroNews + openWebUI + ollama的方式,輕松的在本地私有化部署
    的頭像 發(fā)表于 09-10 16:41 ?5028次閱讀
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能知識(shí)庫(kù)并實(shí)現(xiàn)遠(yuǎn)程訪問

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測(cè)試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測(cè)試,開啟這場(chǎng)充滿挑戰(zhàn)與驚喜的技術(shù)探索之旅。 RK3588 開發(fā)板:AI 性能擔(dān)當(dāng) RK3588 開發(fā)板基于先進(jìn)的 8nm LP 制程工藝精心打造,其硬件配置堪稱豪華,在 AI
    發(fā)表于 02-14 17:42

    RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南

    DeepSeek作為國(guó)產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。DeepSeek-R1作為該系列最新迭代版本,實(shí)現(xiàn)了長(zhǎng)文本處理效能躍遷、多模態(tài)
    發(fā)表于 02-27 16:45

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】DeepSeek 部署及測(cè)試

    【幸狐 Omni3576 邊緣計(jì)算套件測(cè)評(píng)】DeepSeek 部署及測(cè)試 本文介紹了幸狐 Omni3576 邊緣計(jì)算套件實(shí)現(xiàn) DeepSeek 部署及測(cè)試的相關(guān)流程,包括
    發(fā)表于 03-21 19:31

    DeepSeek-R1本地部署指南,開啟你的AI探索之旅

    春節(jié)期間突然被DeepSeek刷屏了,這熱度是真大,到處都是新聞和本地部署的教程,等熱度過了過,簡(jiǎn)單記錄下自己本地部署及相關(guān)的內(nèi)容,就當(dāng)電子
    的頭像 發(fā)表于 02-08 10:30 ?8522次閱讀
    <b class='flag-5'>DeepSeek</b>-R1<b class='flag-5'>本地</b><b class='flag-5'>部署</b>指南,開啟你的AI探索之旅

    DeepSeek本地部署硬件配置推薦

    近日,關(guān)于 DeepSeek 的話題如同一場(chǎng)風(fēng)暴,席卷了整個(gè)大語言模型領(lǐng)域。
    的頭像 發(fā)表于 02-11 10:54 ?3996次閱讀
    <b class='flag-5'>DeepSeek</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>硬件配置推薦

    何在MATLAB中使用DeepSeek模型

    DeepSeek-R1(https://github.com/deepseek-ai/DeepSeek-R1) AI 模型橫空出世后,人們幾乎就立馬開始詢問如
    的頭像 發(fā)表于 02-13 09:20 ?4118次閱讀
    如<b class='flag-5'>何在</b>MATLAB中使用<b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    DeepSeek R1模型本地部署與產(chǎn)品接入實(shí)操

    針對(duì)VS680/SL1680系列大算力芯片,我們的研發(fā)團(tuán)隊(duì)正在研究將蒸餾后的輕量級(jí)DeepSeek模型DeepSeek-R1-Distill-Qwen-1.5B)部署到SOC
    的頭像 發(fā)表于 04-19 16:32 ?627次閱讀
    <b class='flag-5'>DeepSeek</b> R1<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>與產(chǎn)品接入實(shí)操

    華為云發(fā)布DeepSeek本地部署方案

    華為云正式推出基于華為云Stack混合云的DeepSeek本地部署方案。
    的頭像 發(fā)表于 02-18 10:05 ?1448次閱讀

    曙光順利完成DeepSeek模型本地化多點(diǎn)私有部署

    計(jì)算中心等政務(wù)云服務(wù)商,依托本地政務(wù)云資源池,順利完成DeepSeek模型本地化多點(diǎn)私有部署,并打造出數(shù)字人“撫小智”。撫州市還計(jì)劃將
    的頭像 發(fā)表于 02-22 14:16 ?1134次閱讀

    行芯完成DeepSeek-R1大模型本地部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地部署,實(shí)現(xiàn)在多場(chǎng)景、多產(chǎn)品中應(yīng)用。解鎖“芯”玩法,開啟“芯”未來!
    的頭像 發(fā)表于 02-24 15:17 ?1172次閱讀

    博實(shí)結(jié)完成DeepSeek模型本地部署

    近日,公司完成DeepSeek R1 671B大模型本地部署。通過構(gòu)建自主可控的AI基礎(chǔ)設(shè)施,公司同步實(shí)現(xiàn)研發(fā)智能升級(jí)、研發(fā)成本重構(gòu)、數(shù)據(jù)安全閉環(huán)與應(yīng)用場(chǎng)景突破,為產(chǎn)業(yè)智能化賦能。
    的頭像 發(fā)表于 03-19 16:31 ?1063次閱讀

    ORinNano離線部署Deepseek R1大模型教程

    ORinNano離線部署Deepseek R1大模型教程
    的頭像 發(fā)表于 04-10 15:32 ?1123次閱讀
    ORinNano離線<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> R1大<b class='flag-5'>模型</b>教程

    DeepSeek模型何在云服務(wù)器上部署?

    隨著大型語言模型(LLM)的應(yīng)用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務(wù)器上,以實(shí)現(xiàn)私有化、定制化服務(wù)并保障數(shù)據(jù)安全。本文將詳細(xì)闡述
    的頭像 發(fā)表于 10-13 16:52 ?623次閱讀