chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

產(chǎn)品應用 | 小盒子跑大模型!英碼科技基于算能BM1684X平臺實現(xiàn)大模型私有化部署

英碼科技 ? 來源:英碼科技 ? 作者:英碼科技 ? 2024-06-14 16:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當前,在人工智能領域,大模型在豐富人工智能應用場景中扮演著重要的角色,經(jīng)過不斷的探索,大模型進入到落地的階段。而大模型在落地過程中面臨兩大關鍵難題:對龐大計算資源的需求和對數(shù)據(jù)隱私與安全的考量。為應對這些挑戰(zhàn),在邊緣側私有化部署大模型成為了一個有效的解決方案。

將大模型部署到邊緣側,不僅能夠減少延遲和帶寬消耗,使得大模型能夠在邊緣節(jié)點快速進行推理和應用;還能增強數(shù)據(jù)隱私保護,這對于維護企業(yè)的數(shù)據(jù)安全至關重要。

為響應市場需求,英碼科技推出了基于算能BM1684X平臺的大模型私有化部署產(chǎn)品方案,包括:邊緣計算盒子IVP03X-V2、云邊加速卡AIV02X和AIV03X,助力企業(yè)實現(xiàn)垂直大模型應用落地!

wKgaomZr_fqAdrBeAAbmBEryjaQ258.png

▎邊緣計算盒子IVP03X-V2

IVP03X-V2是英碼科技基于BM1684X推出的高性能邊緣計算盒子,INT8算力高達32Tops,配置了16GB大內存,支持適配Llama2-7B/ChatGLM3-6B/Qwen-7B和SAM/StableDiffusion等大模型,是業(yè)內少數(shù)能同時兼容國內外深度學習框架,并且能夠流暢運行大語言模型推理的邊緣計算設備之一。

▎大模型推理加速卡AIV02X & AIV03X

AIV02X和AIV03X算力可達64 TOPS@INT8和72 TOPS@INT8,顯存配置32GB和48GB,支持多芯分布式推理及支持大語言/提示型/圖像生成模型等大模型推理;這兩款云邊大模型推理加速卡均可應用于邊緣大語言、文生圖等通用大模型、垂直行業(yè)私有模型的推理應用。

接下來,以英碼科技IVP03X邊緣計算盒子為例,為大家介紹實測大語言模型、文生圖大模型的部署流程和效果演示:

英碼科技IVP03X-V2實測大語言模型

一、前期準備工作

demo下載地址:

https://github.com/sophgo/sophon-demo

二、大模型內存配置

1、建一個存放工具的文件夾:

mkdir memedit && cd memedit


2、下載內存配置工具:

wget -nd https://sophon-file.sophon.cn/sophon-prod-s3/drive/23/09/11/13/DeviceMemoryModificationKit.tgz tar xvf DeviceMemoryModificationKit.tgz cd DeviceMemoryModificationKit tar xvf memory_edit_{vx.x}.tar.xz #vx.x是版本號 cd memory_edit

3、重配內存:

./memory_edit.sh -p #這個命令會打印當前的內存布局信息 ./memory_edit.sh -c -npu 7615 -vpu 3072 -vpp 3072 #npu也可以訪問vpu和vpp的內存 替換emmbboot.itb: sudo cp /data/memedit/DeviceMemoryModificationKit/memory_edit/emmcboot.itb /boot/emmcboot.itb && sync

4、重啟生效:

reboot 重啟后,檢查配置: free -h cat /sys/kernel/debug/ion/bm_npu_heap_dump/summary | head -2 cat /sys/kernel/debug/ion/bm_vpu_heap_dump/summary | head -2 cat /sys/kernel/debug/ion/bm_vpp_heap_dump/summary | head -2

三、實測Chat-GLM3大模型(英文模式)

1、demo下載(Chat-GLM3)

進到Chat-GLM2案例目錄下:sophon-demo-release/sample/Chat-GLM2/

安裝pip3,安裝dfss

sudo apt install python3-pip pip3 install dfss -i https://pypi.tuna.tsinghua.edu.cn/simple/ pip3 install dfss --upgrade

下載模型:

sudo apt install unzip chmod -R +x scripts/ ./scripts/download.sh

2、安裝依賴

安裝python依賴:

pip3 install -r python/requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/ Sail安裝包,下載安裝: python3 -m dfss --url=open@sophgo.com:sophon-demo/ChatGLM3/sail/soc/sophon_arm-3.7.0-py3-none-any.whl pip3 install sophon_arm-3.7.0-py3-none-any.whl

3、大模型運行測試:

python3 python/chatglm3.py --bmodel models/BM1684X/chatglm3-6b_int4.bmodel --token python/token_config --dev_id 0 python3 python/chatglm3.py --bmodel models/BM1684X/chatglm3-6b_int8.bmodel --token python/token_config --dev_id 0 python3 python/chatglm3.py --bmodel models/BM1684X/chatglm3-6b_fp16.bmodel --token python/token_config --dev_id 0

9

四、實測Qwen大模型(中文模式)

1、demo下載(Qwen)

進到Chat-GLM2案例目錄下:sophon-demo-release/sample/Qwen/

安裝pip3,安裝dfss

sudo apt install python3-pip pip3 install dfss -i https://pypi.tuna.tsinghua.edu.cn/simple/ pip3 install dfss --upgrade

下載模型:

sudo apt install unzip chmod -R +x scripts/ ./scripts/download.sh

2、安裝依賴

安裝python依賴:

pip3 install -r python/requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/ Sail安裝包,下載安裝: python3 -m dfss --url=open@sophgo.com:sophon-demo/ChatGLM3/sail/soc/sophon_arm-3.7.0-py3-none-any.whl pip3 install sophon_arm-3.7.0-py3-none-any.whl

3、大運行測試:

python3 python/qwen.py --bmodel models/BM1684X/qwen-7b_int4_1dev.bmodel --token python/token_config --dev_id 0 python3 python/qwen.py --bmodel models/BM1684X/qwen-7b_int8_1dev.bmodel --token python/token_config --dev_id 0

英碼科技IVP03X-V2實測文生圖大模型

1、demo下載(StableDiffusionV1_5)

進到Chat-GLM2案例目錄下:sophon-demo-release/sample/Qwen/

安裝pip3,安裝dfss

sudo apt install python3-pip pip3 install dfss -i https://pypi.tuna.tsinghua.edu.cn/simple/ pip3 install dfss --upgrade

下載模型:

sudo apt install unzip chmod -R +x scripts/ ./scripts/download_controlnets_bmodel.sh ./scripts/download_multilize_bmodel.sh ./scripts/download_singlize_bmodel.sh

2、安裝依賴

安裝python依賴:

pip3 install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/ 安裝sail包 python3 -m dfss --url=open@sophgo.com:sophon-demo/ChatGLM3/sail/soc/sophon_arm-3.7.0-py3-none-any.whl

3、大模型運行測試:

①文本生成圖像

迭代20次

python3run.py--model_path../models/BM1684X--stagesinglize--prompt"Aparrotrestingonabranch"--neg_prompt"worstquality"--num_inference_steps20--dev_id0

迭代500次

python3 run.py --model_path ../models/BM1684X --stage singlize --pr ompt "A parrot resting on a branch" --neg_prompt "worst quality" --num_inference_steps 500 --dev_id 0

wKgZomZr_zWAOsD4AA-bPEXwDNo060.png

② Controlnet插件輔助控制 生成圖像

一只小兔子晚上在酒吧喝酒 :迭代次數(shù),20次

python3 run.py --model_path ../models/BM1684X --stage multilize --controlnet_name scribble_controlnet_fp16.bmodel --processor_name scribble_processor_fp16.bmodel --controlnet_img ../pics/generated_img.jpg --prompt "a rabbit drinking at the bar at night" --neg_prompt "worst quality" --num_inference_steps 100 --dev_id 0

一只小兔子晚上在酒吧喝酒 :迭代次數(shù),200次

python3 run.py --model_path ../models/BM1684X --stage multilize --controlnet_name scribble_controlnet_fp16.bmodel --processor_name scribble_processor_fp16.bmodel --controlnet_img ../pics/generated_img.jpg --prompt "a rabbit drinking at the bar at night" --neg_prompt "worst quality" --num_inference_steps 200 --dev_id 0

wKgaomZr_0iAARqMABC_rCt6XA0763.png

結語

隨著大模型技術的不斷落地和應用,大模型涌現(xiàn)的強大能力不再局限于云端,模型的算法正逐漸向邊緣端延伸;未來,英碼科技將結合自身在軟硬件方面的技術優(yōu)勢和豐富的經(jīng)驗,以AI賦能更多企業(yè)低門檻、高效落地邊緣側大模型應用,從而推動各行業(yè)智能化轉型的進程。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    40201

    瀏覽量

    301838
  • 人工智能
    +關注

    關注

    1819

    文章

    50151

    瀏覽量

    265947
  • 大模型
    +關注

    關注

    2

    文章

    3684

    瀏覽量

    5212
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    模型產(chǎn)品:Qwen2.5-VL在BM1684X邊緣計算部署全攻略

    前言:部署意義與應用場景1.1Qwen-2-5-VL與BM1684X的組合行業(yè)意義:?邊緣AI革命:大模型從云端下沉到邊緣設備是當前AI發(fā)展的關鍵趨勢。根據(jù)ABIResearch數(shù)據(jù),到2026年
    的頭像 發(fā)表于 01-13 14:17 ?4746次閱讀
    從<b class='flag-5'>模型</b>到<b class='flag-5'>產(chǎn)品</b>:Qwen2.5-VL在<b class='flag-5'>BM1684X</b>邊緣計算<b class='flag-5'>部署</b>全攻略

    SAM(通用圖像分割基礎模型)丨基于BM1684X模型部署指南

    在基于BM1684X芯片的嵌入式設備上進行高效推理測試。一、特性?支持BM1684X平臺全系列部署方案(x86PCIe、SoC、riscvP
    的頭像 發(fā)表于 01-12 16:17 ?349次閱讀
    SAM(通用圖像分割基礎<b class='flag-5'>模型</b>)丨基于<b class='flag-5'>BM1684X</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>指南

    ShiMeta BM1684X盒子丨 技術解析與方案指南(上)

    前言當前安防和可視監(jiān)控行業(yè)普遍面臨一個共性難題:算法能力成為瓶頸。大量企業(yè)即使具備攝像頭、平臺或硬件集成能力,卻難以自行完成視覺算法的研發(fā)與迭代;要么缺乏算法團隊,要么訓練成本高、穩(wěn)定性無法保證
    的頭像 發(fā)表于 01-12 16:06 ?5079次閱讀
    ShiMeta <b class='flag-5'>BM1684X</b><b class='flag-5'>算</b>力<b class='flag-5'>盒子</b>丨 技術解析與方案指南(上)

    樂鑫推出私有化智能體平臺:兼容主流大模型,打造多模態(tài) AI 能力

    樂鑫私有化智能體平臺樂鑫信息科技(688018.SH)宣布正式推出樂鑫私有化智能體平臺(ESPPrivateAgentsPlatform)。這是一個專為IoT設備廠商打造的自托管智能體
    的頭像 發(fā)表于 12-16 18:03 ?621次閱讀
    樂鑫推出<b class='flag-5'>私有化</b>智能體<b class='flag-5'>平臺</b>:兼容主流大<b class='flag-5'>模型</b>,打造多模態(tài) AI 能力

    國產(chǎn)超新星|EA500I PRO智能工作站:小盒子大能量,千元級解鎖大模型

    隨著AI從小模型向大模型的加速滲透,力已成為企業(yè)構建智能力的核心關鍵。對于渴望切入AI賽道的中小企業(yè),既具備成本優(yōu)勢又能快速部署的邊緣計
    的頭像 發(fā)表于 11-11 10:53 ?1319次閱讀
    國產(chǎn)超新星|EA500I PRO智能工作站:<b class='flag-5'>小盒子</b>大能量,千元級解鎖大<b class='flag-5'>模型</b>

    AI邊緣盒子TS-SG-SE7系列產(chǎn)品規(guī)格書

    是基于國產(chǎn)嵌入式ARM架構、超強力SoC芯片BM1684/BM1684X開發(fā)的AI邊緣
    發(fā)表于 10-27 17:31 ?0次下載

    AI力模組TS-SG-SM7系列產(chǎn)品規(guī)格書

    騰視科技AI力模組TS-SG-SM7搭載了AI芯片BM1684X,支持多模態(tài)大模型,可集成于邊緣計算盒、智能NVR、機器人、無人機等,
    發(fā)表于 10-27 17:15 ?0次下載

    Qwen3-VL 4B/8B全面適配,BM1684X成邊緣最佳部署平臺!

    BM1684X上完成Qwen3-VL4B/8B模型的適配,推理速度13.7/7.2tokens/s,使其成為邊緣部署多模態(tài)大
    的頭像 發(fā)表于 10-16 18:00 ?2793次閱讀
    Qwen3-VL 4B/8B全面適配,<b class='flag-5'>BM1684X</b>成邊緣最佳<b class='flag-5'>部署</b><b class='flag-5'>平臺</b>!

    DeepSeek模型如何在云服務器上部署?

    隨著大型語言模型(LLM)的應用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務器上,以實現(xiàn)私有化、定制
    的頭像 發(fā)表于 10-13 16:52 ?994次閱讀

    產(chǎn)品案例 | 遛“狗”新方式,盒子來幫忙

    當一只機器狗被一個巴掌大的小盒子操控,躲避障礙、跟隨指令完成轉身、停止等動作時,圍觀人群紛紛發(fā)出驚嘆:“這么小的盒子,居然‘溜’機器狗?”。這個“小盒子”,正是機器狗的“智慧大腦”,
    的頭像 發(fā)表于 09-08 12:13 ?4377次閱讀
    <b class='flag-5'>產(chǎn)品</b>案例 | 遛“狗”新方式,<b class='flag-5'>盒子</b>來幫忙

    騰視科技大模型一體機解決方案:低成本私有化落地,重塑行業(yè)智能應用新格局

    當大模型進入 “深水區(qū)”,私有化與低成本已成為企業(yè)選型的核心考量。騰視科技大模型一體機解決方案,用技術創(chuàng)新打破 “安全與成本不可兼得” 的困境,讓各行業(yè)都能輕松擁抱智能時代。以低成本、私有化
    的頭像 發(fā)表于 08-07 11:06 ?1937次閱讀
    騰視科技大<b class='flag-5'>模型</b>一體機解決方案:低成本<b class='flag-5'>私有化</b>落地,重塑行業(yè)智能應用新格局

    潤和軟件AIRUNS 3.0助力企業(yè)打造私有化AI模型

    ”)打造企業(yè)級全流程AI模型工藝平臺——AIRUNS 3.0,深度適配國產(chǎn)軟硬件,實現(xiàn)從數(shù)據(jù)接入到模型落地的高效閉環(huán),助力企業(yè)加速AI工程
    的頭像 發(fā)表于 06-28 17:03 ?1570次閱讀

    AIBOX 產(chǎn)品矩陣:支持主流大模型私有化部署,滿足個性 AI 應用需求

    AIBOX系列產(chǎn)品具備高性能、低功耗、環(huán)境適應性強等特點,力覆蓋6-157TOPS,通過搭配多樣深度學習算法,體積小巧,能夠支持主流大模型私有
    的頭像 發(fā)表于 06-25 16:32 ?1898次閱讀
    AIBOX <b class='flag-5'>產(chǎn)品</b>矩陣:支持主流大<b class='flag-5'>模型</b>的<b class='flag-5'>私有化</b><b class='flag-5'>部署</b>,滿足個性<b class='flag-5'>化</b> AI 應用需求

    企業(yè)部署AI大模型怎么做

    當下,AI大模型已成為驅動決策自動、服務智能產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對動輒數(shù)百億參數(shù)的大模型
    的頭像 發(fā)表于 06-04 09:26 ?935次閱讀

    登臨科技與元石智達成戰(zhàn)略合作

    近日,登臨科技與元石智達成重要戰(zhàn)略合作,成功實現(xiàn)元石智平臺在登臨Goldwasser推理集群的部署,并完成多款主流大
    的頭像 發(fā)表于 04-01 17:40 ?1842次閱讀