chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡(jiǎn)單三步使用OpenVINO?搞定ChatGLM3的本地部署

英特爾物聯(lián)網(wǎng) ? 來源:OpenVINO 中文社區(qū) ? 2024-04-03 18:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

工具介紹

英特爾OpenVINO 工具套件是一款開源AI推理優(yōu)化部署的工具套件,可幫助開發(fā)人員和企業(yè)加速生成式人工智能 (AIGC)、大語言模型、計(jì)算機(jī)視覺和自然語言處理等 AI 工作負(fù)載,簡(jiǎn)化深度學(xué)習(xí)推理的開發(fā)和部署,便于實(shí)現(xiàn)從邊緣到云的跨英特爾 平臺(tái)的異構(gòu)執(zhí)行。

ChatGLM3是智譜AI和清華大學(xué)KEG實(shí)驗(yàn)室聯(lián)合發(fā)布的對(duì)話預(yù)訓(xùn)練模型。ChatGLM3-6B是ChatGLM3系列中的開源模型,在保留了前兩代模型對(duì)話流暢、部署門檻低等眾多優(yōu)秀特性的基礎(chǔ)上,ChatGLM3-6B引入了以下新特性:

1

更強(qiáng)大的基礎(chǔ)模型:

ChatGLM3-6B的基礎(chǔ)模型ChatGLM3-6B-Base采用了更多樣的訓(xùn)練數(shù)據(jù)、更充分的訓(xùn)練步數(shù)和更合理的訓(xùn)練策略。在語義、數(shù)學(xué)、推理、代碼、知識(shí)等不同角度的數(shù)據(jù)集上測(cè)評(píng)顯示,ChatGLM3-6B-Base具有在10B以下的預(yù)訓(xùn)練模型中領(lǐng)先的性能。

2

更完整的功能支持:

ChatGLM3-6B采用了全新設(shè)計(jì)的Prompt格式,除正常的多輪對(duì)話外,同時(shí)原生支持工具調(diào)用 (Function Call)、代碼執(zhí)行 (Code Interpreter) 和Agent任務(wù)等復(fù)雜場(chǎng)景。

3

更全面的開源序列:

除了對(duì)話模型ChatGLM3-6B外,還開源了基礎(chǔ)模型ChatGLM-6B-Base、長(zhǎng)文本對(duì)話模型ChatGLM3-6B-32K。以上所有權(quán)重對(duì)學(xué)術(shù)研究完全開放,在填寫問卷進(jìn)行登記后亦允許免費(fèi)商業(yè)使用。

8c1a646e-f19a-11ee-a297-92fbcf53809c.png

圖:基于Optimum-intel與OpenVINO部署生成式AI模型流程

英特爾為開發(fā)者提供了快速部署ChatGLM3-6B的方案支持。開發(fā)者只需要在GitHub上克隆示例倉庫,進(jìn)行環(huán)境配置,并將Hugging Face模型轉(zhuǎn)換為OpenVINO IR模型,即可進(jìn)行模型推理。由于大部分步驟都可以自動(dòng)完成,因此開發(fā)者只需要簡(jiǎn)單的工作便能完成部署,目前該倉庫也被收錄在GhatGLM3的官方倉庫和魔搭社區(qū)Model Card中,接下來讓我們一起看下具體的步驟和方法:

示例倉庫:

https://github.com/OpenVINO-dev-contest/chatglm3.openvino

官方倉庫:

https://github.com/THUDM/ChatGLM3?tab=readme-ov-file#openvino-demo

Model Card:

https://www.modelscope.cn/models/ZhipuAI/chatglm3-6b/summary#

1

模型轉(zhuǎn)換

當(dāng)你按倉庫中的README文檔完成集成環(huán)境配置后,可以直接通過以下命令運(yùn)行模型轉(zhuǎn)換腳本:

python3 convert.py --model_id THUDM/chatglm3-6b –output {your_path}/chatglm3-6b-ov

該腳本首先會(huì)利用Transformers庫從Hugging Face的model hub中下載并加載原始模型的PyTorch對(duì)象,如果開發(fā)者在這個(gè)過程中無法訪問Hugging Face的model hub,也可以通過配置環(huán)境變量的方式,將模型下載地址更換為鏡像網(wǎng)站,并將convert.py腳本的model_id參數(shù)配置為本地路徑,具體方法如下:

$env:HF_ENDPOINT = https://hf-mirror.com
huggingface-cli download --resume-download --local-dir-use-symlinks False THUDM/chatglm3-6b --local-dir {your_path}/chatglm3-6b
python3 convert.py --model_id {your_path}/chatglm3-6b --output {your_path}/chatglm3-6b-ov

當(dāng)獲取PyTorch的模型對(duì)象后,該腳本會(huì)利用OpenVINO的PyTorch frontend進(jìn)行模型格式的轉(zhuǎn)換,執(zhí)行完畢后,你將獲取一個(gè)由.xml和.bin文件所構(gòu)成的OpenVINO IR模型文件,該模型默認(rèn)以FP16精度保存。

2

權(quán)重量化

該步驟為可選項(xiàng),開發(fā)者可以通過以下腳本,將生成的OpenVINO模型通過權(quán)重量化策略,進(jìn)一步地壓縮為4-bits或者是8-bits的精度,以獲取更低的推理延時(shí)及系統(tǒng)資源占用。

python3 quantize.py --model_path {your_path}/chatglm3-6b-ov --precision int4 --output {your_path}/chatglm3-6b-ov-int4

執(zhí)行完畢后,你將獲得經(jīng)過壓縮后的IR模型文件,以INT4對(duì)稱量化為例,該壓縮后的模型文件的整體容量大約為4GB左右。

8c3150b6-f19a-11ee-a297-92fbcf53809c.png

圖:量化后的OpenVINO模型文件

同時(shí)在量化結(jié)束后,亦會(huì)在終端上打印模型的量化比例,如下圖所示。

8c587254-f19a-11ee-a297-92fbcf53809c.png

圖:量化比例輸出

由于OpenVINO NNCF工具的權(quán)重壓縮策略只針對(duì)于大語言模型中的Embedding和Linear這兩種算子,所以該表格只會(huì)統(tǒng)計(jì)這兩類算子的量化比例。其中ratio-defining parameter是指我們提前通過接口預(yù)設(shè)的混合精度比例,也就是21%權(quán)重以INT8表示,79%以INT4表示,這也是考慮到量化對(duì)ChatGLM3模型準(zhǔn)確度的影響,事先評(píng)估得到的配置參數(shù),開發(fā)者亦可以通過這個(gè)示例搜索出適合其他模型的量化參數(shù)。此外鑒于第一層Embedding layer和模型最后一層操作對(duì)于輸出準(zhǔn)確度的影響,NNCF默認(rèn)會(huì)將他們以INT8表示,這也是為何all parameters中顯示的混合精度比例會(huì)有所不同。當(dāng)然開發(fā)者也可以通過nncf.compress_weights接口中設(shè)置all_layers=True,開關(guān)閉該默認(rèn)策略。

示例:

https://github.com/openvinotoolkit/nncf/tree/develop/examples/llm_compression/openvino/tiny_llama_find_hyperparams

3

模型轉(zhuǎn)換

最后一步就是模型部署了,這里展示的是一個(gè)Chatbot聊天機(jī)器人的示例,這也是LLM應(yīng)用中最普遍,也是最基礎(chǔ)的pipeline,而OpenVINO可以通過Optimum-intel工具為橋梁,復(fù)用Transformers庫中預(yù)置的pipeline,因此在這個(gè)腳本中我們會(huì)對(duì)ChatGLM3模型再做一次封裝,以繼承并改寫OVModelForCausalLM類中的方法,實(shí)現(xiàn)對(duì)于Optimum-intel工具的集成和適配。以下為該腳本的運(yùn)行方式:

python3 chat.py --model_path {your_path}/chatglm3-6b-ov-int4 --max_sequence_length 4096 --device CPU

如果開發(fā)者的設(shè)備中包含英特爾的GPU產(chǎn)品,例如Intel ARC系列集成顯卡或是獨(dú)立顯卡,可以在這個(gè)命令中將device參數(shù)改為GPU,以激活更強(qiáng)大的模型推理能力。

在終端里運(yùn)行該腳本后,會(huì)生成一個(gè)簡(jiǎn)易聊天對(duì)話界面,接下來你就可以驗(yàn)證它的效果和性能了。

總結(jié)

通過模型轉(zhuǎn)換、量化、部署這三個(gè)步驟,我們可以輕松實(shí)現(xiàn)在本地PC上部署ChatGLM3-6b大語言模型,經(jīng)測(cè)試該模型可以流暢運(yùn)行在最新的Intel Core Ultra異構(gòu)平臺(tái)及至強(qiáng)CPU平臺(tái)上,作為眾多AI agent和RAG等創(chuàng)新應(yīng)用的核心基石,大語言模型的本地部署能力將充分幫助開發(fā)者們打造更安全,更高效的AI解決方案。


審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49704

    瀏覽量

    261164
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1714

    瀏覽量

    47443
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    812

    瀏覽量

    14663
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    116

    瀏覽量

    712

原文標(biāo)題:簡(jiǎn)單三步使用OpenVINO? 搞定ChatGLM3的本地部署 | 開發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    迅為RK3588開發(fā)環(huán)境搭建“三步曲”,從零到一輕松上手!

    迅為RK3588開發(fā)環(huán)境搭建“三步曲”,從零到一輕松上手!
    的頭像 發(fā)表于 12-01 11:51 ?78次閱讀
    迅為RK3588開發(fā)環(huán)境搭建“<b class='flag-5'>三步</b>曲”,從零到一輕松上手!

    工業(yè)物聯(lián)網(wǎng)平臺(tái)適合私有本地部署還是云端部署?

    工業(yè)物聯(lián)網(wǎng)平臺(tái)的部署方式需根據(jù)企業(yè)核心需求選擇, 私有本地部署適合數(shù)據(jù)安全要求極高、需深度定制且具備技術(shù)實(shí)力的企業(yè);云端部署則更適合追求成本效益、靈活擴(kuò)展及快速上線的中小型企業(yè)或?qū)崟r(shí)性
    的頭像 發(fā)表于 11-12 11:42 ?271次閱讀
    工業(yè)物聯(lián)網(wǎng)平臺(tái)適合私有<b class='flag-5'>本地</b><b class='flag-5'>部署</b>還是云端<b class='flag-5'>部署</b>?

    工程師整理:UPS電源選購“三步法”,從看懂參數(shù)到下單不出錯(cuò)

    將分享一套簡(jiǎn)單實(shí)用的"三步選型法",幫助技術(shù)主管和企業(yè)輕松選出最適合的UPS電源。第一:讀懂關(guān)鍵參數(shù),不再被專業(yè)術(shù)語迷惑核心參數(shù)解析:容量(VA/W):這是最重
    的頭像 發(fā)表于 09-05 09:26 ?572次閱讀
    工程師整理:UPS電源選購“<b class='flag-5'>三步</b>法”,從看懂參數(shù)到下單不出錯(cuò)

    能源監(jiān)測(cè)管理平臺(tái)是本地部署好還是云端部署好?

    能源監(jiān)測(cè)管理平臺(tái)本地部署和云端部署各有優(yōu)劣,企業(yè)需根據(jù)自身需求和實(shí)際情況來選擇。如果企業(yè)對(duì)數(shù)據(jù)安全要求極高、網(wǎng)絡(luò)環(huán)境特殊且預(yù)算充足,本地部署
    的頭像 發(fā)表于 07-22 15:16 ?317次閱讀
    能源監(jiān)測(cè)管理平臺(tái)是<b class='flag-5'>本地</b>化<b class='flag-5'>部署</b>好還是云端<b class='flag-5'>部署</b>好?

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    行動(dòng)。本文將一步步帶你在本地服務(wù)器上完成該模型的部署,并搭建一個(gè)直觀的 Web 交互界面,親身體驗(yàn)前沿 AI 的“思考”過程。
    的頭像 發(fā)表于 07-09 10:17 ?544次閱讀

    無法將Openvino? 2025.0與onnx運(yùn)行時(shí)Openvino? 執(zhí)行提供程序 1.16.2 結(jié)合使用,怎么處理?

    使用OpenVINO?與英特爾 i5-8500 CPU 和超核處理器 630 iGPU 一起部署模型。 使用了 Microsoft.ML.OnnxRuntime.OpenVino
    發(fā)表于 06-24 06:31

    本地服務(wù)器部署怎么選?一招搞定企業(yè)IT成本、性能與安全問題!

    ,往往糾結(jié)萬分。其實(shí),企業(yè)本地服務(wù)器部署方案依然有其獨(dú)特優(yōu)勢(shì),只要選得對(duì),照樣能在IT成本、性能、安全方面實(shí)現(xiàn)全兼顧!
    的頭像 發(fā)表于 05-26 13:07 ?484次閱讀
    <b class='flag-5'>本地</b>服務(wù)器<b class='flag-5'>部署</b>怎么選?一招<b class='flag-5'>搞定</b>企業(yè)IT成本、性能與安全問題!

    Intel OpenVINO? Day0 實(shí)現(xiàn)阿里通義 Qwen3 快速部署

    本文將以 Qwen3-8B 為例,介紹如何利用 OpenVINO 的 Python API 在英特爾平臺(tái)(GPU, NPU)Qwen3 系列模型。
    的頭像 發(fā)表于 05-11 11:36 ?1332次閱讀
    Intel <b class='flag-5'>OpenVINO</b>? Day0 實(shí)現(xiàn)阿里通義 Qwen<b class='flag-5'>3</b> 快速<b class='flag-5'>部署</b>

    工廠設(shè)備總故障?諧波治理新國(guó)標(biāo)解讀,3搞定省電又保生產(chǎn)

    工廠設(shè)備總故障?諧波治理新國(guó)標(biāo)解讀,3搞定省電又保生產(chǎn)
    的頭像 發(fā)表于 04-24 17:29 ?620次閱讀
    工廠設(shè)備總故障?諧波治理新國(guó)標(biāo)解讀,<b class='flag-5'>3</b><b class='flag-5'>步</b><b class='flag-5'>搞定</b>省電又保生產(chǎn)

    Modbus轉(zhuǎn)以太網(wǎng)終極方案:三步實(shí)現(xiàn)老舊設(shè)備智能升級(jí)

    7.8萬元/年(人工處理報(bào)警) 四、三步快速實(shí)施指南 步驟1:物理連接 步驟2:參數(shù)配置 步驟3:系統(tǒng)聯(lián)調(diào) ? 御控云平臺(tái):實(shí)時(shí)監(jiān)測(cè)設(shè)備數(shù)據(jù) 五、高頻問題解答 Q1:Modbus TCP和RTU能
    發(fā)表于 04-24 10:37

    如何部署OpenVINO?工具套件應(yīng)用程序?

    編寫代碼并測(cè)試 OpenVINO? 工具套件應(yīng)用程序后,必須將應(yīng)用程序安裝或部署到生產(chǎn)環(huán)境中的目標(biāo)設(shè)備。 OpenVINO?部署管理器指南包含有關(guān)如何輕松使用
    發(fā)表于 03-06 08:23

    是否可以使用OpenVINO?部署管理器在部署機(jī)器上運(yùn)行Python應(yīng)用程序?

    使用 OpenVINO?部署管理器創(chuàng)建運(yùn)行時(shí)軟件包。 將運(yùn)行時(shí)包轉(zhuǎn)移到部署機(jī)器中。 無法確定是否可以在部署機(jī)器上運(yùn)行 Python 應(yīng)用程序,而無需安裝
    發(fā)表于 03-05 08:16

    華為云發(fā)布DeepSeek本地部署方案

    華為云正式推出基于華為云Stack混合云的DeepSeek本地部署方案。
    的頭像 發(fā)表于 02-18 10:05 ?1407次閱讀

    C#集成OpenVINO?:簡(jiǎn)化AI模型部署

    在開源測(cè)控、機(jī)器視覺、數(shù)采與分析大領(lǐng)域中,如何快速將AI模型集成到應(yīng)用程序中, 實(shí)現(xiàn)AI賦能和應(yīng)用增值? 最容易的方式是:在C#中,使用 OpenVINO工具套件 集成AI模型。 1
    的頭像 發(fā)表于 02-17 10:03 ?2490次閱讀
    C#集成<b class='flag-5'>OpenVINO</b>?:簡(jiǎn)化AI模型<b class='flag-5'>部署</b>

    C#中使用OpenVINO?:輕松集成AI模型!

    與分析大領(lǐng)域中,如何快速將AI模型集成到應(yīng)用程序中,實(shí)現(xiàn)AI賦能和應(yīng)用增值?最容易的方式是:在C#中,使用OpenVINO?工具套件集成AI模型。 一,什么是OpenVINO? 工具套件?
    的頭像 發(fā)表于 02-07 14:05 ?1611次閱讀
    C#中使用<b class='flag-5'>OpenVINO</b>?:輕松集成AI模型!