chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

源2.0適配FastChat框架,企業(yè)快速本地化部署大模型對(duì)話(huà)平臺(tái)

全球TMT ? 來(lái)源:全球TMT ? 作者:全球TMT ? 2024-02-29 09:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

北京2024年2月28日/美通社/ -- 近日,浪潮信息Yuan2.0大模型與FastChat框架完成全面適配,推出"企業(yè)快速本地化部署大模型對(duì)話(huà)平臺(tái)"方案。該方案主要面向金融、法律、教育等領(lǐng)域,且有數(shù)據(jù)隱私保護(hù)需求的本地化部署場(chǎng)景。全面開(kāi)放的對(duì)話(huà)模板功能,用戶(hù)可基于FastChat平臺(tái),快速對(duì)不同參數(shù)規(guī)模的Yuan2.0基礎(chǔ)模型進(jìn)行訓(xùn)練、評(píng)估和應(yīng)用,將Yuan2.0系列基礎(chǔ)大模型部署于私有環(huán)境,快速部署企業(yè)級(jí)大模型應(yīng)用。值得一提的是,F(xiàn)astChat提供標(biāo)準(zhǔn)API格式(OpenAI標(biāo)準(zhǔn))的服務(wù),因此,原本采用OpenAI API接口所構(gòu)建的系列應(yīng)用,用戶(hù)無(wú)需修改代碼,僅需更新API服務(wù)的接口地址,即可靈活、絲滑地切換為本地部署的Yuan2.0千億參數(shù)模型。

wKgZomXfNLWAOYk6AAEJDzMrT0I739.jpg


當(dāng)前,各類(lèi)模型迭代更新飛快。簡(jiǎn)單且易用的對(duì)話(huà)模型框架成為了開(kāi)發(fā)者解決本地化構(gòu)建對(duì)話(huà)系統(tǒng)的一大利器。標(biāo)準(zhǔn)一致的工具和環(huán)境,可有效實(shí)現(xiàn)后端模型的平滑遷移,開(kāi)發(fā)者能夠在不改變?cè)写a的情況下,輕松適應(yīng)新的模型和技術(shù)要求?;诂F(xiàn)成的框架和工具,依托繁榮的社區(qū),進(jìn)而有效地解決了技術(shù)門(mén)檻高、開(kāi)發(fā)流程復(fù)雜、知識(shí)共享困難、部署維護(hù)成本高以及數(shù)據(jù)安全等一系列難題,不僅可提高開(kāi)發(fā)效率,也可為開(kāi)發(fā)者帶來(lái)了更多的便利和可能性。

FastChat是加州大學(xué)伯克利分校LM-SYS發(fā)布的創(chuàng)新型開(kāi)源項(xiàng)目,Github Star數(shù)超31k。旨在為研究和開(kāi)發(fā)人員提供一個(gè)易于使用、可擴(kuò)展的平臺(tái),用于訓(xùn)練、服務(wù)和評(píng)估基于LLM的聊天機(jī)器人,大幅降低開(kāi)發(fā)人員構(gòu)建問(wèn)答系統(tǒng)的門(mén)檻,實(shí)現(xiàn)知識(shí)管理平臺(tái)的輕松部署與高效維護(hù)。其核心功能包括提供最先進(jìn)的模型權(quán)重、訓(xùn)練代碼和評(píng)估代碼(例如Yuan2.0、Vicuna、FastChat-T5)以及帶有Web UI和兼容OpenAI RESTful API的分布式多模型服務(wù)系統(tǒng)。Yuan2.0系列基礎(chǔ)大模型作為首個(gè)全面開(kāi)源的千億參數(shù)模型,在編程、推理、邏輯等方面表現(xiàn)優(yōu)異。通過(guò)Fastchat平臺(tái),企業(yè)級(jí)用戶(hù)可一鍵啟動(dòng)標(biāo)準(zhǔn)API(OpenAI標(biāo)準(zhǔn))服務(wù),滿(mǎn)足企業(yè)需求的定制化應(yīng)用開(kāi)發(fā),輕松對(duì)接口進(jìn)行封裝,高效且安全地開(kāi)發(fā)智能對(duì)話(huà)系統(tǒng)。在保證數(shù)據(jù)私密性和安全性的同時(shí),極大地提升了模型本地化部署的效率、應(yīng)用性能及穩(wěn)定性。

基于FastChat使用Yuan2.0大模型,Step by Step實(shí)操教程!

* 如下步驟以Yuan2-2B-Janus-hf模型為例:

Step 1: 安裝FastChat

FastChat官方提供的兩種安裝方式--pip安裝與源碼安裝

pip安裝

官方提供的采用pip安裝命令為pip3,建議大家采用python3.x,避免出現(xiàn)依賴(lài)包沖突。

pip3 install "fschat[model_worker,webui]"

源碼安裝

先從github上下載源碼,在FastChat目錄下執(zhí)行如下命令:

git clonehttps://github.com/lm-sys/FastChat.git
cd FastChat
pip3 install --upgrade pip && pip3 install -e ".[model_worker,webui]"

Step 2 : 下載Yuan2.0系列基礎(chǔ)大模型

模型 序列長(zhǎng)度 下載鏈接
Yuan2.0-102B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-102B-hf/summary
Yuan2.0-51B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-51B-hf/summary
Yuan2.0-2B-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-2B-hf/summary
Yuan2-2B-Janus-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2-2B-Janus-hf/summary

Step 3:?jiǎn)?dòng)FastChat推理服務(wù)

采用如下命令啟動(dòng)FastChat服務(wù):

python3-m fastchat.serve.cli --model-path /mnt/models/Yuan2-2B-Janus-hf

至此,基于Yuan2.0基礎(chǔ)大模型的FastChat推理服務(wù)就已啟動(dòng)完成了!服務(wù)啟動(dòng)后會(huì)進(jìn)入客戶(hù)端頁(yè)面。客戶(hù)端交互實(shí)例如下:

——————————————————

user: 你好。
assistant: 您好,有什么可以幫助您的嗎?
user: 介紹一下北京。
assistant: 北京是中國(guó)的首都,位于華北平原中部。它是一個(gè)歷史悠久、文化燦爛的城市,也是現(xiàn)代化與傳統(tǒng)文化相結(jié)合的代表之一。北京擁有著豐富的歷史遺產(chǎn)和文化景觀(guān),如紫禁城、天安門(mén)廣場(chǎng)、頤和園、長(zhǎng)城等。此外,北京還有許多現(xiàn)代建筑和創(chuàng)意藝術(shù)作品,如798藝術(shù)區(qū)、木魚(yú)巷等。
user: 給我寫(xiě)一個(gè)快速排序算法。
assistant: 快速排序是一種基于比較的排序算法,其時(shí)間復(fù)雜度為O(nlogn)。具體來(lái)說(shuō),快速排序通過(guò)選取一個(gè)基準(zhǔn)元素,將數(shù)組分為兩部分,使得左邊的元素都小于基準(zhǔn)元素,右邊的元素都大于基準(zhǔn)元素,然后遞歸地對(duì)左右兩部分進(jìn)行排序。
以下是一個(gè)簡(jiǎn)單的快速排序算法實(shí)現(xiàn):
```python
def quick_sort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quick_sort(left) + middle + quick_sort(right)
```
這個(gè)算法的優(yōu)點(diǎn)是它通常能夠很好地處理小規(guī)模數(shù)據(jù),而且它具有很好的可擴(kuò)展性,可以輕松地處理不同規(guī)模的數(shù)據(jù)。但是,它也有一些缺點(diǎn),例如它需要額外的空間來(lái)存儲(chǔ)中間結(jié)果,并且它的最壞時(shí)間復(fù)雜度為O(n^2)。因此,在實(shí)際應(yīng)用中,我們通常使用更高效的排序算法,如歸并排序、插入排序等。
user: 能提供一些測(cè)試用例嗎
assistant: 當(dāng)然可以。以下是一些常見(jiàn)的測(cè)試用例:
```python
def test_quick_sort():
assert quick_sort([]) == []
assert quick_sort([1]) == [1]
assert quick_sort([3, 2, 1]) == [1, 2, 3]
assert quick_sort([5, 8, 2, 1, 6, 3, 4, 7, 9]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
assert quick_sort([9, 8, 7, 6, 5, 4, 3, 2, 1]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
```
這些測(cè)試用例包括了各種不同規(guī)模和不同順序的輸入數(shù)據(jù)。
user: 很好,你知道它的時(shí)間復(fù)雜度嗎?
assistant: 是的,我知道它的時(shí)間復(fù)雜度為O(nlogn)。
user:

————————————————

同時(shí),也可選用WebUI,需要先啟動(dòng)fastchat的controller和worker,在命令行輸入如下命令即可啟動(dòng):

python3 -m fastchat.serve.controller
python3 -m fastchat.serve.model_worker --model-path /mnt/models/Yuan2-2B-Janus-hf
python3-mfastchat.serve.gradio_web_server

啟動(dòng)完成后,默認(rèn)會(huì)彈出WebUI頁(yè)面,選擇Yuan2.0模板即可與Yuan2.0大模型進(jìn)行對(duì)話(huà)。以下為使用WebUI與Yuan2.0進(jìn)行交互的示例:

代碼實(shí)現(xiàn)

wKgaomXfNLaAToybAADRl_iTOTA579.jpg


測(cè)試用例

wKgZomXfNLaAZ2hrAADTArqP9lI354.jpg


上下文測(cè)試

wKgaomXfNLeAJX7EAACc8yBAqqw049.jpg


更多更新,請(qǐng)關(guān)注Github "源"交流專(zhuān)區(qū),
前往GitHub搜索"IEIT-Yuan/Yuan-2.0"


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3435

    瀏覽量

    4958
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    工業(yè)物聯(lián)網(wǎng)平臺(tái)適合私有本地部署還是云端部署?

    工業(yè)物聯(lián)網(wǎng)平臺(tái)部署方式需根據(jù)企業(yè)核心需求選擇, 私有本地部署適合數(shù)據(jù)安全要求極高、需深度定制且具備技術(shù)實(shí)力的
    的頭像 發(fā)表于 11-12 11:42 ?271次閱讀
    工業(yè)物聯(lián)網(wǎng)<b class='flag-5'>平臺(tái)</b>適合私有<b class='flag-5'>本地</b><b class='flag-5'>部署</b>還是云端<b class='flag-5'>部署</b>?

    發(fā)布元服務(wù)配置本地化基礎(chǔ)信息(應(yīng)用名稱(chēng)、圖標(biāo))

    您可以添加元服務(wù)支持的語(yǔ)言,并配置對(duì)應(yīng)語(yǔ)言的本地化信息。 例如,當(dāng)您設(shè)置簡(jiǎn)體中文為默認(rèn)語(yǔ)言,并且只配置中文的本地化信息,那么元服務(wù)在所有設(shè)置的發(fā)布國(guó)家或地區(qū)的信息都將顯示中文。如果您還設(shè)置了英文
    發(fā)表于 10-24 17:42

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺(tái)上成功部署并運(yùn)行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側(cè)AI設(shè)備的處理效率與智能水平,特別是在
    的頭像 發(fā)表于 09-26 13:35 ?658次閱讀

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話(huà),6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    加載 → 圖片預(yù)處理 → 用戶(hù)交互 → 推理輸出”的核心流程,支持圖文一體的多模態(tài)對(duì)話(huà),適配多輪問(wèn)答、視覺(jué)問(wèn)答等典型場(chǎng)景。 具體運(yùn)行機(jī)制可拆解為以下步驟:1. 模型初始首先加載大語(yǔ)言
    發(fā)表于 09-05 17:25

    能源監(jiān)測(cè)管理平臺(tái)本地化部署好還是云端部署好?

    能源監(jiān)測(cè)管理平臺(tái)本地化部署和云端部署各有優(yōu)劣,企業(yè)需根據(jù)自身需求和實(shí)際情況來(lái)選擇。如果企業(yè)對(duì)數(shù)據(jù)安全要求極高、網(wǎng)絡(luò)環(huán)境特殊且預(yù)算充足,
    的頭像 發(fā)表于 07-22 15:16 ?318次閱讀
    能源監(jiān)測(cè)管理<b class='flag-5'>平臺(tái)</b>是<b class='flag-5'>本地化</b><b class='flag-5'>部署</b>好還是云端<b class='flag-5'>部署</b>好?

    AI+能源數(shù)字破局者故事5:斯倫貝謝 x IBM 咨詢(xún)之 “全球經(jīng)營(yíng)與本地化適配

    斯倫貝謝與 IBM 的合作建立在技術(shù)專(zhuān)長(zhǎng)、交付能力及本地化支持的基礎(chǔ)上,IBM 的強(qiáng)大技術(shù)實(shí)力和本地經(jīng)驗(yàn),使其成為斯倫貝謝推動(dòng)數(shù)字轉(zhuǎn)型的重要合作伙伴
    的頭像 發(fā)表于 07-17 19:02 ?1088次閱讀

    施耐德電氣與奇安信共建技術(shù)本地化創(chuàng)新中心

    ?在施耐德電氣技術(shù)本地化創(chuàng)新日上 ; 施耐德電氣與奇安信集團(tuán)宣布成立 施耐德電氣(中國(guó))技術(shù)本地化創(chuàng)新中心。 該中心將提供 針對(duì)國(guó)產(chǎn)基礎(chǔ)軟硬件的深度適配服務(wù),以信息技術(shù)共創(chuàng)和生態(tài)協(xié)同為核心 ,更好
    的頭像 發(fā)表于 07-10 19:01 ?759次閱讀
    施耐德電氣與奇安信共建技術(shù)<b class='flag-5'>本地化</b>創(chuàng)新中心

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行動(dòng)。本文將一步步帶你在本地服務(wù)器上完成該模型部署,并搭建一個(gè)直觀(guān)的 Web 交互界面,親身體驗(yàn)前沿 AI 的“思考”過(guò)程。
    的頭像 發(fā)表于 07-09 10:17 ?546次閱讀

    DigiKey 應(yīng)用與技術(shù)門(mén)戶(hù)平臺(tái)已針對(duì)亞太地區(qū)進(jìn)行了本地化

    品類(lèi)齊全且可立即發(fā)貨的產(chǎn)品。DigiKey 在亞太地區(qū)提供專(zhuān)屬應(yīng)用與技術(shù)平臺(tái)。該平臺(tái)提供本地化的在線(xiàn)資源,旨在助力工程師和創(chuàng)新者,提供專(zhuān)業(yè)技術(shù)資源、精選產(chǎn)品信息和互動(dòng)學(xué)習(xí)內(nèi)容。 DigiKey 應(yīng)用與技術(shù)
    發(fā)表于 05-23 16:37 ?1154次閱讀

    博實(shí)結(jié)完成DeepSeek大模型本地化部署

    近日,公司完成DeepSeek R1 671B大模型本地化部署。通過(guò)構(gòu)建自主可控的AI基礎(chǔ)設(shè)施,公司同步實(shí)現(xiàn)研發(fā)智能升級(jí)、研發(fā)成本重構(gòu)、數(shù)據(jù)安全閉環(huán)與應(yīng)用場(chǎng)景突破,為產(chǎn)業(yè)智能賦能。
    的頭像 發(fā)表于 03-19 16:31 ?1000次閱讀

    行芯完成DeepSeek-R1大模型本地化部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地化部署,實(shí)現(xiàn)在多場(chǎng)景、多產(chǎn)品中應(yīng)用。解鎖“芯”玩法,開(kāi)啟“芯”未來(lái)!
    的頭像 發(fā)表于 02-24 15:17 ?1135次閱讀

    曙光順利完成DeepSeek大模型本地化多點(diǎn)私有部署

    計(jì)算中心等政務(wù)云服務(wù)商,依托本地政務(wù)云資源池,順利完成DeepSeek大模型本地化多點(diǎn)私有部署,并打造出數(shù)字人“撫小智”。撫州市還計(jì)劃將DeepSeek大
    的頭像 發(fā)表于 02-22 14:16 ?1088次閱讀

    云天天書(shū)大模型訓(xùn)推一體機(jī)成功適配DeepSeek

    近日,云天天書(shū)大模型訓(xùn)推一體機(jī)成功適配DeepSeek。該一體機(jī)由云天勵(lì)飛與華為聯(lián)合推出,可以部署在華為昇騰服務(wù)器上,支持私有部署,實(shí)現(xiàn)開(kāi)
    的頭像 發(fā)表于 02-14 11:02 ?1277次閱讀

    烽火通信推動(dòng)DeepSeek本地化部署,金融行業(yè)率先示范

    近日,烽火通信攜手長(zhǎng)江計(jì)算、昇騰及華為云團(tuán)隊(duì),在金融領(lǐng)域取得了重要突破。他們成功助力某國(guó)有大型銀行,率先完成了DeepSeek-V3大模型本地化推理服務(wù)部署。 此次部署采用了長(zhǎng)江計(jì)算
    的頭像 發(fā)表于 02-10 15:03 ?1738次閱讀

    愛(ài)普生科技+本地化引領(lǐng)五大創(chuàng)新

    自八十年代進(jìn)入中國(guó)以來(lái),愛(ài)普生已在中國(guó)市場(chǎng)上深耕近四十年。從打印機(jī)到工業(yè)機(jī)器人,愛(ài)普生業(yè)務(wù)遍布多個(gè)領(lǐng)域,始終秉承“科技+本地化”的核心理念,與中國(guó)市場(chǎng)同頻共振,不斷深化與本土合作伙伴合作,推出“中國(guó)定制”產(chǎn)品及解決方案。
    的頭像 發(fā)表于 12-12 16:31 ?1060次閱讀