chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

“伶荔”(Linly) 開源大規(guī)模中文語言模型

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-05-04 10:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

為了開發(fā)高性能中文基礎(chǔ)模型,填補(bǔ)中文基礎(chǔ)模型百億到千億級預(yù)訓(xùn)練參數(shù)的空白,大數(shù)據(jù)系統(tǒng)計(jì)算技術(shù)國家工程實(shí)驗(yàn)室團(tuán)隊(duì)在人工智能項(xiàng)目伶荔(Linly)框架下,推出了伶荔說系列中文語言大模型,目前包含中文基礎(chǔ)模型和對話模型。

其中,中文基礎(chǔ)模型以 LLaMA 為底座,利用中文和中英平行增量預(yù)訓(xùn)練,將它在英文上強(qiáng)大語言能力遷移到中文上。更進(jìn)一步,匯總了目前公開的多語言指令數(shù)據(jù),對中文模型進(jìn)行了大規(guī)模指令跟隨訓(xùn)練,實(shí)現(xiàn)了 Linly-ChatFlow 對話模型。

0cbaa256-e89f-11ed-ab56-dac502259ad0.png

根據(jù)介紹,相比已有的中文開源模型,伶荔模型具有以下優(yōu)勢:

在 32*A100 GPU 上訓(xùn)練了不同量級和功能的中文模型,對模型充分訓(xùn)練并提供強(qiáng)大的 baseline。據(jù)知,33B 的 Linly-Chinese-LLAMA 是目前最大的中文 LLaMA 模型。

公開所有訓(xùn)練數(shù)據(jù)、代碼、參數(shù)細(xì)節(jié)以及實(shí)驗(yàn)結(jié)果,確保項(xiàng)目的可復(fù)現(xiàn)性,用戶可以選擇合適的資源直接用于自己的流程中。

項(xiàng)目具有高兼容性和易用性,提供可用于 CUDA 和 CPU 的量化推理框架,并支持 Huggingface 格式。

目前公開可用的模型有:

Linly-Chinese-LLaMA:中文基礎(chǔ)模型,基于 LLaMA 在高質(zhì)量中文語料上增量訓(xùn)練強(qiáng)化中文語言能力,現(xiàn)已開放 7B、13B 和 33B 量級,65B 正在訓(xùn)練中。

Linly-ChatFlow:中文對話模型,在 400 萬指令數(shù)據(jù)集合上對中文基礎(chǔ)模型指令精調(diào),現(xiàn)已開放 7B、13B 對話模型。

Linly-ChatFlow-int4 :ChatFlow 4-bit 量化版本,用于在 CPU 上部署模型推理。

進(jìn)行中的項(xiàng)目:

Linly-Chinese-BLOOM:基于 BLOOM 中文增量訓(xùn)練的中文基礎(chǔ)模型,包含 7B 和 175B 模型量級,可用于商業(yè)場景。

項(xiàng)目特點(diǎn)

Linly 項(xiàng)目具有以下特點(diǎn):

1. 大規(guī)模中文增量訓(xùn)練,利用翻譯數(shù)據(jù)提速中文模型收斂

在訓(xùn)練數(shù)據(jù)方面,項(xiàng)目盡可能全面的收集了各類中文語料和指令數(shù)據(jù)。無監(jiān)督訓(xùn)練使用了上億條高質(zhì)量的公開中文數(shù)據(jù),包括新聞、百科、文學(xué)、科學(xué)文獻(xiàn)等類型。和通常的無監(jiān)督預(yù)訓(xùn)練不同,項(xiàng)目在訓(xùn)練初期加入了大量中英文平行語料,幫助模型將英文能力快速遷移到中文上。

在指令精調(diào)階段,項(xiàng)目匯總了開源社區(qū)的指令數(shù)據(jù)資源,包括多輪對話、多語言指令、GPT4/ChatGPT 問答、思維鏈數(shù)據(jù)等等,經(jīng)過篩選后使用 500 萬條數(shù)據(jù)進(jìn)行指令精調(diào)得到 Linly-ChatFlow 模型。訓(xùn)練使用的數(shù)據(jù)集也在項(xiàng)目里提供。

訓(xùn)練流程如圖所示:

0cc77404-e89f-11ed-ab56-dac502259ad0.png

2. 全參數(shù)訓(xùn)練,覆蓋多個模型量級

目前基于 LLaMA 的中文模型通常使用 LoRA 方法進(jìn)行訓(xùn)練,LoRA 凍結(jié)預(yù)訓(xùn)練的模型參數(shù),通過往模型中加入額外的網(wǎng)絡(luò)層,并只訓(xùn)練這些新增的網(wǎng)絡(luò)層參數(shù),來實(shí)現(xiàn)快速適配。雖然 LoRA 能夠提升訓(xùn)練速度且降低設(shè)備要求,但性能上限低于全參數(shù)訓(xùn)練。為了使模型獲得盡可能強(qiáng)的中文語言能力,該項(xiàng)目對所有參數(shù)量級都采用全參數(shù)訓(xùn)練,開銷大約是 LoRA 的 3-5 倍。

伶荔語言模型利用 TencentPretrain 多模態(tài)預(yù)訓(xùn)練框架,集成 DeepSpeed ZeRO3 以 FP16 流水線并行訓(xùn)練。目前已開放 7B、13B、33B 模型權(quán)重,65B 模型正在訓(xùn)練中。模型仍在持續(xù)迭代,將定期更新,損失收斂情況如圖所示:

0cd69cea-e89f-11ed-ab56-dac502259ad0.png

3. 可支持本地 CPU int4 推理、消費(fèi)級 GPU 推理

大模型通常具有數(shù)百億參數(shù)量,提高了使用門檻。為了讓更多用戶使用 Linly-ChatFlow 模型,開發(fā)團(tuán)隊(duì)在項(xiàng)目中集成了高可用模型量化推理方案,支持 int4 量化 CPU 推理可以在手機(jī)或者筆記本電腦上使用,int8 量化使用 CUDA 加速可以在消費(fèi)級 GPU 推理 13B 模型。此外,項(xiàng)目中還集成了微服務(wù)部署,用戶能夠一鍵將模型部署成服務(wù),方便二次開發(fā)。

未來工作

據(jù)透露,伶荔說系列模型目前仍處于欠擬合,正在持續(xù)訓(xùn)練中,未來 33B 和 65B 的版本或?qū)砀@艷的性能。在另一方面,項(xiàng)目團(tuán)隊(duì)不僅公開了對話模型,還公開了中文基礎(chǔ)模型和相應(yīng)的訓(xùn)練代碼與數(shù)據(jù)集,向社區(qū)提供了一套可復(fù)現(xiàn)的對話模型方案,目前也有團(tuán)隊(duì)基于其工作實(shí)現(xiàn)了金融、醫(yī)學(xué)等領(lǐng)域的垂直領(lǐng)域?qū)υ捘P汀?/p>

在之后的工作,項(xiàng)目團(tuán)隊(duì)將繼續(xù)對伶荔說系列模型進(jìn)行改進(jìn),包括嘗試人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)、適用于中文的字詞結(jié)合 tokenizer、更高效的 GPU int3/int4 量化推理方法等等。伶荔項(xiàng)目還將針對虛擬人、醫(yī)療以及智能體場景陸續(xù)推出伶荔系列大模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11213

    瀏覽量

    222777
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49706

    瀏覽量

    261228
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4018

    瀏覽量

    45537
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11246

原文標(biāo)題:“伶荔”(Linly) 開源大規(guī)模中文語言模型

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    為助力打造實(shí)時、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實(shí)現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?987次閱讀

    NVIDIA 利用全新開源模型與仿真庫加速機(jī)器人研發(fā)進(jìn)程

    。 ? 借助全新的 NVIDIA Cosmos 世界基礎(chǔ)模型,開發(fā)者可以生成多樣化數(shù)據(jù),從而大規(guī)模加速物理 AI 模型的訓(xùn)練。 ? 來自斯 坦福大學(xué)、蘇黎世
    的頭像 發(fā)表于 09-30 09:52 ?2773次閱讀
    NVIDIA 利用全新<b class='flag-5'>開源</b><b class='flag-5'>模型</b>與仿真庫加速機(jī)器人研發(fā)進(jìn)程

    TensorRT-LLM的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM 的大規(guī)模專家并行架構(gòu)設(shè)計(jì)與創(chuàng)新實(shí)現(xiàn)。
    的頭像 發(fā)表于 09-23 14:42 ?650次閱讀
    TensorRT-LLM的<b class='flag-5'>大規(guī)模</b>專家并行架構(gòu)設(shè)計(jì)

    大規(guī)模專家并行模型在TensorRT-LLM的設(shè)計(jì)

    DeepSeek-V3 / R1 等模型采用大規(guī)模細(xì)粒度混合專家模型 (MoE) 架構(gòu),大幅提升了開源模型的質(zhì)量。Llama 4 和 Qwe
    的頭像 發(fā)表于 09-06 15:21 ?897次閱讀
    <b class='flag-5'>大規(guī)模</b>專家并行<b class='flag-5'>模型</b>在TensorRT-LLM的設(shè)計(jì)

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源模型,網(wǎng)址為https://ollama.com, 試用該平臺,可以在多平臺上部署 Deepseek-R1, Qwen3, Llama
    發(fā)表于 07-19 15:45

    華為正式開源盤古7B稠密和72B混合專家模型

    關(guān)鍵舉措,推動大模型技術(shù)的研究與創(chuàng)新發(fā)展,加速推進(jìn)人工智能在千行百業(yè)的應(yīng)用與價(jià)值創(chuàng)造。 盤古Pro MoE 72B模型權(quán)重、基礎(chǔ)推理代碼,已正式上線開源平臺。 基于昇騰的超大規(guī)模MoE
    的頭像 發(fā)表于 06-30 11:19 ?1091次閱讀

    探索在Arm平臺運(yùn)行的Llama 4 Scout模型

    人工智能 (AI) 正在加速發(fā)展,也越來越智能化。當(dāng)今的開源語言模型不僅功能強(qiáng)大,而且在設(shè)計(jì)時充分考慮了實(shí)際部署的需求,因而具有輕量化和經(jīng)濟(jì)高效的特點(diǎn),可大規(guī)模部署到數(shù)十億臺設(shè)備上。
    的頭像 發(fā)表于 05-20 09:54 ?584次閱讀

    薄型、多頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()薄型、多頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有薄型、多頻段、大規(guī)模物聯(lián)網(wǎng)前端模塊的引腳圖、接線圖、封裝手冊、中文資料、英文資料,薄型、多頻段、大規(guī)模
    發(fā)表于 05-15 18:32
    薄型、多頻段、<b class='flag-5'>大規(guī)模</b>物聯(lián)網(wǎng)前端模塊 skyworksinc

    AI原生架構(gòu)升級:RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的算力突破

    近年來,隨著千億級參數(shù)模型的崛起,AI訓(xùn)練對算力的需求呈現(xiàn)指數(shù)級增長。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對分布式訓(xùn)練、高并發(fā)計(jì)算和顯存優(yōu)化等場景時逐漸顯露瓶頸。而RAKsmart為超大規(guī)模模型訓(xùn)練提供了全新的算力解決方案。
    的頭像 發(fā)表于 04-24 09:27 ?603次閱讀

    5G 大規(guī)模物聯(lián)網(wǎng)系統(tǒng)級封裝 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()5G 大規(guī)模物聯(lián)網(wǎng)系統(tǒng)級封裝相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有5G 大規(guī)模物聯(lián)網(wǎng)系統(tǒng)級封裝的引腳圖、接線圖、封裝手冊、中文資料、英文資料,5G 大規(guī)模物聯(lián)網(wǎng)系統(tǒng)級封裝
    發(fā)表于 04-11 15:21
    5G <b class='flag-5'>大規(guī)模</b>物聯(lián)網(wǎng)系統(tǒng)級封裝 skyworksinc

    引領(lǐng)少兒 AI 編程教育革新!英教育率先接入 DeepSeek

    2 月 8 日,英教育旗下核心產(chǎn)品 英 AI 應(yīng)用平臺 正式接入全球頂尖 AI 大模型 DeepSeek 。通過整合 DeepSeek 的認(rèn)知決策能力和英多年積累的教育經(jīng)驗(yàn),將為
    的頭像 發(fā)表于 02-11 13:16 ?1720次閱讀

    語言模型管理的作用

    要充分發(fā)揮語言模型的潛力,有效的語言模型管理非常重要。以下,是對語言模型管理作用的分析,由AI部
    的頭像 發(fā)表于 01-02 11:06 ?566次閱讀

    【「大模型啟示錄」閱讀體驗(yàn)】+開啟智能時代的新鑰匙

    那些擁有數(shù)十億甚至數(shù)千億參數(shù)的大規(guī)模模型成為了現(xiàn)實(shí)可能。Transformer 等機(jī)制模型架構(gòu)的橫空出世,徹底改變了模型訓(xùn)練的效率和性能。 我有時在想國外為何能夠在大
    發(fā)表于 12-24 13:10

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?811次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領(lǐng)域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-04 11:44 ?1027次閱讀