chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中文對(duì)話式大語言模型Firefly-2b6開源,使用210萬訓(xùn)練數(shù)據(jù)

深度學(xué)習(xí)自然語言處理 ? 來源:YeungNLP ? 2023-04-14 10:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在文章Firefly(流螢): 中文對(duì)話式大語言模型中,我們介紹了關(guān)于Firefly(流螢)項(xiàng)目的工作,并且分享了我們訓(xùn)練的firefly-1b4模型。這是Firefly項(xiàng)目開源的第一個(gè)模型,雖然取得了還不錯(cuò)的效果,但無論是訓(xùn)練數(shù)據(jù)還是模型參數(shù)量,都還有很大的優(yōu)化空間。

所以,在firefly-1b4實(shí)驗(yàn)的基礎(chǔ)上,我們對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行清洗,并且增加了數(shù)據(jù)量,得到210萬數(shù)據(jù),并用它訓(xùn)練得到了firefly-2b6模型。

在本文中,我們將對(duì)該模型進(jìn)行分享和介紹。與firefly-1b4相比,firefly-2b6的代碼生成能力取得了較大的進(jìn)步,并且在古詩詞生成、對(duì)聯(lián)、作文、開放域生成等方面也有不錯(cuò)的提升。

firefly-1b4和firefly-2b6的訓(xùn)練配置如下表所示。無論是訓(xùn)練數(shù)據(jù)量,還是訓(xùn)練步數(shù),firefly-2b6都更加充分。

參數(shù) firefly-1b4 firefly-2b6
batch size 16 8
learning rate 3e-5 3e-5
warmup step 3000 3000
lr schedule cosine cosine
max length 512 512
training step 90k 260k
訓(xùn)練集規(guī)模 160萬 210萬

項(xiàng)目地址:

https://github.com/yangjianxin1/Firefly

模型權(quán)重鏈接見文末。

模型使用

使用如下代碼即可使用模型:

from transformers import BloomTokenizerFast, BloomForCausalLM
device = 'cuda'
path = 'YeungNLP/firefly-2b6'


tokenizer = BloomTokenizerFast.from_pretrained(path)
model = BloomForCausalLM.from_pretrained(path)
model.eval()
model = model.to(device)
text = input('User:')
while True:
    text = '{}'.format(text)
    input_ids = tokenizer(text, return_tensors="pt").input_ids
    input_ids = input_ids.to(device)
outputs=model.generate(input_ids,max_new_tokens=250,do_sample=True,top_p=0.7,temperature=0.35,
                             repetition_penalty=1.2, eos_token_id=tokenizer.eos_token_id)
    rets = tokenizer.batch_decode(outputs)
    output = rets[0].strip().replace(text, "").replace('', "")
    print("Firefly:{}".format(output))
    text = input('User:')

代碼生成

盡管在訓(xùn)練集中,代碼的數(shù)據(jù)量不多,但令人驚喜的是,firefly-2b6已經(jīng)具備一定的代碼生成能力。

在筆者的實(shí)測(cè)中,對(duì)于一些編程題,firefly-2b6生成的代碼可以做到無需修改,直接運(yùn)行成功,并且得到正確的答案。下面將展示一些編程題的生成例子。

示例1:幫我用python寫一個(gè)冒泡排序算法。

dee31870-d9b9-11ed-bfe3-dac502259ad0.png

示例2:用python實(shí)現(xiàn)一個(gè)快速排序算法,輸入為一個(gè)數(shù)組,返回排序好之后的數(shù)組。

deec2f32-d9b9-11ed-bfe3-dac502259ad0.png

示例3:用python寫一個(gè)二分查找算法。

defb67b8-d9b9-11ed-bfe3-dac502259ad0.png

示例4:寫一個(gè)函數(shù),計(jì)算數(shù)組中偶數(shù)的個(gè)數(shù),輸入為數(shù)組,輸出為偶數(shù)的個(gè)數(shù)。

df04d12c-d9b9-11ed-bfe3-dac502259ad0.png

示例5:用html生成一個(gè)教務(wù)管理系統(tǒng)的登錄界面,要求包含用戶名、密碼輸入框和登錄按鈕。

df0d21ce-d9b9-11ed-bfe3-dac502259ad0.png

該html代碼在瀏覽器中的效果如下圖:

df142ce4-d9b9-11ed-bfe3-dac502259ad0.png

其他樣例

同樣,我們也對(duì)文言文、古詩詞、文章生成等數(shù)據(jù)進(jìn)行了清洗,提高數(shù)據(jù)的質(zhì)量。實(shí)測(cè)下來,我們發(fā)現(xiàn)firefly-2b6的生成效果,確實(shí)提升了不少。

數(shù)據(jù)質(zhì)量的優(yōu)化,對(duì)文言文翻譯任務(wù)的提升,尤為明顯。在訓(xùn)練firefly-1b4時(shí),文言文數(shù)據(jù)為較短的句子對(duì)。但在訓(xùn)練firefly-2b6時(shí),我們使用了較長(zhǎng)篇幅的文本對(duì)。

下面為一些實(shí)測(cè)的例子。

df1b8c28-d9b9-11ed-bfe3-dac502259ad0.png

df286d30-d9b9-11ed-bfe3-dac502259ad0.png

df352c5a-d9b9-11ed-bfe3-dac502259ad0.png

df3dc2e8-d9b9-11ed-bfe3-dac502259ad0.png

df457308-d9b9-11ed-bfe3-dac502259ad0.png

df4cf9ac-d9b9-11ed-bfe3-dac502259ad0.png

df5354dc-d9b9-11ed-bfe3-dac502259ad0.png

df59bf2a-d9b9-11ed-bfe3-dac502259ad0.png

df615a96-d9b9-11ed-bfe3-dac502259ad0.png

df6d2b96-d9b9-11ed-bfe3-dac502259ad0.png

文章小結(jié)

雖然firefly-2b6已經(jīng)初步具備代碼生成能力,但由于訓(xùn)練集中的代碼數(shù)據(jù)的數(shù)量不多,對(duì)于一些編程題,效果不如人意。我們覺得仍有非常大的優(yōu)化空間,后續(xù)我們也將收集更多代碼數(shù)據(jù),提升模型的代碼能力。

經(jīng)過firefly-1b4和firefly-2b6兩個(gè)模型的迭代,能明顯感受到增加數(shù)據(jù)量、提升數(shù)據(jù)質(zhì)量、增大模型參數(shù)量,對(duì)模型的提升非常大。

在前文中,我們提到,firefly-1b4在訓(xùn)練數(shù)據(jù)量、訓(xùn)練步數(shù)上都略有不足。為了探索"小"模型的效果上限,我們也將使用更多數(shù)量、更高質(zhì)量的數(shù)據(jù)對(duì)firefly-1b4進(jìn)行迭代。該項(xiàng)工作正在進(jìn)行。

后續(xù),我們也將在多輪對(duì)話、增大模型參數(shù)量、模型量化等方向上進(jìn)行迭代,我們也將陸續(xù)開源訓(xùn)練代碼以及更多的訓(xùn)練數(shù)據(jù)。期待大家的意見和建議。


審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3645

    瀏覽量

    51685
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4940

    瀏覽量

    73083
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11246

原文標(biāo)題:中文對(duì)話式大語言模型Firefly-2b6開源,使用210萬訓(xùn)練數(shù)據(jù)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    openDACS 2025 開源EDA與芯片賽項(xiàng) 賽題七:基于大模型的生成原理圖設(shè)計(jì)

    大賽分為初賽和決賽,均設(shè)獎(jiǎng)項(xiàng),總獎(jiǎng)金40元。 (1)初賽:參賽隊(duì)伍按賽題報(bào)名,在規(guī)定的時(shí)間內(nèi)提交參賽開源代碼、可執(zhí)行代碼、測(cè)試數(shù)據(jù)和相關(guān)文檔材料,由賽題評(píng)審組評(píng)分。每個(gè)賽題評(píng)選出:優(yōu)勝獎(jiǎng)1-
    發(fā)表于 11-13 11:49

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B語言模型

    為助力打造實(shí)時(shí)、動(dòng)態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B語言模型(SLM),可實(shí)現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?991次閱讀

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應(yīng)用開發(fā)者都可以構(gòu)建并部署帶有先進(jìn)動(dòng)畫的高精度角色。NVIDIA 開源 Audio
    的頭像 發(fā)表于 10-21 11:11 ?520次閱讀
    NVIDIA<b class='flag-5'>開源</b>Audio<b class='flag-5'>2</b>Face<b class='flag-5'>模型</b>及SDK

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    qwen2_5_vl_3b_vision_rk3576.rknn 模型(本文)。 核心作用:將輸入圖像壓縮為視覺 token 如 256 個(gè)視覺 token,直接輸入至大語言模型中,
    發(fā)表于 09-05 17:25

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源語言模型部署

    的系統(tǒng)和芯片架構(gòu)。 3、拉取/運(yùn)行大語言模型 ollama的使用方法和docker很像。 返回到ollama的編譯路徑,找到ollama可執(zhí)行文件 執(zhí)行 ./ollama run qwen3:0.6b
    發(fā)表于 07-19 15:45

    華為正式開源盤古7B稠密和72B混合專家模型

    [中國,深圳,2025年6月30日] 今日,華為正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型和基于昇騰的模型
    的頭像 發(fā)表于 06-30 11:19 ?1091次閱讀

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入AI模型模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練
    發(fā)表于 04-28 11:11

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)

    ,使用PaddleNLP將FineWeb數(shù)據(jù)中文本形式的數(shù)據(jù),經(jīng)過分詞化(Tokenize),轉(zhuǎn)換為大語言模型能直接使用的二進(jìn)制
    的頭像 發(fā)表于 03-21 18:24 ?3770次閱讀
    用PaddleNLP為GPT-<b class='flag-5'>2</b><b class='flag-5'>模型</b>制作FineWeb二進(jìn)制預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>集

    小白學(xué)大模型訓(xùn)練語言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語言模型(LLMs)正以其強(qiáng)大的語言理解和生成能力,改變著我們的生活和工作方式。在最近的一項(xiàng)研究中,科學(xué)家們?yōu)榱松钊肓私馊绾胃咝У?b class='flag-5'>訓(xùn)練大型
    的頭像 發(fā)表于 03-03 11:51 ?1196次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:<b class='flag-5'>訓(xùn)練</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的深度指南

    模型訓(xùn)練:開源數(shù)據(jù)與算法的機(jī)遇與挑戰(zhàn)分析

    進(jìn)行多方位的總結(jié)和梳理。 在第二章《TOP 101-2024 大模型觀點(diǎn)》中,蘇州盛派網(wǎng)絡(luò)科技有限公司創(chuàng)始人兼首席架構(gòu)師蘇震巍分析了大模型訓(xùn)練過程中開源
    的頭像 發(fā)表于 02-20 10:40 ?980次閱讀
    大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>:<b class='flag-5'>開源</b><b class='flag-5'>數(shù)據(jù)</b>與算法的機(jī)遇與挑戰(zhàn)分析

    Firefly 服務(wù)器系列:覆蓋多個(gè)領(lǐng)域的高算力解決方案

    ?服務(wù)器算力覆蓋60~1570TOPS強(qiáng)勁算力,支持Transformer架構(gòu)下大語言模型的私有化部署,如Gemma-2B、ChatGLM3-6B、Qwen-1.
    的頭像 發(fā)表于 02-19 16:34 ?1333次閱讀
    <b class='flag-5'>Firefly</b> 服務(wù)器系列:覆蓋多個(gè)領(lǐng)域的高算力解決方案

    騰訊公布大語言模型訓(xùn)練新專利

    近日,騰訊科技(深圳)有限公司公布了一項(xiàng)名為“大語言模型訓(xùn)練方法、裝置、計(jì)算機(jī)設(shè)備及存儲(chǔ)介質(zhì)”的新專利。該專利的公布,標(biāo)志著騰訊在大語言模型
    的頭像 發(fā)表于 02-10 09:37 ?692次閱讀

    【「大模型啟示錄」閱讀體驗(yàn)】+開啟智能時(shí)代的新鑰匙

    ,NVDIA與微軟的競(jìng)爭(zhēng) 。計(jì)算能力的飛速提升是大模型得以興起的重要基石。GPU/TPU 等高性能計(jì)算設(shè)備的迅猛發(fā)展,宛如為大模型訓(xùn)練打造了一臺(tái)強(qiáng)大的引擎。它們能夠以極高的速度處理海量的數(shù)據(jù)
    發(fā)表于 12-24 13:10

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?811次閱讀

    云端語言模型開發(fā)方法

    云端語言模型的開發(fā)是一個(gè)復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)準(zhǔn)備、模型選擇、訓(xùn)練優(yōu)化、部署應(yīng)用等多個(gè)環(huán)節(jié)。下面,AI部落小編為您分享云端
    的頭像 發(fā)表于 12-02 10:48 ?901次閱讀