chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

可商用多語言聊天LLM開源,性能直逼GPT-4

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-05-25 11:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

SambaNova 與 Together 兩家公司合作開源了可商用的 BLOOMChat,一個(gè) 1760 億參數(shù)的多語言聊天大語言模型 (LLM)。由 BLOOM (176B) 在助理式的對(duì)話數(shù)據(jù)集上進(jìn)行指導(dǎo)調(diào)整,并支持多種語言的對(duì)話、問題回答和生成性答案。

根據(jù)介紹,BLOOMChat 是一個(gè)新的、開放的、多語言的聊天 LLM。SambaNova 和 Together 使用 SambaNova 獨(dú)特的可重構(gòu)數(shù)據(jù)流架構(gòu)在 SambaNova DataScale 系統(tǒng)上訓(xùn)練了 BLOOMChat;其建立在 BigScience 組織的 BLOOM 之上,并在 OpenChatKit、Dolly 2.0 和 OASST1 的 OIG 上進(jìn)行了微調(diào)。目前,BLOOM 已經(jīng)是最大的多語言開放模型,在 46 種語言上進(jìn)行了訓(xùn)練。

在針對(duì)英語、中文、法語、阿拉伯語、西班牙語、印度語這 6 種語言的評(píng)測中,GPT-4 的勝率為 54.75%,BLOOMChat 的勝率為 45.25%,稍弱于 GPT-4。但與其它 4 種主流的開源聊天 LLM 相比,BLOOMChat 在 65.92% 的時(shí)間內(nèi)表現(xiàn)更優(yōu)。且在使用 BLOOMChat 進(jìn)行跨語言 NLP 任務(wù)的初步研究中,BLOOMChat 在 WMT 翻譯基準(zhǔn)中的表現(xiàn)要優(yōu)于其他 BLOOM 變體和主流開源聊天模型。

“我們確實(shí)想指出,與我們比較的這些模型中,有些并不適合多語言環(huán)境。但由于開源社區(qū)中沒有替代品,所以才有了現(xiàn)在的比較。我們的研究結(jié)果表明,使用正確的技術(shù),可以在開源 LLM 之上構(gòu)建以實(shí)現(xiàn)強(qiáng)大的多語言聊天功能。我們希望我們的研究結(jié)果和 BLOOMChat checkpoint 的發(fā)布能夠?yàn)殚_源社區(qū)的持續(xù)討論做出貢獻(xiàn),并激發(fā) LLM 領(lǐng)域的進(jìn)一步發(fā)展?!?/p>

項(xiàng)目團(tuán)隊(duì)使用定性和定量措施來評(píng)估了 BLOOMChat 的多語言聊天能力以及跨語言任務(wù)能力。共做了 3 種不同場景的實(shí)驗(yàn)測評(píng),評(píng)測了英語、中文、阿拉伯語、法語、西班牙語和印度語。

實(shí)驗(yàn)一:人類偏好排序

旨在將 BLOOMChat 模型在多種語言中的聊天能力與現(xiàn)有的開源模型以及選定的封閉源模型進(jìn)行比較。使用了 “OpenAssistant Conversations”附錄 E 中的 22 個(gè)英文問題作為基準(zhǔn)。首先讓一些人類志愿者將這 22 個(gè)英文問題手動(dòng)翻譯成他們各自的母語;然后讓另一組不同的志愿者,在匿名的前提下評(píng)價(jià)每個(gè)模型所給出的回答。

將 BLOOMChat 與 OpenAssistant-30B、LLaMA-Adapter-V2-65B 和 BLOOMZ (176B) 三種開源模型進(jìn)行了比較:

586afb58-fa9a-11ed-90ce-dac502259ad0.png

51 名志愿者在所有模型和 6 種語言中共提交了 1158 次比較。如上圖所示,BLOOMChat (65.92%) 明顯優(yōu)于其它幾個(gè)開源模型。

與GPT-4 相比:

587f9e14-fa9a-11ed-90ce-dac502259ad0.png

實(shí)驗(yàn)二:模型質(zhì)量評(píng)估

此實(shí)驗(yàn)旨在驗(yàn)證 BLOOMChat 生成的多種語言文本的質(zhì)量。

5894d23e-fa9a-11ed-90ce-dac502259ad0.png

81.8% 的回答被歸類為 “正確” 或 “可接受但有輕微缺陷”。盡管只在英語數(shù)據(jù)集上進(jìn)行了微調(diào),但 BLOOMChat 在每種語言中都獲得了超過 70% 的 “正確” 或 “可接受” 評(píng)級(jí)。

實(shí)驗(yàn)三:WMT 翻譯任務(wù)

為了初步了解模型解決跨語言 NLP 任務(wù)的能力,評(píng)估了模型在 WMT 翻譯任務(wù)上的翻譯能力。

58b8ddbe-fa9a-11ed-90ce-dac502259ad0.png

總體而言,BLOOMChat 在翻譯任務(wù)中的表現(xiàn)明顯優(yōu)于其他 BLOOM 變體和開源聊天模型,但和 GPT-4 還有一定差距。

此外,BLOOMChat 團(tuán)隊(duì)也坦承了一些該模型的局限性:

BLOOMChat 有時(shí)可能會(huì)生成聽起來合理但事實(shí)不正確或與主題無關(guān)的回復(fù)信息。

BLOOMChat 可能在單個(gè)回復(fù)中無意間切換語言,影響輸出的連貫性和可理解性。

BLOOMChat 可能會(huì)產(chǎn)生重復(fù)的短語或句子,導(dǎo)致回復(fù)內(nèi)容缺乏吸引力和有效信息。

BLOOMChat 在生成代碼或解決復(fù)雜數(shù)學(xué)問題方面的性能可能會(huì)受到限制。

BLOOMChat 可能無意中生成含有不適當(dāng)或有害內(nèi)容的回復(fù)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4036

    瀏覽量

    45573
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11255
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1230

    瀏覽量

    26047
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    340

    瀏覽量

    1257

原文標(biāo)題:可商用多語言聊天LLM開源,性能直逼GPT-4

文章出處:【微信號(hào):OSC開源社區(qū),微信公眾號(hào):OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    部署熱門開源模型的應(yīng)用場景,框架已支持 GPT-OSS、DeepSeek、Llama 2 及 Llama 3 等主流模型的端到端部署;另一方面,框架將部署功能封裝為擴(kuò)展的 Python 框架;同時(shí)
    的頭像 發(fā)表于 10-21 11:04 ?769次閱讀

    阿里巴巴國際站關(guān)鍵字搜索 API 實(shí)戰(zhàn):3 步搞定多語言適配 + 限流破局,詢盤量提升 40%

    跨境電商API開發(fā)常陷合規(guī)、多語言、限流等坑。本文詳解從國際合規(guī)(GDPR/CCPA)到參數(shù)優(yōu)化、數(shù)據(jù)結(jié)構(gòu)化及區(qū)域化搜索的全鏈路方案,附Python代碼模板與緩存重試架構(gòu),助力提升調(diào)用成功率至99%+,精準(zhǔn)詢盤增長42%。
    的頭像 發(fā)表于 10-20 14:44 ?893次閱讀

    速賣通全球運(yùn)營利器:商品詳情接口多語言 + 合規(guī) + 物流適配技術(shù)全解析

    速賣通全球化適配是跨境成功關(guān)鍵!本文詳解2025最新接口方案,涵蓋多語言智能翻譯、合規(guī)自動(dòng)校驗(yàn)、物流精準(zhǔn)推薦與性能優(yōu)化四大模塊,助力商家提升轉(zhuǎn)化率30%+,降低風(fēng)險(xiǎn),提效80%。附實(shí)操代碼與新手三步走策略,適合所有想出海的賣家。
    的頭像 發(fā)表于 10-16 09:30 ?323次閱讀
    速賣通全球運(yùn)營利器:商品詳情接口<b class='flag-5'>多語言</b> + 合規(guī) + 物流適配技術(shù)全解析

    Dynamo 0.4在NVIDIA Blackwell上通過PD分離將性能提升4

    近期,OpenAI 的 gpt-oss、月之暗面的 Kimi K2 等多個(gè)新的前沿開源模型相繼問世,標(biāo)志著大語言模型 (LLM) 創(chuàng)新浪潮的加速。近日發(fā)布的 Dynamo 0.4 提供
    的頭像 發(fā)表于 08-22 15:59 ?1063次閱讀
    Dynamo 0.4在NVIDIA Blackwell上通過PD分離將<b class='flag-5'>性能</b>提升<b class='flag-5'>4</b>倍

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)
    的頭像 發(fā)表于 07-04 14:38 ?1757次閱讀

    GPT-5即將面市 性能遠(yuǎn)超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫運(yùn)行 llama_chat Python* Demo 時(shí)遇到錯(cuò)誤。
    發(fā)表于 03-05 08:07

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    景 DeepSeek-V3 更適合聊天機(jī)器人、內(nèi)容創(chuàng)作、多語言翻譯、基礎(chǔ)數(shù)據(jù)分析等通用需求。 DeepSeek-R1 聚焦科研輔助、數(shù)學(xué)教育、金融建模、代碼審查等需強(qiáng)邏輯推理的場景,尤其在需要分步推導(dǎo)(如數(shù)
    發(fā)表于 02-14 02:08

    Meta與UNESCO合作推動(dòng)多語言AI發(fā)展

    Meta最近宣布了一項(xiàng)與聯(lián)合國教科文組織(UNESCO)合作的全新計(jì)劃——語言技術(shù)伙伴計(jì)劃。該計(jì)劃旨在收集多種語言的語音錄音和文字記錄,以推動(dòng)未來開放可用的人工智能(AI)技術(shù)的發(fā)展,特別關(guān)注那些
    的頭像 發(fā)表于 02-08 11:04 ?902次閱讀

    微軟Copilot Voice升級(jí),積極拓展多語言支持

    近日,據(jù)報(bào)道,微軟近期在人工智能領(lǐng)域取得了新的進(jìn)展,正積極拓展其Copilot Voice的多語言支持功能。這一舉措標(biāo)志著微軟在語音識(shí)別和自然語言處理技術(shù)上又邁出了重要一步。 此次Copilot
    的頭像 發(fā)表于 02-06 14:10 ?717次閱讀

    OpenAI報(bào)告GPT-4o及4o-mini模型性能下降,正緊急調(diào)查

    ,自發(fā)現(xiàn)這一問題以來,公司已經(jīng)迅速啟動(dòng)了內(nèi)部調(diào)查機(jī)制,以盡快查明導(dǎo)致模型性能下降的具體原因。OpenAI強(qiáng)調(diào),他們對(duì)此次事件高度重視,并將全力以赴解決這一問題,以確保用戶能夠繼續(xù)享受到高質(zhì)量的AI服務(wù)。 GPT-4o和4o-mi
    的頭像 發(fā)表于 01-23 10:22 ?1105次閱讀

    OpenAI:GPT-4o及4o-mini模型性能下降,正展開調(diào)查

    近期,OpenAI發(fā)布了一份事故報(bào)告,指出其GPT-4o及4o-mini模型遭遇了性能下降的問題。這一消息引起了業(yè)界的廣泛關(guān)注和討論。 據(jù)OpenAI官方透露,他們目前正在積極調(diào)查這一性能
    的頭像 發(fā)表于 01-21 10:34 ?941次閱讀

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺(tái)

    LLM630LLM推理,視覺識(shí)別,開發(fā),靈活擴(kuò)展···LLM630ComputeKit是一款A(yù)I大語言模型推理開發(fā)平臺(tái),專為邊緣計(jì)算和智能交互應(yīng)用而設(shè)計(jì)。該套件的主板搭載愛芯AX63
    的頭像 發(fā)表于 01-17 18:48 ?1205次閱讀
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大<b class='flag-5'>語言</b>模型推理開發(fā)平臺(tái)

    在NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在與 NVIDIA Tensor
    的頭像 發(fā)表于 12-25 17:31 ?1239次閱讀
    在NVIDIA TensorRT-<b class='flag-5'>LLM</b>中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個(gè)專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計(jì)的庫。它提供了多種先進(jìn)的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?1611次閱讀