chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

可商用多語言聊天LLM開源,性能直逼GPT-4

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-05-25 11:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

SambaNova 與 Together 兩家公司合作開源了可商用的 BLOOMChat,一個 1760 億參數(shù)的多語言聊天大語言模型 (LLM)。由 BLOOM (176B) 在助理式的對話數(shù)據(jù)集上進行指導調(diào)整,并支持多種語言的對話、問題回答和生成性答案。

根據(jù)介紹,BLOOMChat 是一個新的、開放的、多語言的聊天 LLM。SambaNova 和 Together 使用 SambaNova 獨特的可重構(gòu)數(shù)據(jù)流架構(gòu)在 SambaNova DataScale 系統(tǒng)上訓練了 BLOOMChat;其建立在 BigScience 組織的 BLOOM 之上,并在 OpenChatKit、Dolly 2.0 和 OASST1 的 OIG 上進行了微調(diào)。目前,BLOOM 已經(jīng)是最大的多語言開放模型,在 46 種語言上進行了訓練。

在針對英語、中文、法語、阿拉伯語、西班牙語、印度語這 6 種語言的評測中,GPT-4 的勝率為 54.75%,BLOOMChat 的勝率為 45.25%,稍弱于 GPT-4。但與其它 4 種主流的開源聊天 LLM 相比,BLOOMChat 在 65.92% 的時間內(nèi)表現(xiàn)更優(yōu)。且在使用 BLOOMChat 進行跨語言 NLP 任務的初步研究中,BLOOMChat 在 WMT 翻譯基準中的表現(xiàn)要優(yōu)于其他 BLOOM 變體和主流開源聊天模型。

“我們確實想指出,與我們比較的這些模型中,有些并不適合多語言環(huán)境。但由于開源社區(qū)中沒有替代品,所以才有了現(xiàn)在的比較。我們的研究結(jié)果表明,使用正確的技術(shù),可以在開源 LLM 之上構(gòu)建以實現(xiàn)強大的多語言聊天功能。我們希望我們的研究結(jié)果和 BLOOMChat checkpoint 的發(fā)布能夠為開源社區(qū)的持續(xù)討論做出貢獻,并激發(fā) LLM 領(lǐng)域的進一步發(fā)展?!?/p>

項目團隊使用定性和定量措施來評估了 BLOOMChat 的多語言聊天能力以及跨語言任務能力。共做了 3 種不同場景的實驗測評,評測了英語、中文、阿拉伯語、法語、西班牙語和印度語。

實驗一:人類偏好排序

旨在將 BLOOMChat 模型在多種語言中的聊天能力與現(xiàn)有的開源模型以及選定的封閉源模型進行比較。使用了 “OpenAssistant Conversations”附錄 E 中的 22 個英文問題作為基準。首先讓一些人類志愿者將這 22 個英文問題手動翻譯成他們各自的母語;然后讓另一組不同的志愿者,在匿名的前提下評價每個模型所給出的回答。

將 BLOOMChat 與 OpenAssistant-30B、LLaMA-Adapter-V2-65B 和 BLOOMZ (176B) 三種開源模型進行了比較:

586afb58-fa9a-11ed-90ce-dac502259ad0.png

51 名志愿者在所有模型和 6 種語言中共提交了 1158 次比較。如上圖所示,BLOOMChat (65.92%) 明顯優(yōu)于其它幾個開源模型。

與GPT-4 相比:

587f9e14-fa9a-11ed-90ce-dac502259ad0.png

實驗二:模型質(zhì)量評估

此實驗旨在驗證 BLOOMChat 生成的多種語言文本的質(zhì)量。

5894d23e-fa9a-11ed-90ce-dac502259ad0.png

81.8% 的回答被歸類為 “正確” 或 “可接受但有輕微缺陷”。盡管只在英語數(shù)據(jù)集上進行了微調(diào),但 BLOOMChat 在每種語言中都獲得了超過 70% 的 “正確” 或 “可接受” 評級。

實驗三:WMT 翻譯任務

為了初步了解模型解決跨語言 NLP 任務的能力,評估了模型在 WMT 翻譯任務上的翻譯能力。

58b8ddbe-fa9a-11ed-90ce-dac502259ad0.png

總體而言,BLOOMChat 在翻譯任務中的表現(xiàn)明顯優(yōu)于其他 BLOOM 變體和開源聊天模型,但和 GPT-4 還有一定差距。

此外,BLOOMChat 團隊也坦承了一些該模型的局限性:

BLOOMChat 有時可能會生成聽起來合理但事實不正確或與主題無關(guān)的回復信息。

BLOOMChat 可能在單個回復中無意間切換語言,影響輸出的連貫性和可理解性。

BLOOMChat 可能會產(chǎn)生重復的短語或句子,導致回復內(nèi)容缺乏吸引力和有效信息。

BLOOMChat 在生成代碼或解決復雜數(shù)學問題方面的性能可能會受到限制。

BLOOMChat 可能無意中生成含有不適當或有害內(nèi)容的回復。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3880

    瀏覽量

    45228
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    566

    瀏覽量

    11185
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    25918
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    337

    瀏覽量

    1148

原文標題:可商用多語言聊天LLM開源,性能直逼GPT-4

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    速賣通全球運營利器:商品詳情接口多語言 + 合規(guī) + 物流適配技術(shù)全解析

    速賣通全球化適配是跨境成功關(guān)鍵!本文詳解2025最新接口方案,涵蓋多語言智能翻譯、合規(guī)自動校驗、物流精準推薦與性能優(yōu)化四大模塊,助力商家提升轉(zhuǎn)化率30%+,降低風險,提效80%。附實操代碼與新手三步走策略,適合所有想出海的賣家。
    的頭像 發(fā)表于 10-16 09:30 ?32次閱讀
    速賣通全球運營利器:商品詳情接口<b class='flag-5'>多語言</b> + 合規(guī) + 物流適配技術(shù)全解析

    GPT-5即將面市 性能遠超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    微軟Copilot Voice升級,積極拓展多語言支持

    近日,據(jù)報道,微軟近期在人工智能領(lǐng)域取得了新的進展,正積極拓展其Copilot Voice的多語言支持功能。這一舉措標志著微軟在語音識別和自然語言處理技術(shù)上又邁出了重要一步。 此次Copilot
    的頭像 發(fā)表于 02-06 14:10 ?601次閱讀

    OpenAI:GPT-4o及4o-mini模型性能下降,正展開調(diào)查

    近期,OpenAI發(fā)布了一份事故報告,指出其GPT-4o及4o-mini模型遭遇了性能下降的問題。這一消息引起了業(yè)界的廣泛關(guān)注和討論。 據(jù)OpenAI官方透露,他們目前正在積極調(diào)查這一性能
    的頭像 發(fā)表于 01-21 10:34 ?820次閱讀

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺

    LLM630LLM推理,視覺識別,開發(fā),靈活擴展···LLM630ComputeKit是一款AI大語言模型推理開發(fā)平臺,專為邊緣計算和智能交互應用而設(shè)計。該套件的主板搭載愛芯AX63
    的頭像 發(fā)表于 01-17 18:48 ?1048次閱讀
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大<b class='flag-5'>語言</b>模型推理開發(fā)平臺

    在NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在與 NVIDIA Tensor
    的頭像 發(fā)表于 12-25 17:31 ?1038次閱讀
    在NVIDIA TensorRT-<b class='flag-5'>LLM</b>中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計的庫。它提供了多種先進的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?1400次閱讀

    什么是LLM?LLM在自然語言處理中的應用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進步。其中,大型語言模型(LLM)的出現(xiàn),標志著我們對語言理解能力的一次飛躍。L
    的頭像 發(fā)表于 11-19 15:32 ?4223次閱讀

    LLM技術(shù)的未來趨勢分析

    。 技術(shù)進步 1. 模型規(guī)模的增長 隨著計算能力的提升和數(shù)據(jù)集的擴大,LLM的規(guī)模也在不斷增長。更大的模型能夠捕捉更復雜的語言模式,提高任務的性能。例如,GPT-3模型擁有1750億個
    的頭像 發(fā)表于 11-08 09:35 ?1471次閱讀

    使用LLM進行自然語言處理的優(yōu)缺點

    自然語言處理(NLP)是人工智能和語言學領(lǐng)域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言。大型語言模型(LLM)是NLP領(lǐng)域的一
    的頭像 發(fā)表于 11-08 09:27 ?3402次閱讀

    Llama 3 與 GPT-4 比較

    沿。 一、技術(shù)架構(gòu) Llama 3和GPT-4都是基于深度學習的自然語言處理(NLP)模型,但它們的設(shè)計理念和技術(shù)細節(jié)有所不同。 Llama 3 采用了一種創(chuàng)新的混合架構(gòu),結(jié)合了傳統(tǒng)的Transformer模型和最新的神經(jīng)網(wǎng)絡(luò)技術(shù)。這種架構(gòu)使得Llama 3在處理復雜的
    的頭像 發(fā)表于 10-27 14:17 ?1477次閱讀

    ChatGPT 的多語言支持特點

    )技術(shù)迎來了巨大的挑戰(zhàn)和機遇。ChatGPT,作為一個領(lǐng)先的語言模型,其多語言支持的特點成為了它在眾多應用場景中不可或缺的優(yōu)勢。 1. 多語言理解能力 ChatGPT 的多語言支持首先
    的頭像 發(fā)表于 10-25 17:30 ?1910次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo大模型及星火多語言大模型

    ,科大訊飛以其一貫的創(chuàng)新精神,開創(chuàng)性地發(fā)布了星火多語言大模型。這一創(chuàng)新之舉不僅進一步鞏固了科大訊飛在中文和英文處理領(lǐng)域的領(lǐng)先地位,更將語言的支持范圍大幅擴展,涵蓋了俄語、日語、阿拉伯語、韓語、法語、西班牙語、葡萄牙語以及
    的頭像 發(fā)表于 10-24 13:58 ?1112次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?1337次閱讀

    端到端InfiniBand網(wǎng)絡(luò)解決LLM訓練瓶頸

    ChatGPT對技術(shù)的影響引發(fā)了對人工智能未來的預測,尤其是多模態(tài)技術(shù)的關(guān)注。OpenAI推出了具有突破性的多模態(tài)模型GPT-4,使各個領(lǐng)域取得了顯著的發(fā)展。 這些AI進步是通過大規(guī)模模型訓練實現(xiàn)
    的頭像 發(fā)表于 10-23 11:26 ?7795次閱讀
    端到端InfiniBand網(wǎng)絡(luò)解決<b class='flag-5'>LLM</b>訓練瓶頸