chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2023年發(fā)布的25個(gè)開源大型語言模型總結(jié)

穎脈Imgtec ? 2023-08-01 00:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大型語言模型(llm)是一種人工智能(AI),在大量文本和代碼數(shù)據(jù)集上進(jìn)行訓(xùn)練。它們可以用于各種任務(wù),包括生成文本、翻譯語言和編寫不同類型的創(chuàng)意內(nèi)容。

今年開始,人們對(duì)開源LLM越來越感興趣。這些模型是在開源許可下發(fā)布的,這意味著任何人都可以使用、修改和分發(fā)它們。這使得研究人員、開發(fā)人員和企業(yè)都可以嘗試LLM,并為它們開發(fā)新的應(yīng)用程序。使用開源llm有很多好處。首先它們通常比專業(yè)的LLM更價(jià)便宜。并且它們更加透明,這意味著研究人員可以研究它們是如何工作的以及它們是如何做出決定的。最主要的是它們更加靈活,可以針對(duì)不同的任務(wù)進(jìn)行定制。

本文總結(jié)了當(dāng)前可用的開源llm的全部(幾乎全部)列表,以及有關(guān)其許可選項(xiàng)和源代碼存儲(chǔ)庫(kù)的信息,希望對(duì)你有所幫助。

▎SAIL 7B
基于LLaMa的搜索增強(qiáng)
參數(shù):7B
許可類型:GPL-3.0
發(fā)布日期:2023年5月
論文:SAIL — Search Augmented Instruction Learning


▎Guanaco
采用高效微調(diào)方法QLoRA發(fā)布的LLM模型
參數(shù):65B
許可類型:MIT
發(fā)布日期:2023年5月
論文:QLoRA — Efficient Finetuning of Quantized LLMs


▎RMKV
與transformer的LLM性能相當(dāng)?shù)腞NN模型
參數(shù):100M–14B
許可類型:Apache 2.0
發(fā)布日期:2023年5月
論文:Scaling RNN to 1.5B and Reach Transformer LM Performance


▎MPT-7B
MosaicML的基礎(chǔ)系列模型
參數(shù):7B
許可類型:Apache 2.0
發(fā)布日期:2023年5月
論文:MPT-7B — A New Standard for Open-Source, Commercially Usable LLMs


▎OpenLLaMa
在RedPajama數(shù)據(jù)集上訓(xùn)練的Meta AI的LLaMA 7B的另一個(gè)開源復(fù)制。
參數(shù):3,7B
許可類型:Apache 2.0
發(fā)布日期:2023年5月
論文:Meet OpenLLaMA — An Open-Source Reproduction of Meta AI’s LLaMA Large Language Model


▎RedPajama-INCITE
基于RedPajama數(shù)據(jù)集上訓(xùn)練的指令調(diào)整和聊天Pythia模型。
參數(shù):3B, 7B
許可類型:Apache 2.0
發(fā)布日期:2023年5月
論文:RedPajama-INCITE family of models including base, instruction-tuned & chat models


▎h2oGPT
H2O的微調(diào)框架和文檔問答功能的聊天機(jī)器人UI
參數(shù):12B,30B
許可類型:Apache 2.0
發(fā)布日期:2023年5月
論文:Building the World’s Best Open-Source Large Language Model:H2O.ai’s Journey


▎FastChat-T5
通過微調(diào)Flan-t5-xl對(duì)從ShareGPT收集的用戶共享對(duì)話進(jìn)行訓(xùn)練的聊天機(jī)器人
參數(shù):3B
許可類型:Apache 2.0
發(fā)布日期:2023年4月
論文:FastChat-T5 — our compact and commercial-friendly chatbot!


▎GPT4All
用于訓(xùn)練和部署強(qiáng)大的定制llm的完整工具系統(tǒng)
參數(shù):7–13B
許可類型:MIT
發(fā)布日期:2023年4月
論文:GPT4All:An ecosystem of open-source on-edge large language models.


▎MiniGPT-4
基于BLIP-2和Vicuna LLM的Visual LLM模型
參數(shù):13B
許可類型:BSD-3-Clause
發(fā)布日期:2023年4月
論文:MiniGPT-4 — Enhancing Vision-Language Understanding withAdvanced Large Language Models


▎StableLM
StableLM的LLM模型系列
參數(shù):7B
許可類型:CC BY-NC-SA-4.0
發(fā)布日期:2023年4月
論文:Stability AI Launches the First of its StableLM Suite of Language Models


▎BloomZ
通過多任務(wù)微調(diào)實(shí)現(xiàn)跨語言泛化
參數(shù):176B
許可類型:Apache 2.0
發(fā)布日期:2023年4月
論文:Cross-lingual Generalization through Multitask Finetuning


▎Dolly
Pythia 12B LLM在Databricks ML平臺(tái)上訓(xùn)練的模型
參數(shù):12B
許可類型:Apache 2.0
發(fā)布日期:2023年4月
論文:Free Dolly — Introducing the World’s First Truly Open Instruction-Tuned LLM


▎Baize Chatbot
基于LLaMa的開源聊天模型
參數(shù):30B
許可類型:GPL-3.0 license
發(fā)布日期:2023年4月
論文:Baize — An Open-Source Chat Model with Parameter-Efficient Tuning on Self-Chat Data


▎ColossalChat
由ColossalAI開源發(fā)布的一個(gè)完整的RLHF流程訓(xùn)練的模型
參數(shù):N/A
許可類型:Apache 2.0
發(fā)布日期:2023年4月
論文:ColossalChat — An Open-Source Solution for Cloning ChatGPT With a Complete RLHF Pipeline


▎Lit LLaMa
來自Lightning AI的LLaMA的開源實(shí)現(xiàn)
參數(shù):13B
許可類型:Apache 2.0
發(fā)布日期:2023年4月
論文:Why We’re Building Lit-LLaMA


▎Cerebras-GPT
開放的,計(jì)算效率高的,大型語言模型
參數(shù):111M-13B
許可類型:Apache 2.0
發(fā)布日期:2023年3月
論文:Cerebras-GPT — Open Compute-Optimal Language ModelsTrained on the Cerebras Wafer-Scale Cluster


▎Open Flamingo
Deepmind的Flamingo模型的開源實(shí)現(xiàn)
參數(shù):9B
許可類型:MIT License
發(fā)布日期:2023年3月
論文:Openflamingo — An Open-source Framework For Training Vision-language Models With In-context Learning


▎Chat GLM
使用開放式雙語(中英文)雙向密集預(yù)訓(xùn)練模型
參數(shù):6B-130B
許可類型:Apache 2.0
發(fā)布日期:2023年3月
論文:GLM-130B:An Open Bilingual Pre-trained Model


▎DLite
通過微調(diào)Alpaca數(shù)據(jù)集上最小的GPT-2模型
參數(shù):124M
許可類型:Apache 2.0
發(fā)布日期:2023年3月
論文:Introducing DLite, a Lightweight ChatGPT-Like Model Based on Dolly


▎Alpaca 7B
描述:斯坦福大學(xué)發(fā)布的指令遵循LLaMA模型
參數(shù):7B
許可類型:Apache 2.0
發(fā)布日期:2023年3月
論文:Alpaca — A Strong, Replicable Instruction-Following Model


▎Flan UL2
在預(yù)訓(xùn)練的UL2檢查點(diǎn)上訓(xùn)練Flan 20B模型。
參數(shù):20B
許可類型:MIT License
發(fā)布日期:2023年3月
論文:A New Open Source Flan 20B with UL2


▎Flan-T5
T5在各種數(shù)據(jù)集上的指令微調(diào),提高預(yù)訓(xùn)練語言模型的可用性
參數(shù):60M–11B
許可類型:Apache 2.0
發(fā)布日期:2023年2月
論文:Scaling Instruction-Finetuned Language Models


總結(jié)

最后再補(bǔ)充2個(gè)剛剛發(fā)布的模型,一個(gè)是llama-2,這個(gè)我們文章也在前幾天介紹了微調(diào)和使用的方法。另外一個(gè)就是昨天剛看到的新聞,stabilityai發(fā)布的 FreeWilly2,它是在 Llama2 70B 上微調(diào)的結(jié)果,目前在open_llm_leaderboard上排第一。開源大型語言模型正在迅速發(fā)展,開源社區(qū)發(fā)布了許多模型。這些模型為開發(fā)人員、研究人員和愛好者提供了一個(gè)非常大機(jī)會(huì),可以在沒有專有系統(tǒng)的情況下試驗(yàn)尖端的語言技術(shù)。隨著越來越多的組織和個(gè)人為這些模型的發(fā)展做出貢獻(xiàn),我們可以期待看到更強(qiáng)大、更容易使用和更創(chuàng)新的語言模型,它們將塑造自然語言處理的未來。

作者:Manikanth

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語言
    +關(guān)注

    關(guān)注

    1

    文章

    97

    瀏覽量

    24833
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4203

    瀏覽量

    46110
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52093
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    云知聲山海醫(yī)療大模型問鼎MedBench4.0三項(xiàng)榜首

    12月16日,中文醫(yī)療大模型權(quán)威評(píng)測(cè)平臺(tái)MedBench4.0發(fā)布最新評(píng)測(cè)結(jié)果。云知聲自主研發(fā)的“山海醫(yī)療大模型(UniGPT?Med)”展現(xiàn)出全面領(lǐng)先的技術(shù)實(shí)力,一舉斬獲醫(yī)療智能體、醫(yī)療大
    的頭像 發(fā)表于 12-29 14:35 ?3172次閱讀
    云知聲山海醫(yī)療大<b class='flag-5'>模型</b>問鼎MedBench4.0三項(xiàng)榜首

    重磅更新 | 先楫半導(dǎo)體HPM_APPS v1.10.1發(fā)布

    重磅更新 | 先楫半導(dǎo)體HPM_APPS v1.10.1發(fā)布
    的頭像 發(fā)表于 12-26 08:33 ?857次閱讀
    重磅更新 | 先楫半導(dǎo)體HPM_APPS v1.10.1<b class='flag-5'>發(fā)布</b>

    NVIDIA推動(dòng)面向數(shù)字與物理AI的開源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語音、安全與輔助駕駛領(lǐng)域的全新 AI 工具,其中包括面向移動(dòng)出行領(lǐng)域的行業(yè)級(jí)開源視覺-語言-動(dòng)作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發(fā)表于 12-13 09:50 ?1329次閱讀

    今日看點(diǎn):象帝先推出首款量產(chǎn)Imagination DXD GPU顯卡;小米汽車?yán)塾?jì)交付突破 50 萬臺(tái)

    ,能夠同時(shí)處理文本與圖像信息,使車輛能夠“看見”周圍環(huán)境,并基于所感知的內(nèi)容做出決策。 ? 該新模型基于英偉達(dá)此前推出的 Cosmos-Reason 推理模型構(gòu)建,后者具備在響應(yīng)前對(duì)決策進(jìn)行邏輯推演的能力。英偉達(dá)最初于2025
    發(fā)表于 12-02 10:24 ?1057次閱讀

    openDACS 2025 開源EDA與芯片賽項(xiàng) 賽題七:基于大模型的生成式原理圖設(shè)計(jì)

    , ASPDAC\'2017, DAC\'2017最佳論文提名。2018獲國(guó)家自然科學(xué)基金委優(yōu)青項(xiàng)目資助。 3. 賽題背景 隨著人工智能技術(shù)的迅猛發(fā)展,特別是深度學(xué)習(xí)與自然語言處理領(lǐng)域的持續(xù)突破,大型預(yù)訓(xùn)練
    發(fā)表于 11-13 11:49

    開源鴻蒙技術(shù)大會(huì)2025丨以智能化為主旋律,擘畫開源鴻蒙下一個(gè)發(fā)展技術(shù)藍(lán)圖

    ,與來自學(xué)術(shù)界和產(chǎn)業(yè)界的專家們共同回顧開源鴻蒙五來走過的非凡歷程,發(fā)布開源鴻蒙6.0版本,并展望面向未來的智能終端操作系統(tǒng)關(guān)鍵技術(shù)創(chuàng)新方向,呼吁與會(huì)專家以智能化發(fā)展為主旋律,共同擘
    的頭像 發(fā)表于 11-10 18:13 ?1499次閱讀
    <b class='flag-5'>開源</b>鴻蒙技術(shù)大會(huì)2025丨以智能化為主旋律,擘畫<b class='flag-5'>開源</b>鴻蒙下一<b class='flag-5'>個(gè)</b>五<b class='flag-5'>年</b><b class='flag-5'>發(fā)</b>展技術(shù)藍(lán)圖

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    為助力打造實(shí)時(shí)、動(dòng)態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實(shí)現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1220次閱讀

    OpenAI發(fā)布2款開源模型

    OpenAI開源了兩款高性能權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss 發(fā)布了!我們做了一
    的頭像 發(fā)表于 08-06 14:25 ?1026次閱讀

    利用自壓縮實(shí)現(xiàn)大型語言模型高效縮減

    隨著語言模型規(guī)模日益龐大,設(shè)備端推理變得越來越緩慢且耗能巨大。一個(gè)直接且效果出人意料的解決方案是剪除那些對(duì)任務(wù)貢獻(xiàn)甚微的完整通道(channel)。我們?cè)缙诘难芯刻岢隽艘环N訓(xùn)練階段的方法——自壓
    的頭像 發(fā)表于 07-28 09:36 ?551次閱讀
    利用自壓縮實(shí)現(xiàn)<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>高效縮減

    面壁小鋼炮模型MiniCPM4.0發(fā)布,端側(cè)智能更進(jìn)一步

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)20256月6日,面壁智能CEO李大海在北京智源大會(huì)上發(fā)布有史以來最具想象力的面壁小鋼炮模型MiniCPM4.0,代號(hào)“前進(jìn)四”,開源
    的頭像 發(fā)表于 06-08 08:18 ?7127次閱讀
    面壁小鋼炮<b class='flag-5'>模型</b>MiniCPM4.0<b class='flag-5'>發(fā)布</b>,端側(cè)智能更進(jìn)一步

    重磅更新 | 先楫半導(dǎo)體HPM_APPS v1.9.0發(fā)布

    重磅更新 | 先楫半導(dǎo)體HPM_APPS v1.9.0發(fā)布
    的頭像 發(fā)表于 05-13 11:29 ?1779次閱讀
    重磅更新 | 先楫半導(dǎo)體HPM_APPS v1.9.0<b class='flag-5'>發(fā)布</b>

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然
    的頭像 發(fā)表于 04-30 18:34 ?1298次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    開源本身可以替代大型科技公司嗎?

    遷移。 在荷蘭,我們說蘋果和梨不能相提并論,但這并不完全正確。兩者都是所謂的手工水果,一個(gè)硬一點(diǎn),另一個(gè)軟一點(diǎn)。 但拿開源技術(shù)與大型技術(shù)相比,就好比拿烤箱與餐廳相比。
    的頭像 發(fā)表于 04-30 16:49 ?691次閱讀

    詳解 LLM 推理模型的現(xiàn)狀

    2025,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量?jī)?yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時(shí)間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討
    的頭像 發(fā)表于 04-03 12:09 ?1610次閱讀
    詳解 LLM 推理<b class='flag-5'>模型</b>的現(xiàn)狀

    無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫(kù)運(yùn)行 llama_chat Python* Demo 時(shí)遇到錯(cuò)誤。
    發(fā)表于 03-05 08:07