chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于Llama 2的一切資源,我們都幫你整理好了

深度學(xué)習(xí)自然語言處理 ? 來源:Hugging Face ? 2023-08-23 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Llama 2 是一個(gè)由 Meta 開發(fā)的大型語言模型,是 LLaMA 1 的繼任者。Llama 2 可通過 AWS、Hugging Face 獲取,并可以自由用于研究和商業(yè)用途。Llama 2 預(yù)訓(xùn)練模型在 2 萬億個(gè)標(biāo)記上進(jìn)行訓(xùn)練,相比 LLaMA 1 的上下文長度增加了一倍。它的微調(diào)模型則在超過 100 萬個(gè)人工標(biāo)注數(shù)據(jù)下完成。

這篇博客包含了所有的相關(guān)資源,以幫助您快速入門。

來自 Meta 官方的公告可以在這里找到:https://ai.meta.com/llama/

LLaMA 2 是什么?

Meta 發(fā)布的 Llama 2,是新的 SOTA 開源大型語言模型(LLM)。Llama 2 代表著 LLaMA 的下一代版本,可商用。Llama 2 有 3 種不同的大小 —— 7B、13B 和 70B 個(gè)可訓(xùn)練參數(shù)。與原版 LLaMA 相比,新的改進(jìn)包括:

  • 在 2 萬億個(gè)標(biāo)記的文本數(shù)據(jù)上進(jìn)行訓(xùn)練
  • 允許商業(yè)使用
  • 默認(rèn)使用 4096 個(gè)前后文本視野
  • 70B 模型采用了分組查詢注意力(GQA)
  • 可以在 Hugging Face Hub 上直接獲取https://hf.co/models?other=llama-2

即刻解鎖 Llama2

有幾個(gè)不同的游樂場供與 Llama 2 來測試:

HuggingChat

在我們推出的 HuggingChat 中使用 Llama 2 70B:https://hf.co/chat

Hugging Face Space 應(yīng)用

我們在 Space 應(yīng)用上提供了三個(gè)大小的 Llama 2 模型的體驗(yàn),分別是:

  • 7Bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat
  • 13Bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
  • 70Bhttps://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI

Perplexity

Perplexity 的對話 AI 演示提供 7B 和 13B 的 Llama 2 模型:https://llama.perplexity.ai/

Llama 2 背后的研究工作

Llama 2 是一個(gè)基礎(chǔ)大語言模型,它由網(wǎng)絡(luò)上公開可獲取到的數(shù)據(jù)訓(xùn)練完成。另外 Meta 同時(shí)發(fā)布了它的 Chat 版本。Chat 模型的第一個(gè)版本是 SFT(有監(jiān)督調(diào)優(yōu))模型。在這之后,LLaMA-2-chat 逐步地經(jīng)過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)來進(jìn)化。RLHF 的過程使用了拒絕采樣與近端策略優(yōu)化(PPO)的技術(shù)來進(jìn)一步調(diào)優(yōu)聊天機(jī)器人。Meta 目前僅公布了模型最新的 RLHF (v5) 版本。若你對此過程背后的過程感興趣則請查看:

  • Llama 2: 開源并已微調(diào)的聊天模型https://arxiv.org/abs/2307.09288
  • Llama 2: 一個(gè)超贊的開源大語言模型https://www.interconnects.ai/p/llama-2-from-meta
  • Llama 2 的全面拆解https://www.youtube.com/watch?v=zJBpRn2zTco

Llama 2 的性能有多好,基準(zhǔn)測試?

Meta 表示:

Llama 2 在眾多外部基準(zhǔn)測試中都優(yōu)于其他開源的語言模型,包括推理、編程、熟練程度與知識測驗(yàn)。

關(guān)于其性能你可以在這里找到更多信息:

  • Hugging Face 開源大語言模型排行榜https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
  • Meta 官方公告https://ai.meta.com/llama/

如何為 LLaMA 2 Chat 寫提示詞 (prompts)

Llama 2 Chat 是一個(gè)開源對話模型。想要與 Llama 2 Chat 進(jìn)行高效地交互則需要你提供合適的提示詞,以得到合乎邏輯且有幫助的回復(fù)。Meta 并沒有選擇最簡單的提示詞結(jié)構(gòu)。

以下是單輪、多輪對話的提示詞模板。提示詞模板遵循模型訓(xùn)練過程,你可以在這里查看到詳細(xì)描述:

  • Llama 2 論文https://hf.co/papers/2307.09288
  • Llama 2 提示詞模板https://gpus.llm-utils.org/llama-2-prompt-template/

單輪對話

[INST]<>
{{system_prompt}}
<>

{{user_message}}[/INST]

多輪對話

[INST]<>
{{system_prompt}}
<>

{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]

如何訓(xùn)練 LLaMA 2

因 LLaMA 2 為開源模型,使得可以輕易的通過微調(diào)技術(shù),比如 PEFT,來訓(xùn)練它。這是一些非日適合于訓(xùn)練你自己版本 LLaMA 2 的學(xué)習(xí)資源:

  • 擴(kuò)展指引:指令微調(diào) Llama 2https://www.philschmid.de/instruction-tune-llama-2
  • 在 Amazon SageMaker 上微調(diào) Llama 2 (7-70B)https://www.philschmid.de/sagemaker-llama2-qlora
  • 使用 PEFT 技術(shù)微調(diào)https://hf.co/blog/zh/llama2#fine-tuning-with-peft
  • Meta 提供的 Llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main
  • 在本地機(jī)器上微調(diào) LLAMA-v2 最簡單的方法!https://www.youtube.com/watch?v=3fsn19OI_C8

如何部署 Llama 2?

Llama 2 可以在本地環(huán)境部署,使用托管服務(wù)如 Hugging Face Inference Endpoints 或通過 AWS、Google Cloud、Microsoft Azure 等。

你可以查閱下述資源:

  • llama.cpphttps://github.com/ggerganov/llama.cpp
  • 使用文本生成接口與推理終端來部署 LLama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
  • 使用 Amazon SageMaker 部署 LLaMA 2 70Bhttps://www.philschmid.de/sagemaker-llama-llm
  • 在你的 M1/M2 Mac 上通過 GPU 接口來本地部署 Llama-2-13B-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38011

    瀏覽量

    295995
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4018

    瀏覽量

    45537
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11246

原文標(biāo)題:關(guān)于 Llama 2 的一切資源,我們都幫你整理好了

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地

    /llama-cli --version 第二步:獲取 14B 的 Q2_K 模型 由于官方文檔演示的是 0.6B 小模型,我們需要自己獲取 Qwen2.5-14B 的 Q2_K 版
    發(fā)表于 11-27 14:43

    從零開始了解智慧教室(二):智慧教室的類型與適用場景

    廣凌科技(廣凌股份)作為智慧教室領(lǐng)域的領(lǐng)軍企業(yè),其整體解決方案以“場景適配、數(shù)據(jù)驅(qū)動(dòng)、開放兼容”為核心理念,智慧教室的類型與適用場景整理好了,起來了解下吧~
    的頭像 發(fā)表于 11-26 18:05 ?88次閱讀
    從零開始了解智慧教室(二):智慧教室的類型與適用場景

    新手小白必看!關(guān)于A100云主機(jī)租用,你想知道的一切都在這!

    “我想租臺A100云主機(jī)來跑我的模型,但完全不知道從何下手?!薄@是我們聽到最多的來自AI新手的聲音。A100,這個(gè)聽起來就“高大上”的名詞,背后其實(shí)是套清晰、可操作的流程。今天,我們
    的頭像 發(fā)表于 10-31 19:24 ?1001次閱讀
    新手小白必看!<b class='flag-5'>關(guān)于</b>A100云主機(jī)租用,你想知道的<b class='flag-5'>一切</b>都在這!

    無功補(bǔ)償控制器投的時(shí)間奧秘:延時(shí)、震蕩、放電次講透!

    在無功補(bǔ)償控制器中,電容器投是其中重要的環(huán),它在定程度上決定了功率因數(shù)的大小以及你是否在被罰款,那么什么時(shí)候去做投,投的時(shí)間應(yīng)該如
    的頭像 發(fā)表于 10-31 11:15 ?143次閱讀
    無功補(bǔ)償控制器投<b class='flag-5'>切</b>的時(shí)間奧秘:延時(shí)、震蕩、放電<b class='flag-5'>一</b>次講透!

    什么是ARM架構(gòu)?你需要知道的一切

    從智能手機(jī)到工業(yè)邊緣計(jì)算機(jī),ARM?架構(gòu)為全球數(shù)十億臺設(shè)備提供動(dòng)力。ARM?以其效率優(yōu)先的設(shè)計(jì)和靈活的許可模式而聞名,已迅速從移動(dòng)處理器擴(kuò)展到人工智能邊緣計(jì)算、工業(yè)控制器,甚至數(shù)據(jù)中心。本文我們
    的頭像 發(fā)表于 09-11 14:48 ?738次閱讀
    什么是ARM架構(gòu)?你需要知道的<b class='flag-5'>一切</b>

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    , Gemma等開源大模型。當(dāng)然,些閉源的(類似chatgpt, gemini)是不支持部署的。如下圖: 在端側(cè)部署大模型,個(gè)人認(rèn)為最大的好處:是可以避免因文本或圖片上傳而造成的信息泄露,因?yàn)?b class='flag-5'>一切文本
    發(fā)表于 07-19 15:45

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    關(guān)于 樹莓派5 超頻:你需要知道的一切

    摘要樹莓派5可通過超頻提升性能,對于機(jī)器學(xué)習(xí)等處理器密集型任務(wù)尤為有用。超頻樹莓派5時(shí),需將其溫度控制在80°C以下。官方樹莓派5機(jī)箱配備散熱風(fēng)扇,主動(dòng)散熱配件則包含散熱片和風(fēng)扇,均有助于溫度控制。超頻樹莓派5需修改config.txt啟動(dòng)設(shè)置文件,調(diào)整CPU速度設(shè)置。但超頻可能縮短Pi5的使用壽命,并使保修失效,因此需謹(jǐn)慎操作。樹莓派5的速度比樹莓派4快兩
    的頭像 發(fā)表于 06-10 17:29 ?2342次閱讀
    <b class='flag-5'>關(guān)于</b> 樹莓派5 超頻:你需要知道的<b class='flag-5'>一切</b>!

    層層剝開開鴻Bot,我們看到的是“開發(fā)者優(yōu)先”

    對開源生態(tài)來說,社區(qū)先于代碼,開發(fā)者重于一切
    的頭像 發(fā)表于 05-27 09:23 ?2762次閱讀
    層層剝開開鴻Bot,<b class='flag-5'>我們</b>看到的是“開發(fā)者優(yōu)先”

    GC9A01-TFT屏幕驅(qū)動(dòng)(整理有stm32/51單片機(jī)/arduino等驅(qū)動(dòng)代碼)

    以及收集整理好的資料,希望可以幫助用戶更加簡單的學(xué)習(xí)或快速移植代碼進(jìn)行項(xiàng)目開發(fā)。本文將和大家探討下GC9A01圓型屏幕的驅(qū)動(dòng)
    的頭像 發(fā)表于 04-25 11:29 ?1275次閱讀
    GC9A01-TFT屏幕驅(qū)動(dòng)(<b class='flag-5'>整理</b>有stm32/51單片機(jī)/arduino等驅(qū)動(dòng)代碼)

    VIRTUALLAB FUSION應(yīng)用:光束趾建模

    器。通過比較,我們的結(jié)果與文獻(xiàn)實(shí)驗(yàn)結(jié)果完全致。 光束趾中圓鋸齒光闌 光束趾在高能激光器和光束傳輸系統(tǒng)的設(shè)計(jì)中起著關(guān)鍵作用。由于VirtualLab Fusion高度可定制的環(huán)境
    發(fā)表于 03-12 09:50

    電話配線架怎么整理好

    要使電話配線架整理得既美觀又實(shí)用,可以遵循以下步驟和建議: 、前期準(zhǔn)備 了解配線架結(jié)構(gòu): 熟悉電話配線架的類型、結(jié)構(gòu)和功能,確保整理過程中不會(huì)對設(shè)備造成損害。 斷開電源與通信: 在整理
    的頭像 發(fā)表于 02-19 11:34 ?916次閱讀

    K1 AI CPU基于llama.cpp與Ollama的大模型部署實(shí)踐

    為了應(yīng)對大模型(LLM)、AIGC等智能化浪潮的挑戰(zhàn),進(jìn)迭時(shí)空通過AI指令擴(kuò)展,在RISC-VCPU中注入了原生AI算力。這種具有原生AI能力的CPU,我們稱之為AICPU。K1作為進(jìn)迭時(shí)空第
    的頭像 發(fā)表于 02-18 14:23 ?1525次閱讀
    K1 AI CPU基于<b class='flag-5'>llama</b>.cpp與Ollama的大模型部署實(shí)踐

    CES 2025 “AI+一切”成為關(guān)鍵趨勢

    是中國的企業(yè)。尤其是AI技術(shù)在各個(gè)領(lǐng)域的全面應(yīng)用,讓我們大開眼界的同時(shí),有機(jī)會(huì)透過這些現(xiàn)代科技看見更美好的未來。 作為 AI 芯片領(lǐng)域的領(lǐng)軍者,英偉達(dá) CEO 黃仁勛重磅發(fā)布了新代 GeForce RTX 50 系?列顯卡。還首次發(fā)布了世界模型 Cosmos Nemot
    的頭像 發(fā)表于 01-15 10:32 ?893次閱讀

    Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

    ?在人工智能領(lǐng)域,Meta的最新動(dòng)作再次引起了全球的關(guān)注。今天,我們見證了Meta發(fā)布的 Llama 3.3 70B 模型,這是個(gè)開源的人工智能模型,它不僅令人印象深刻,而且在性能上達(dá)到了
    的頭像 發(fā)表于 12-18 16:46 ?873次閱讀
    Meta重磅發(fā)布<b class='flag-5'>Llama</b> 3.3 70B:開源AI模型的新里程碑