chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

優(yōu)于10倍參數(shù)模型!微軟發(fā)布Orca 2 LLM

jf_WZTOguxH ? 來(lái)源:AI前線 ? 2023-12-26 14:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

微軟發(fā)布 Orca 2 LLM,這是 Llama 2 的一個(gè)調(diào)優(yōu)版本,性能與包含 10 倍參數(shù)的模型相當(dāng),甚至更好。Orca 2 使用了一個(gè)合成訓(xùn)練數(shù)據(jù)集和一項(xiàng)稱為 Prompt Erasure(提示詞擦除) 的新技術(shù)來(lái)實(shí)現(xiàn)這一性能。

Orca 2 使用了師生模式的訓(xùn)練方案,其中一個(gè)較大、較強(qiáng)的 LLM 作為另一個(gè)較小的 LLM(學(xué)生)的老師,老師的目標(biāo)是提升學(xué)生的性能,使其與更大模型的性能相媲美。微軟的訓(xùn)練技術(shù)教會(huì)較小的模型多種推理技巧,并教其如何為特定任務(wù)選擇最有效的技巧。

為此,老師被賦予了復(fù)雜的提示詞來(lái)觸發(fā)某種推理行為。不過(guò),在一種被稱為 Prompt Erasure 的方案中,學(xué)生只得到任務(wù)要求和期望的響應(yīng),而不是老師的提示詞。在基準(zhǔn)測(cè)試中,一個(gè)擁有 13B 參數(shù)的 Orca 2 模型的表現(xiàn)超過(guò)了一個(gè) 13B 參數(shù)的基準(zhǔn) Llama 2 模型,提升了 47.54%。而一個(gè)擁有 7B 參數(shù)的 Orca 2 模型在推理任務(wù)方面與一個(gè)擁有 70B 參數(shù)的 Llama 2 模型相當(dāng),甚至更好。

盡管像 ChatGPT 這樣的 LLM 在給定少量提示詞的情況下通常表現(xiàn)良好,但由于其內(nèi)存和計(jì)算需求較大,托管這些模型極具有挑戰(zhàn)性。經(jīng)過(guò)調(diào)優(yōu)的較小的模型也可以表現(xiàn)良好,許多研究人員已經(jīng)在研究使用較大 LLM 生成的合成數(shù)據(jù)集對(duì)它們進(jìn)行訓(xùn)練。

InfoQ 最近報(bào)道了谷歌的 Distilling Step-by-Step 方法,該方法會(huì)讓老師 LLM 自動(dòng)生成一個(gè)小型的調(diào)優(yōu)數(shù)據(jù)集,其中包含輸入和輸出標(biāo)簽,以及為何選擇輸出標(biāo)簽的“基本原理”。InfoQ 還報(bào)道了 Stability AI 的 Stable Beluga 模型,它使用微軟原始的 Orca 1 方案進(jìn)行訓(xùn)練,該方案使用了 Explanation Tuning,其中老師 LLM 被提示“生成詳細(xì)答案”。

與 Orca 1 類(lèi)似,Orca 2 訓(xùn)練數(shù)據(jù)集是由老師 LLM 生成的,而老師 LLM 收到了詳細(xì)的提示詞。然而,微軟新的訓(xùn)練方法 Cautious Reasoning 將訓(xùn)練任務(wù)與提示詞相結(jié)合,引導(dǎo)老師 LLM 使用特定的問(wèn)題解決策略,如“一步一步”或“解釋你的答案”。然后在學(xué)生的訓(xùn)練過(guò)程中,老師的提示詞被刪除,這促使學(xué)生學(xué)會(huì)選擇正確的策略。

為了評(píng)估這種方法,微軟將 Orca 2 模型的性能與幾個(gè)基準(zhǔn)模型進(jìn)行了比較,包括 Llama 2、ChatGPT(GPT-3.5)和 GPT-4?;鶞?zhǔn)任務(wù)包括推理、語(yǔ)言理解、文本完成和摘要。在推理基準(zhǔn)測(cè)試中,13B 參數(shù) Orca 2 模型優(yōu)于除 ChatGPT 和 GPT-4 之外的所有基準(zhǔn)。他們還發(fā)現(xiàn),給 Orca 2 一個(gè)“謹(jǐn)慎”的系統(tǒng)提示詞(“你是一個(gè)謹(jǐn)慎的助手,你會(huì)仔細(xì)遵循指示”)相比無(wú)系統(tǒng)提示會(huì)略微提升其性能。

有幾位用戶在 X 上發(fā)表了關(guān)于 Orca 2 的帖子。一位用戶指出:“你不需要用‘一步一步解釋’這樣的技巧來(lái)提示它。它自己知道?!?AI 研究員 Rudi Ranck 寫(xiě)道:

許多絕妙的想法都很簡(jiǎn)單……就像 Orca 2 中的“提示詞擦除”一樣:完整的提示詞不會(huì)呈現(xiàn)給模型,而只呈現(xiàn)任務(wù)和答案(它過(guò)濾了生成這些答案所使用的完整提示詞)。這有助于模型在更高層次上制定策略。這是一篇非常好的論文。我強(qiáng)烈建議通讀全文。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1595

    瀏覽量

    9869
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    339

    瀏覽量

    1179

原文標(biāo)題:微軟發(fā)布 Orca 2 LLM,表現(xiàn)優(yōu)于 10 倍參數(shù)模型

文章出處:【微信號(hào):AI前線,微信公眾號(hào):AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    廣和通發(fā)布端側(cè)情感對(duì)話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對(duì)話大模型FiboEmo-LLM。該模型專(zhuān)注于情感計(jì)算與自然語(yǔ)言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場(chǎng)景提供“情感理解-情感響應(yīng)”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1434次閱讀

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    2參數(shù)模型的增量訓(xùn)練; 接入語(yǔ)音能力:在main.cpp中集成 VAD(語(yǔ)音活動(dòng)檢測(cè))+ ASR(語(yǔ)音識(shí)別,如 Whisper-Tiny INT8)模塊,將語(yǔ)音轉(zhuǎn)換為文本后接入現(xiàn)有推理流水線,實(shí)現(xiàn)
    發(fā)表于 09-05 17:25

    3萬(wàn)字長(zhǎng)文!深度解析大語(yǔ)言模型LLM原理

    繼續(xù)追本溯源,與騰訊學(xué)堂合作撰寫(xiě)本文,嘗試讓人人都能懂大語(yǔ)言模型的基礎(chǔ)原理。1、大語(yǔ)言模型簡(jiǎn)述截止到2025年“大模型”一般泛指“超大參數(shù)模型”,
    的頭像 發(fā)表于 09-02 13:34 ?2541次閱讀
    3萬(wàn)字長(zhǎng)文!深度解析大語(yǔ)言<b class='flag-5'>模型</b><b class='flag-5'>LLM</b>原理

    基于米爾瑞芯微RK3576開(kāi)發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評(píng)測(cè)

    ),確保隱私數(shù)據(jù)不出設(shè)備。 離線場(chǎng)景:Jetson Orin 等邊緣設(shè)備可本地運(yùn)行 3B 參數(shù)模型,無(wú)需聯(lián)網(wǎng)即可完成任務(wù)。 綜上,端側(cè) SLM 在延遲、隱私和離線可用性上均顯著優(yōu)于云端 LLM。瑞芯微
    發(fā)表于 08-29 18:08

    ?Groq LPU 如何讓萬(wàn)億參數(shù)模型「飛」起來(lái)?揭秘 Kimi K2 40 提速背后的黑科技

    Groq LPU 如何讓萬(wàn)億參數(shù)模型「飛」起來(lái)?揭秘 Kimi K2 40 提速背后的黑科技? 最近,Moonshot AI 的千億參數(shù)模型
    的頭像 發(fā)表于 08-07 10:01 ?545次閱讀

    請(qǐng)問(wèn)InDTU IHDMP協(xié)議使用的CRC校驗(yàn)使用的什么參數(shù)模型?

    InDTU IHDMP協(xié)議使用的CRC校驗(yàn)使用的什么參數(shù)模型?
    發(fā)表于 08-06 07:57

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語(yǔ)言模型

    在當(dāng)今人工智能領(lǐng)域,大型語(yǔ)言模型LLM)的開(kāi)發(fā)已經(jīng)成為一個(gè)熱門(mén)話題。這些模型通過(guò)學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語(yǔ)言文本,完成各種復(fù)雜的任務(wù),如寫(xiě)作、翻譯、問(wèn)答等。https
    的頭像 發(fā)表于 04-30 18:34 ?911次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) <b class='flag-5'>LLM</b>語(yǔ)言<b class='flag-5'>模型</b>

    詳解 LLM 推理模型的現(xiàn)狀

    領(lǐng)域的最新研究進(jìn)展,特別是自DeepSeekR1發(fā)布后興起的推理時(shí)間計(jì)算擴(kuò)展相關(guān)內(nèi)容。在LLM中實(shí)施和改進(jìn)推理簡(jiǎn)單來(lái)說(shuō),基于LLM的推理模型是一種旨在通過(guò)生成中間
    的頭像 發(fā)表于 04-03 12:09 ?958次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現(xiàn)狀

    無(wú)法在OVMS上運(yùn)行來(lái)自Meta的大型語(yǔ)言模型LLM),為什么?

    無(wú)法在 OVMS 上運(yùn)行來(lái)自 Meta 的大型語(yǔ)言模型LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫(kù)運(yùn)行 llama_chat Python* Demo 時(shí)遇到錯(cuò)誤。
    發(fā)表于 03-05 08:07

    字節(jié)跳動(dòng)發(fā)布豆包大模型1.5 Pro

    3.5 Sonnet等模型。 該模型采用大規(guī)模稀疏MoE架構(gòu),使用較小的激活參數(shù)進(jìn)行預(yù)訓(xùn)練,卻能等效7激活參數(shù)的Dense
    的頭像 發(fā)表于 01-23 10:24 ?960次閱讀

    小白學(xué)大模型:構(gòu)建LLM的關(guān)鍵步驟

    隨著大規(guī)模語(yǔ)言模型LLM)在性能、成本和應(yīng)用前景上的快速發(fā)展,越來(lái)越多的團(tuán)隊(duì)開(kāi)始探索如何自主訓(xùn)練LLM模型。然而,是否從零開(kāi)始訓(xùn)練一個(gè)LLM
    的頭像 發(fā)表于 01-09 12:12 ?1439次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:構(gòu)建<b class='flag-5'>LLM</b>的關(guān)鍵步驟

    什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域迎來(lái)了革命性的進(jìn)步。其中,大型語(yǔ)言模型LLM)的出現(xiàn),標(biāo)志著我們對(duì)語(yǔ)言理解能力的一次飛躍。LLM通過(guò)深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?4250次閱讀

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語(yǔ)言模型LLM)是一個(gè)復(fù)雜且資源密集的過(guò)程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專(zhuān)業(yè)知識(shí)。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的
    的頭像 發(fā)表于 11-08 09:30 ?1880次閱讀

    新品|LLM Module,離線大語(yǔ)言模型模塊

    LLM,全稱大語(yǔ)言模型(LargeLanguageModel)。是一種基于深度學(xué)習(xí)的人工智能模型。它通過(guò)大量文本數(shù)據(jù)進(jìn)行訓(xùn)練,從而能夠進(jìn)行對(duì)話、回答問(wèn)題、撰寫(xiě)文本等其他任務(wù)
    的頭像 發(fā)表于 11-02 08:08 ?1366次閱讀
    新品|<b class='flag-5'>LLM</b> Module,離線大語(yǔ)言<b class='flag-5'>模型</b>模塊

    理解LLM中的模型量化

    在本文中,我們將探討一種廣泛采用的技術(shù),用于減小大型語(yǔ)言模型LLM)的大小和計(jì)算需求,以便將這些模型部署到邊緣設(shè)備上。這項(xiàng)技術(shù)稱為模型量化。它使得人工智能
    的頭像 發(fā)表于 10-25 11:26 ?978次閱讀
    理解<b class='flag-5'>LLM</b>中的<b class='flag-5'>模型</b>量化