chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

重新審視Prompt優(yōu)化問題,預(yù)測偏差讓語言模型上下文學習更強

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 2023-04-03 14:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

LLMs 在 In-context Learning 下取得了良好的表現(xiàn),但是選取不同的示例會導致截然不同的表現(xiàn)。一項最新的研究工作從預(yù)測偏差 (predictive bias) 角度,提出了 prompt 搜索策略,近似找到了最優(yōu)的示例組合。

0d7c165a-d159-11ed-bfe3-dac502259ad0.png

研究介紹

大型語言模型在上下文學習中表現(xiàn)出了驚人的能力,這些模型可以通過幾個輸入輸出示例構(gòu)建的上下文進行學習,無需微調(diào)優(yōu)化直接應(yīng)用于許多下游任務(wù)。然而,先前的研究表明,由于訓練樣本 (training examples)、示例順序 (example order) 和提示格式 (prompt formats) 的變化,上下文學習可能會表現(xiàn)出高度的不穩(wěn)定性。因此,構(gòu)建適當?shù)?prompt 對于提高上下文學習的表現(xiàn)至關(guān)重要。

以前的研究通常從兩個方向研究這個問題:1)編碼空間中的提示調(diào)整 (prompt tuning);2)在原始空間中進行搜索 (prompt searching)。

Prompt tuning 的關(guān)鍵思想是將任務(wù)特定的 embedding 注入隱藏層,然后使用基于梯度的優(yōu)化來調(diào)整這些 embeddings。然而,這些方法需要修改模型的原始推理過程并且獲得模型梯度,這在像 GPT-3 和 ChatGPT 這樣的黑盒 LLM 服務(wù)中是不切實際的。此外,提示調(diào)整會引入額外的計算和存儲成本,這對于 LLM 通常是昂貴的。

更可行且高效的方法是通過在原始文本空間中搜索近似的演示樣本和順序來優(yōu)化提示。一些工作從 “Global view” 或 “Local view” 構(gòu)建提示。基于 Global view 的方法通常將提示的不同元素作為整體進行優(yōu)化,以達到更優(yōu)異的性能。例如,Diversity-guided [1] 的方法利用演示的整體多樣性的搜索,或者試圖優(yōu)化整個示例組合順序 [2],以實現(xiàn)更好的性能。與 Global view 相反,基于 Local view 的方法通過設(shè)計不同的啟發(fā)式選擇標準,例如 KATE [3]。

但這些方法都有各自的局限性:1)目前的大多數(shù)研究主要集中在沿著單個因素搜索提示,例如示例選擇或順序。然而各個因素對性能的總體影響尚不清楚;2)這些方法通?;趩l(fā)式標準,需要一個統(tǒng)一的視角來解釋這些方法是如何工作的;3)更重要的是,現(xiàn)有的方法會全局或局部地優(yōu)化提示,這可能會導致性能不理想。

本文從 “預(yù)測偏差” 的角度重新審視了 NLP 領(lǐng)域中的 prompt 優(yōu)化問題,發(fā)現(xiàn)了一個關(guān)鍵現(xiàn)象:一個給定的 prompt 的質(zhì)量取決于它的內(nèi)在偏差。基于這個現(xiàn)象,文章提出了一個基于預(yù)測偏差的替代標準來評估 prompt 的質(zhì)量,該度量方法能夠在不需要額外開發(fā)集 (development set) 的情況下通過單個前向過程來評估 prompt。

具體來說,通過在一個給定的 prompt 下輸入一個 “無內(nèi)容” 的測試,期望模型輸出一個均勻的預(yù)測分布(一個 “無內(nèi)容” 的輸入不包含任何有用的信息)。因此,文中利用預(yù)測分布的均勻性來表示給定 prompt 的預(yù)測偏差。

這與先前的后校準方法 [4] 用的指標類似,但與后校準在固定的 prompt 情況下使用這個 metric 進行概率后校準不同的是,文中進一步探索了其在自動搜索近似 prompt 中的應(yīng)用。并通過大量實驗證實了一個給定 prompt 的內(nèi)在偏差和它在給定測試集上的平均任務(wù)表現(xiàn)之間的相關(guān)性。

0da50272-d159-11ed-bfe3-dac502259ad0.png

此外,這種基于偏差的度量使該方法能夠以 “局部到全局” 的方式搜索合適的 prompt。然而,一個現(xiàn)實的問題是無法通過遍歷所有組合的方式搜索最優(yōu)解,因為它的復(fù)雜度將超過 O (N?。?。

該工作提出了兩種新穎的策略以高效的方式搜索高質(zhì)量的 prompt:(1) T-fair-Prompting (2) G-fair-Prompting。T-fair-Prompting 使用一種直觀的方式,首先計算每個示例單獨組成 prompt 的偏差,然后選擇 Top-k 個最公平示例組合成最終 prompt。

這個策略相當高效,復(fù)雜度為 O (N)。但需要注意的是,T-fair-Prompting 基于這樣的假設(shè):最優(yōu)的 prompt 通常是由偏差最小的示例構(gòu)建的。然而,這在實際情況下可能并不成立,并且往往會導致局部最優(yōu)解。

因此,文章中進一步介紹了 G-fair-Prompting 來改善搜索質(zhì)量。G-fair-Prompting 遵循貪心搜索的常規(guī)過程,通過在每個步驟上進行局部最優(yōu)選擇來找到最優(yōu)解。在算法的每一步,所選擇的示例都能使更新的 prompt 獲得最佳的公平性,最壞情況時間復(fù)雜度為 O (N^2),搜索質(zhì)量顯著提高。G-fair-Prompting 從局部到全局的角度進行工作,其中在早期階段考慮單個樣本的偏差,而在后期階段則側(cè)重于減少全局預(yù)測偏差。

實驗結(jié)果

該研究提出了一種有效和可解釋的方法來提高語言模型的上下文學習性能,這種方法可以應(yīng)用于各種下游任務(wù)。文章驗證了這兩種策略在各種 LLMs(包括 GPT 系列模型和最近發(fā)布的 LMaMA 系列)上的有效性,G-fair-Prompting 與 SOTA 方法相比,在不同的下游任務(wù)上獲得了超過 10%的相對改進。

0df4d8f6-d159-11ed-bfe3-dac502259ad0.png

與該研究最相近的是 Calibration-before-use [4] 方法,兩者都使用 “無內(nèi)容” 的輸入提高模型的表現(xiàn)。但是,Calibration-before-use 方法旨在使用該標準來校準輸出,而該輸出仍然容易受到所使用示例的質(zhì)量的影響。與之相比,本文旨在搜索原始空間找到近似最優(yōu)的 prompt,以提高模型的性能,而不需要對模型輸出進行任何后處理。此外,該文首次通過大量實驗驗證了預(yù)測偏差與最終任務(wù)性能之間的聯(lián)系,這在 Calibration-before-use 方法中尚未研究。

0e39a0a8-d159-11ed-bfe3-dac502259ad0.png

通過實驗還能發(fā)現(xiàn),即使不進行校準,該文章所提方法選擇的 prompt 也可以優(yōu)于經(jīng)過校準的隨機選擇的 prompt。這表明該方法可以在實際應(yīng)用中具有實用性和有效性,可以為未來的自然語言處理研究提供啟示。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11255

原文標題:重新審視Prompt優(yōu)化問題,預(yù)測偏差讓語言模型上下文學習更強

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    為什么transformer性能這么好?Transformer的上下文學習能力是哪來的?

    為什么 transformer 性能這么好?它給眾多大語言模型帶來的上下文學習 (In-Context Learning) 能力是從何而來?在人工智能領(lǐng)域里,transformer 已成為深度
    的頭像 發(fā)表于 09-25 12:05 ?2084次閱讀
    為什么transformer性能這么好?Transformer的<b class='flag-5'>上下文學習</b>能力是哪來的?

    關(guān)于進程上下文、中斷上下文及原子上下文的一些概念理解

    。而中斷信號的發(fā)生是隨機的,中斷處理程序及軟中斷并不能事先預(yù)測發(fā)生中斷時當前運行的是哪個進程,所以在中斷上下文中引用current是可以的,但沒有意義。 事實上,對于A進程希望等待的中斷信號,可能在B
    發(fā)表于 09-06 09:58

    進程上下文與中斷上下文的理解

    來源 網(wǎng)絡(luò)一.什么是內(nèi)核態(tài)和用戶態(tài)內(nèi)核態(tài):在內(nèi)核空間執(zhí)行,通常是驅(qū)動程序,中斷相關(guān)程序,內(nèi)核調(diào)度程序,內(nèi)存管理及其操作程序。用戶態(tài):用戶程序運行空間。 二.什么是進程上下文與中斷上下文1.進程上下文
    發(fā)表于 12-11 19:45

    進程上下文/中斷上下文及原子上下文的概念

    為什么會有上下文這種概念進程上下文/中斷上下文及原子上下文的概念
    發(fā)表于 01-13 07:17

    基于多Agent的用戶上下文自適應(yīng)站點構(gòu)架

    自適應(yīng)站點很少考慮對用戶環(huán)境的自適應(yīng)。為此,提出用戶上下文自適應(yīng)站點的概念,給出基于多Agent技術(shù)的用戶上下文自適應(yīng)站點構(gòu)架模型。闡述用戶上下文獲取、挖掘過程以及站
    發(fā)表于 04-11 08:49 ?13次下載

    基于交互上下文預(yù)測方法

    傳統(tǒng)的上下文預(yù)測是在單用戶的上下文基礎(chǔ)上進行的,忽視了實際普適計算環(huán)境中由于用戶交互活動導致的上下文變化因素。為了合理、有效地解決上述局限性問題,該文提出基
    發(fā)表于 10-04 14:08 ?7次下載

    終端業(yè)務(wù)上下文的定義方法及業(yè)務(wù)模型

    該文針對業(yè)務(wù)上下文僅關(guān)注業(yè)務(wù)質(zhì)量較少考慮用戶終端環(huán)境的現(xiàn)狀,提出終端業(yè)務(wù)上下文的概念,為普適業(yè)務(wù)的開展提供必要的信息支撐。給出一種終端業(yè)務(wù)上下文的通用定義方法
    發(fā)表于 03-06 11:06 ?11次下載

    基于Pocket PC的上下文菜單實現(xiàn)

    介紹了基于 Pocket PC 中的點按操作概念, 論述了在Pocket PC 中上下文菜單的實現(xiàn)原理及方法, 并給出了基于MFC 下的Windows CE 應(yīng)用程序?qū)崿F(xiàn)上下文菜單的步驟和代碼實例。
    發(fā)表于 07-25 18:26 ?17次下載

    基于上下文相似度的分解推薦算法

    模型,再對目標用戶的K個鄰居用戶建立移動用戶一上下文一移動服務(wù)三維張量分解模型,獲得目標用戶的移動服務(wù)預(yù)測值,生成移動推薦。實驗結(jié)果顯示,與余弦相似性方法、Pearson相關(guān)系數(shù)方法和
    發(fā)表于 11-27 17:42 ?0次下載

    Web服務(wù)的上下文的訪問控制策略模型

    的訪問控制策略模型模型的核心思想是將各種與訪問控制有關(guān)的信息統(tǒng)一抽象表示為一個上下文概念,以上下文為中心來制定和執(zhí)行訪問控制策略,上下文
    發(fā)表于 01-05 16:32 ?0次下載

    初學OpenGL:什么是繪制上下文

    初學OpenGL,打開紅寶書,會告訴你OpenGL是個狀態(tài)機,OpenGL采用了客戶端-服務(wù)器模式,那時覺得好抽象,直到后來了解了繪制上下文才把這些聯(lián)系起來。我們可以認為每一個硬件GPU是個服務(wù)器
    發(fā)表于 04-28 11:47 ?2766次閱讀

    如何分析Linux CPU上下文切換問題

    在我的上一篇文章:《探討 Linux CPU 的上下文切換》中,我談到了 CPU 上下文切換的工作原理??焖倩仡櫼幌?,CPU 上下文切換是保證 Linux 系統(tǒng)正常運行的核心功能??煞譃檫M程
    的頭像 發(fā)表于 05-05 20:11 ?2624次閱讀

    谷歌新作SPAE:GPT等大語言模型可以通過上下文學習解決視覺任務(wù)

    這篇論文揭示了 PaLM 或 GPT 在通過上下文學習解決視覺任務(wù)方面的能力,并提出了新方法 SPAE(Semantic Pyramid AutoEncoder)。這種新方法使得 LLM 能夠執(zhí)行圖像生成任務(wù),而無需進行任何參數(shù)更新。這也是使用上下文學習使得 LLM 生成
    的頭像 發(fā)表于 07-09 15:35 ?1806次閱讀
    谷歌新作SPAE:GPT等大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>可以通過<b class='flag-5'>上下文學習</b>解決視覺任務(wù)

    首篇!Point-In-Context:探索用于3D點云理解的上下文學習

    隨著基于廣泛數(shù)據(jù)訓練的大模型興起,上下文學習(In-Context Learning)已成為一種新的學習范式,在自然語言處理(NLP)和計算機視覺(CV)任務(wù)中表現(xiàn)出了巨大的潛力。
    的頭像 發(fā)表于 07-13 14:41 ?1555次閱讀
    首篇!Point-In-Context:探索用于3D點云理解的<b class='flag-5'>上下文學習</b>

    語言模型如何處理上下文窗口中的輸入

    本博客介紹了五個基本概念,闡述了大語言模型如何處理上下文窗口中的輸入。通過明確的例子和實踐中獲得的見解,本文介紹了多個與上下文窗口有關(guān)的基本概念,如詞元化、序列長度和注意力等。
    的頭像 發(fā)表于 12-03 13:48 ?186次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>如何處理<b class='flag-5'>上下文</b>窗口中的輸入