chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

重新審視Prompt優(yōu)化問題,預(yù)測偏差讓語言模型上下文學(xué)習(xí)更強(qiáng)

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 2023-04-03 14:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

LLMs 在 In-context Learning 下取得了良好的表現(xiàn),但是選取不同的示例會(huì)導(dǎo)致截然不同的表現(xiàn)。一項(xiàng)最新的研究工作從預(yù)測偏差 (predictive bias) 角度,提出了 prompt 搜索策略,近似找到了最優(yōu)的示例組合。

0d7c165a-d159-11ed-bfe3-dac502259ad0.png

研究介紹

大型語言模型在上下文學(xué)習(xí)中表現(xiàn)出了驚人的能力,這些模型可以通過幾個(gè)輸入輸出示例構(gòu)建的上下文進(jìn)行學(xué)習(xí),無需微調(diào)優(yōu)化直接應(yīng)用于許多下游任務(wù)。然而,先前的研究表明,由于訓(xùn)練樣本 (training examples)、示例順序 (example order) 和提示格式 (prompt formats) 的變化,上下文學(xué)習(xí)可能會(huì)表現(xiàn)出高度的不穩(wěn)定性。因此,構(gòu)建適當(dāng)?shù)?prompt 對(duì)于提高上下文學(xué)習(xí)的表現(xiàn)至關(guān)重要。

以前的研究通常從兩個(gè)方向研究這個(gè)問題:1)編碼空間中的提示調(diào)整 (prompt tuning);2)在原始空間中進(jìn)行搜索 (prompt searching)。

Prompt tuning 的關(guān)鍵思想是將任務(wù)特定的 embedding 注入隱藏層,然后使用基于梯度的優(yōu)化來調(diào)整這些 embeddings。然而,這些方法需要修改模型的原始推理過程并且獲得模型梯度,這在像 GPT-3 和 ChatGPT 這樣的黑盒 LLM 服務(wù)中是不切實(shí)際的。此外,提示調(diào)整會(huì)引入額外的計(jì)算和存儲(chǔ)成本,這對(duì)于 LLM 通常是昂貴的。

更可行且高效的方法是通過在原始文本空間中搜索近似的演示樣本和順序來優(yōu)化提示。一些工作從 “Global view” 或 “Local view” 構(gòu)建提示?;?Global view 的方法通常將提示的不同元素作為整體進(jìn)行優(yōu)化,以達(dá)到更優(yōu)異的性能。例如,Diversity-guided [1] 的方法利用演示的整體多樣性的搜索,或者試圖優(yōu)化整個(gè)示例組合順序 [2],以實(shí)現(xiàn)更好的性能。與 Global view 相反,基于 Local view 的方法通過設(shè)計(jì)不同的啟發(fā)式選擇標(biāo)準(zhǔn),例如 KATE [3]。

但這些方法都有各自的局限性:1)目前的大多數(shù)研究主要集中在沿著單個(gè)因素搜索提示,例如示例選擇或順序。然而各個(gè)因素對(duì)性能的總體影響尚不清楚;2)這些方法通?;趩l(fā)式標(biāo)準(zhǔn),需要一個(gè)統(tǒng)一的視角來解釋這些方法是如何工作的;3)更重要的是,現(xiàn)有的方法會(huì)全局或局部地優(yōu)化提示,這可能會(huì)導(dǎo)致性能不理想。

本文從 “預(yù)測偏差” 的角度重新審視了 NLP 領(lǐng)域中的 prompt 優(yōu)化問題,發(fā)現(xiàn)了一個(gè)關(guān)鍵現(xiàn)象:一個(gè)給定的 prompt 的質(zhì)量取決于它的內(nèi)在偏差?;谶@個(gè)現(xiàn)象,文章提出了一個(gè)基于預(yù)測偏差的替代標(biāo)準(zhǔn)來評(píng)估 prompt 的質(zhì)量,該度量方法能夠在不需要額外開發(fā)集 (development set) 的情況下通過單個(gè)前向過程來評(píng)估 prompt。

具體來說,通過在一個(gè)給定的 prompt 下輸入一個(gè) “無內(nèi)容” 的測試,期望模型輸出一個(gè)均勻的預(yù)測分布(一個(gè) “無內(nèi)容” 的輸入不包含任何有用的信息)。因此,文中利用預(yù)測分布的均勻性來表示給定 prompt 的預(yù)測偏差。

這與先前的后校準(zhǔn)方法 [4] 用的指標(biāo)類似,但與后校準(zhǔn)在固定的 prompt 情況下使用這個(gè) metric 進(jìn)行概率后校準(zhǔn)不同的是,文中進(jìn)一步探索了其在自動(dòng)搜索近似 prompt 中的應(yīng)用。并通過大量實(shí)驗(yàn)證實(shí)了一個(gè)給定 prompt 的內(nèi)在偏差和它在給定測試集上的平均任務(wù)表現(xiàn)之間的相關(guān)性。

0da50272-d159-11ed-bfe3-dac502259ad0.png

此外,這種基于偏差的度量使該方法能夠以 “局部到全局” 的方式搜索合適的 prompt。然而,一個(gè)現(xiàn)實(shí)的問題是無法通過遍歷所有組合的方式搜索最優(yōu)解,因?yàn)樗膹?fù)雜度將超過 O (N!)。

該工作提出了兩種新穎的策略以高效的方式搜索高質(zhì)量的 prompt:(1) T-fair-Prompting (2) G-fair-Prompting。T-fair-Prompting 使用一種直觀的方式,首先計(jì)算每個(gè)示例單獨(dú)組成 prompt 的偏差,然后選擇 Top-k 個(gè)最公平示例組合成最終 prompt。

這個(gè)策略相當(dāng)高效,復(fù)雜度為 O (N)。但需要注意的是,T-fair-Prompting 基于這樣的假設(shè):最優(yōu)的 prompt 通常是由偏差最小的示例構(gòu)建的。然而,這在實(shí)際情況下可能并不成立,并且往往會(huì)導(dǎo)致局部最優(yōu)解。

因此,文章中進(jìn)一步介紹了 G-fair-Prompting 來改善搜索質(zhì)量。G-fair-Prompting 遵循貪心搜索的常規(guī)過程,通過在每個(gè)步驟上進(jìn)行局部最優(yōu)選擇來找到最優(yōu)解。在算法的每一步,所選擇的示例都能使更新的 prompt 獲得最佳的公平性,最壞情況時(shí)間復(fù)雜度為 O (N^2),搜索質(zhì)量顯著提高。G-fair-Prompting 從局部到全局的角度進(jìn)行工作,其中在早期階段考慮單個(gè)樣本的偏差,而在后期階段則側(cè)重于減少全局預(yù)測偏差。

實(shí)驗(yàn)結(jié)果

該研究提出了一種有效和可解釋的方法來提高語言模型的上下文學(xué)習(xí)性能,這種方法可以應(yīng)用于各種下游任務(wù)。文章驗(yàn)證了這兩種策略在各種 LLMs(包括 GPT 系列模型和最近發(fā)布的 LMaMA 系列)上的有效性,G-fair-Prompting 與 SOTA 方法相比,在不同的下游任務(wù)上獲得了超過 10%的相對(duì)改進(jìn)。

0df4d8f6-d159-11ed-bfe3-dac502259ad0.png

與該研究最相近的是 Calibration-before-use [4] 方法,兩者都使用 “無內(nèi)容” 的輸入提高模型的表現(xiàn)。但是,Calibration-before-use 方法旨在使用該標(biāo)準(zhǔn)來校準(zhǔn)輸出,而該輸出仍然容易受到所使用示例的質(zhì)量的影響。與之相比,本文旨在搜索原始空間找到近似最優(yōu)的 prompt,以提高模型的性能,而不需要對(duì)模型輸出進(jìn)行任何后處理。此外,該文首次通過大量實(shí)驗(yàn)驗(yàn)證了預(yù)測偏差與最終任務(wù)性能之間的聯(lián)系,這在 Calibration-before-use 方法中尚未研究。

0e39a0a8-d159-11ed-bfe3-dac502259ad0.png

通過實(shí)驗(yàn)還能發(fā)現(xiàn),即使不進(jìn)行校準(zhǔn),該文章所提方法選擇的 prompt 也可以優(yōu)于經(jīng)過校準(zhǔn)的隨機(jī)選擇的 prompt。這表明該方法可以在實(shí)際應(yīng)用中具有實(shí)用性和有效性,可以為未來的自然語言處理研究提供啟示。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10797

原文標(biāo)題:重新審視Prompt優(yōu)化問題,預(yù)測偏差讓語言模型上下文學(xué)習(xí)更強(qiáng)

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    為什么transformer性能這么好?Transformer的上下文學(xué)習(xí)能力是哪來的?

    為什么 transformer 性能這么好?它給眾多大語言模型帶來的上下文學(xué)習(xí) (In-Context Learning) 能力是從何而來?在人工智能領(lǐng)域里,transformer 已成為深度
    的頭像 發(fā)表于 09-25 12:05 ?1667次閱讀
    為什么transformer性能這么好?Transformer的<b class='flag-5'>上下文學(xué)習(xí)</b>能力是哪來的?

    關(guān)于進(jìn)程上下文、中斷上下文及原子上下文的一些概念理解

    。而中斷信號(hào)的發(fā)生是隨機(jī)的,中斷處理程序及軟中斷并不能事先預(yù)測發(fā)生中斷時(shí)當(dāng)前運(yùn)行的是哪個(gè)進(jìn)程,所以在中斷上下文中引用current是可以的,但沒有意義。 事實(shí)上,對(duì)于A進(jìn)程希望等待的中斷信號(hào),可能在B
    發(fā)表于 09-06 09:58

    進(jìn)程上下文與中斷上下文的理解

    來源 網(wǎng)絡(luò)一.什么是內(nèi)核態(tài)和用戶態(tài)內(nèi)核態(tài):在內(nèi)核空間執(zhí)行,通常是驅(qū)動(dòng)程序,中斷相關(guān)程序,內(nèi)核調(diào)度程序,內(nèi)存管理及其操作程序。用戶態(tài):用戶程序運(yùn)行空間。 二.什么是進(jìn)程上下文與中斷上下文1.進(jìn)程上下文
    發(fā)表于 12-11 19:45

    進(jìn)程上下文/中斷上下文及原子上下文的概念

    為什么會(huì)有上下文這種概念進(jìn)程上下文/中斷上下文及原子上下文的概念
    發(fā)表于 01-13 07:17

    基于多Agent的用戶上下文自適應(yīng)站點(diǎn)構(gòu)架

    自適應(yīng)站點(diǎn)很少考慮對(duì)用戶環(huán)境的自適應(yīng)。為此,提出用戶上下文自適應(yīng)站點(diǎn)的概念,給出基于多Agent技術(shù)的用戶上下文自適應(yīng)站點(diǎn)構(gòu)架模型。闡述用戶上下文獲取、挖掘過程以及站
    發(fā)表于 04-11 08:49 ?13次下載

    基于交互上下文預(yù)測方法

    傳統(tǒng)的上下文預(yù)測是在單用戶的上下文基礎(chǔ)上進(jìn)行的,忽視了實(shí)際普適計(jì)算環(huán)境中由于用戶交互活動(dòng)導(dǎo)致的上下文變化因素。為了合理、有效地解決上述局限性問題,該文提出基
    發(fā)表于 10-04 14:08 ?7次下載

    終端業(yè)務(wù)上下文的定義方法及業(yè)務(wù)模型

    該文針對(duì)業(yè)務(wù)上下文僅關(guān)注業(yè)務(wù)質(zhì)量較少考慮用戶終端環(huán)境的現(xiàn)狀,提出終端業(yè)務(wù)上下文的概念,為普適業(yè)務(wù)的開展提供必要的信息支撐。給出一種終端業(yè)務(wù)上下文的通用定義方法
    發(fā)表于 03-06 11:06 ?11次下載

    基于Pocket PC的上下文菜單實(shí)現(xiàn)

    介紹了基于 Pocket PC 中的點(diǎn)按操作概念, 論述了在Pocket PC 中上下文菜單的實(shí)現(xiàn)原理及方法, 并給出了基于MFC 下的Windows CE 應(yīng)用程序?qū)崿F(xiàn)上下文菜單的步驟和代碼實(shí)例。
    發(fā)表于 07-25 18:26 ?17次下載

    基于Pocket PC的上下文菜單實(shí)現(xiàn)

    本文介紹了基于 Pocket PC 中的“點(diǎn)按”操作概念 論述了在 Pocket PC 中上下文菜單的實(shí)現(xiàn)原理及方法 并給出了基于 MFC 下的 Windows CE 應(yīng)用程序?qū)崿F(xiàn)上下文菜單的步驟和代碼實(shí)例 。
    發(fā)表于 04-18 10:46 ?0次下載

    基于上下文相似度的分解推薦算法

    模型,再對(duì)目標(biāo)用戶的K個(gè)鄰居用戶建立移動(dòng)用戶一上下文一移動(dòng)服務(wù)三維張量分解模型,獲得目標(biāo)用戶的移動(dòng)服務(wù)預(yù)測值,生成移動(dòng)推薦。實(shí)驗(yàn)結(jié)果顯示,與余弦相似性方法、Pearson相關(guān)系數(shù)方法和
    發(fā)表于 11-27 17:42 ?0次下載

    Web服務(wù)的上下文的訪問控制策略模型

    的訪問控制策略模型。模型的核心思想是將各種與訪問控制有關(guān)的信息統(tǒng)一抽象表示為一個(gè)上下文概念,以上下文為中心來制定和執(zhí)行訪問控制策略,上下文擔(dān)
    發(fā)表于 01-05 16:32 ?0次下載

    初學(xué)OpenGL:什么是繪制上下文

    初學(xué)OpenGL,打開紅寶書,會(huì)告訴你OpenGL是個(gè)狀態(tài)機(jī),OpenGL采用了客戶端-服務(wù)器模式,那時(shí)覺得好抽象,直到后來了解了繪制上下文才把這些聯(lián)系起來。我們可以認(rèn)為每一個(gè)硬件GPU是個(gè)服務(wù)器
    發(fā)表于 04-28 11:47 ?2635次閱讀

    如何分析Linux CPU上下文切換問題

    在我的上一篇文章:《探討 Linux CPU 的上下文切換》中,我談到了 CPU 上下文切換的工作原理??焖倩仡櫼幌拢珻PU 上下文切換是保證 Linux 系統(tǒng)正常運(yùn)行的核心功能??煞譃檫M(jìn)程
    的頭像 發(fā)表于 05-05 20:11 ?2317次閱讀

    谷歌新作SPAE:GPT等大語言模型可以通過上下文學(xué)習(xí)解決視覺任務(wù)

    這篇論文揭示了 PaLM 或 GPT 在通過上下文學(xué)習(xí)解決視覺任務(wù)方面的能力,并提出了新方法 SPAE(Semantic Pyramid AutoEncoder)。這種新方法使得 LLM 能夠執(zhí)行圖像生成任務(wù),而無需進(jìn)行任何參數(shù)更新。這也是使用上下文學(xué)習(xí)使得 LLM 生成
    的頭像 發(fā)表于 07-09 15:35 ?1615次閱讀
    谷歌新作SPAE:GPT等大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>可以通過<b class='flag-5'>上下文學(xué)習(xí)</b>解決視覺任務(wù)

    首篇!Point-In-Context:探索用于3D點(diǎn)云理解的上下文學(xué)習(xí)

    隨著基于廣泛數(shù)據(jù)訓(xùn)練的大模型興起,上下文學(xué)習(xí)(In-Context Learning)已成為一種新的學(xué)習(xí)范式,在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)任務(wù)中表現(xiàn)出了巨大的潛力。
    的頭像 發(fā)表于 07-13 14:41 ?1241次閱讀
    首篇!Point-In-Context:探索用于3D點(diǎn)云理解的<b class='flag-5'>上下文學(xué)習(xí)</b>