chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Prompt范式你們了解多少

深度學(xué)習(xí)自然語言處理 ? 來源:李rumor ? 作者:rumor ? 2021-09-10 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷友們好,我是rumor。

之前我學(xué)習(xí)Prompt范式的源起PET后就鴿了很久,相信卷友們已經(jīng)把Prompt的論文都追完了,把我遠(yuǎn)遠(yuǎn)地落在了后面。周末我不甘被卷,奮起直追,連刷三篇paper,希望能趕上大家學(xué)習(xí)的步伐。

Prefix-tuning- Optimizing continuous prompts for generation

P-tuning-GPT Understands, Too

Prompt-tuning-The Power of Scale for Parameter-Efficient Prompt Tuning

自動化Prompt

Prompt范式的第一個(gè)階段,就是在輸入上加Prompt文本,再對輸出進(jìn)行映射。但這種方式怎么想都不是很優(yōu)雅,無法避免人工的介入。即使有方法可以批量挖掘,但也有些復(fù)雜(有這個(gè)功夫能標(biāo)不少高質(zhì)量語料),而且模型畢竟是黑盒,對離散文本輸入的魯棒性很差:

323a6c1c-112f-11ec-8fb8-12bb97331649.jpg

怎么辦呢?離散的不行,那就連續(xù)的唄

用固定的token代替prompt,拼接上文本輸入,當(dāng)成特殊的embedding輸入,這樣在訓(xùn)練時(shí)也可以對prompt進(jìn)行優(yōu)化,就減小了prompt挖掘、選擇的成本。

如何加入Prompt

前面的想法非常單純,但實(shí)際操作起來還是需要些技巧的。

Prefix-tuning

Prefix-tuning是做生成任務(wù),它根據(jù)不同的模型結(jié)構(gòu)定義了不同的Prompt拼接方式,在GPT類的自回歸模型上采用[PREFIX, x, y],在T5類的encoder-decoder模型上采用[PREFIX, x, PREFIX‘, y]:

3246ea32-112f-11ec-8fb8-12bb97331649.jpg

值得注意的還有三個(gè)改動:

把預(yù)訓(xùn)練大模型freeze住,因?yàn)榇竽P蛥?shù)量大,精調(diào)起來效率低,畢竟prompt的出現(xiàn)就是要解決大模型少樣本的適配

作者發(fā)現(xiàn)直接優(yōu)化Prompt參數(shù)不太穩(wěn)定,加了個(gè)更大的MLP,訓(xùn)練完只保存MLP變換后的參數(shù)就行了

實(shí)驗(yàn)證實(shí)只加到embedding上的效果不太好,因此作者在每層都加了prompt的參數(shù),改動較大

P-tuning

P-tuning是稍晚些的工作,主要針對NLU任務(wù)。對于BERT類雙向語言模型采用模版(P1, x, P2, [MASK], P3),對于單向語言模型采用(P1, x, P2, [MASK]):

3254d11a-112f-11ec-8fb8-12bb97331649.jpg

同時(shí)加了兩個(gè)改動:

考慮到預(yù)訓(xùn)練模型本身的embedding就比較離散了(隨機(jī)初始化+梯度傳回來小,最后只是小范圍優(yōu)化),同時(shí)prompt本身也是互相關(guān)聯(lián)的,所以作者先用LSTM對prompt進(jìn)行編碼

在輸入上加入了anchor,比如對于RTE任務(wù),加上一個(gè)問號變成[PRE][prompt tokens][HYP]?[prompt tokens][MASK]后效果會更好

P-tuning的效果很好,之前的Prompt模型都是主打小樣本效果,而P-tuning終于在整個(gè)數(shù)據(jù)集上超越了精調(diào)的效果:

32612dde-112f-11ec-8fb8-12bb97331649.jpg

雖然P-tuning效果好,但實(shí)驗(yàn)對比也有些問題,它沒有freeze大模型,而是一起精調(diào)的,相當(dāng)于引入了額外的輸入特征,而平時(shí)我們在輸入加個(gè)詞法句法信息也會有提升,所以不能完全肯定這個(gè)效果是prompt帶來的。同時(shí)隨著模型尺寸增大,精調(diào)也會更難。

Prompt-tuning

Prompt-tuning就更加有信服力一些,純憑Prompt撬動了大模型。

Prompt-tuning給每個(gè)任務(wù)定義了自己的Prompt,拼接到數(shù)據(jù)上作為輸入,同時(shí)freeze預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,在沒有加額外層的情況下,可以看到隨著模型體積增大效果越來越好,最終追上了精調(diào)的效果:

326f312c-112f-11ec-8fb8-12bb97331649.jpg

同時(shí),Prompt-tuning還提出了Prompt-ensembling,也就是在一個(gè)batch里同時(shí)訓(xùn)練同一個(gè)任務(wù)的不同prompt,這樣相當(dāng)于訓(xùn)練了不同「模型」,比模型集成的成本小多了。

其他Trick

除了怎么加Prompt之外,Prompt向量的初始化和長度也有所講究。

Prompt初始化

Prefix-tuning采用了任務(wù)相關(guān)的文字進(jìn)行初始化,而Prompt-tuning發(fā)現(xiàn)在NLU任務(wù)上用label文本初始化效果更好。不過隨著模型尺寸的提升,這種gap也會最終消失。

3285c892-112f-11ec-8fb8-12bb97331649.jpg

Prompt長度

從Prompt-tuning的實(shí)驗(yàn)可以看到,長度在10-20時(shí)的表現(xiàn)已經(jīng)不錯(cuò)了,同時(shí)這個(gè)gap也會隨著模型尺寸的提升而減小。

329143c0-112f-11ec-8fb8-12bb97331649.jpg

總結(jié)

要說上次看PET時(shí)我對Prompt范式還是將信將疑,看完這幾篇之后就比較認(rèn)可了。尤其是Prompt-tuning的一系列實(shí)驗(yàn),確實(shí)證明了增加少量可調(diào)節(jié)參數(shù)可以很好地運(yùn)用大模型,并且模型能力越強(qiáng),所需要的prompt人工調(diào)參就越少。

這種參數(shù)化Prompt的方法除了避免「人工」智能外,還有一方面就是省去了Y的映射。因?yàn)樵诰{(diào)的過程中,模型的輸出就被拿捏死了,而且Prompt-tuning還用label初始化Prompt,更加讓模型知道要輸出啥。

Finally,終于追上了前沿,大家的鬼點(diǎn)子可真多啊。

來源:李rumor

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • PET
    PET
    +關(guān)注

    關(guān)注

    1

    文章

    46

    瀏覽量

    19157
  • MLPM
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    6898
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    2846

原文標(biāo)題:Prompt范式,真香

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    結(jié)構(gòu)、材料、工藝三位一體:新一代航空發(fā)動機(jī)協(xié)同創(chuàng)新范式與顛覆性技術(shù)路徑研究

    航空發(fā)動機(jī)技術(shù)是衡量國家綜合科技實(shí)力與高端制造水平的戰(zhàn)略性標(biāo)志,其發(fā)展遵循著“一代發(fā)動機(jī)、一代結(jié)構(gòu)、一代材料、一代工藝”的內(nèi)在規(guī)律。當(dāng)前,航空動力領(lǐng)域正經(jīng)歷從傳統(tǒng)設(shè)計(jì)范式向結(jié)構(gòu)-材料-工藝深度融合范式的革命性轉(zhuǎn)變。
    的頭像 發(fā)表于 01-06 10:28 ?417次閱讀
    結(jié)構(gòu)、材料、工藝三位一體:新一代航空發(fā)動機(jī)協(xié)同創(chuàng)新<b class='flag-5'>范式</b>與顛覆性技術(shù)路徑研究

    銳捷極簡以太彩光網(wǎng)絡(luò)解決方案入選《“AI中國”生態(tài)范式案例集(2025)》

    由新華網(wǎng)主辦,賽迪網(wǎng)承辦的2025企業(yè)家博鰲論壇“人工智能 +”生態(tài)范式分論壇在海南博鰲圓滿舉辦。會上發(fā)布了《“AI中國”生態(tài)范式案例集(2025)》重要成果,銳捷極簡以太彩光網(wǎng)絡(luò)解決方案憑借
    的頭像 發(fā)表于 12-12 10:47 ?149次閱讀
    銳捷極簡以太彩光網(wǎng)絡(luò)解決方案入選《“AI中國”生態(tài)<b class='flag-5'>范式</b>案例集(2025)》

    潤和軟件旗下捷科入編2025“人工智能+”行業(yè)生態(tài)范式案例集

    近日,工業(yè)和信息化部旗下賽迪網(wǎng)、《數(shù)字經(jīng)濟(jì)》雜志等聯(lián)合發(fā)布《“人工智能+”行業(yè)生態(tài)范式案例集》。江蘇潤和軟件股份有限公司(以下簡稱“潤和軟件”)旗下獨(dú)立運(yùn)營的金融科技品牌——北京捷科智誠科技有限公司
    的頭像 發(fā)表于 12-11 11:19 ?514次閱讀
    潤和軟件旗下捷科入編2025“人工智能+”行業(yè)生態(tài)<b class='flag-5'>范式</b>案例集

    重塑制造新范式:從單工廠到全球運(yùn)營,盤古信息IMS MOM解鎖制造新維度

    (制造運(yùn)營管理系統(tǒng))重新定義全球制造新范式,助力企業(yè)實(shí)現(xiàn)從單點(diǎn)到全局的智能化躍升。 盤古信息IMS MOM系統(tǒng)定義全球制造運(yùn)營新范式 全球制造運(yùn)營不再是簡單的多工廠管理,而是一個(gè)涵蓋生產(chǎn)、供應(yīng)鏈、質(zhì)量和數(shù)據(jù)的復(fù)雜生態(tài)系統(tǒng)。盤古信
    的頭像 發(fā)表于 10-27 08:44 ?567次閱讀
    重塑制造新<b class='flag-5'>范式</b>:從單工廠到全球運(yùn)營,盤古信息IMS MOM解鎖制造新維度

    ??低曋Υ蛟熘悄芊罏?zāi)新范式

    今日,應(yīng)急管理部國家減災(zāi)中心主辦的國家綜合防災(zāi)減災(zāi)與可持續(xù)發(fā)展論壇在杭州舉辦,??低曇浴叭蚋兄?、數(shù)智融合、助力基層——構(gòu)建綜合防災(zāi)減災(zāi)救災(zāi)應(yīng)用體系”做主題匯報(bào),以技術(shù)助力基層防災(zāi)減災(zāi),打造智能防災(zāi)新范式。
    的頭像 發(fā)表于 10-22 16:29 ?774次閱讀

    華為超節(jié)點(diǎn)互聯(lián)技術(shù)引領(lǐng)AI基礎(chǔ)設(shè)施新范式

    今日,華為全聯(lián)接大會2025在上海啟幕,華為副董事長、輪值董事長徐直軍發(fā)表題為“以開創(chuàng)的超節(jié)點(diǎn)互聯(lián)技術(shù),引領(lǐng)AI基礎(chǔ)設(shè)施新范式”的主題演講,正式發(fā)布全球最強(qiáng)算力超節(jié)點(diǎn)和集群。
    的頭像 發(fā)表于 09-20 16:15 ?2040次閱讀

    我如何用Prompt工程將大模型調(diào)教成風(fēng)控專家

    波折、頓悟和驚喜。 今天,我想復(fù)盤整個(gè)過程,分享我如何通過一套循序漸進(jìn)的“Prompt工程心法”,將一個(gè)“什么都懂一點(diǎn),但什么都不精”的通用大模型,一步步調(diào)教成能夠精準(zhǔn)識別復(fù)雜電商風(fēng)控風(fēng)險(xiǎn)的“AI專家”。 一、 引言:當(dāng)算
    的頭像 發(fā)表于 09-08 14:22 ?357次閱讀
    我如何用<b class='flag-5'>Prompt</b>工程將大模型調(diào)教成風(fēng)控專家

    【Milk-V Duo S 開發(fā)板免費(fèi)體驗(yàn)】Milk-V Duo S 開發(fā)板試用報(bào)告(6) 美化

    這里的ash還有點(diǎn)問題(如圖6),所以推薦你們使用bash,使用opkg install bash來安裝,再使用opkg install shadow安裝一個(gè)可以切換默認(rèn)shell的工具,最后
    發(fā)表于 06-30 18:39

    研華科技攜手九大高校共探新工科人才培養(yǎng)新范式

    研華科技聯(lián)動9大高校,圍繞“制造融合·產(chǎn)教共生”展開深度研討,通過實(shí)地參訪+產(chǎn)業(yè)對話雙線并行,共探如何在數(shù)智浪潮中鍛造新工科人才培養(yǎng)新范式。
    的頭像 發(fā)表于 06-27 11:13 ?826次閱讀

    ArkUI介紹

    構(gòu)建與顯示的最小單位,如列表、網(wǎng)格、按鈕、單選框、進(jìn)度條、文本等。開發(fā)者通過多種組件的組合,構(gòu)建出滿足自身應(yīng)用訴求的完整界面。 兩種開發(fā)范式 針對不同的應(yīng)用場景及技術(shù)背景,方舟UI框架提供了兩種開發(fā)
    發(fā)表于 06-24 06:41

    如何將一個(gè)FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型

    模型切換概述 本文介紹如何將一個(gè)FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型,您需要完成如下動作: 工程切換:新建一個(gè)Stage模型的應(yīng)用工程。 配置文件切換:config.json切換
    發(fā)表于 06-04 06:22

    北京君正如何實(shí)現(xiàn)國產(chǎn)芯片的范式跨越

    北京君正的自主內(nèi)核設(shè)計(jì),通過底層技術(shù)創(chuàng)新與商業(yè)化驗(yàn)證,實(shí)現(xiàn)了國產(chǎn)芯片從“技術(shù)跟隨”到“自主引領(lǐng)”的范式跨越。
    的頭像 發(fā)表于 05-27 13:47 ?1432次閱讀

    ALVA空間智能視覺焊接方案重構(gòu)工業(yè)焊接范式

    在智能制造浪潮席卷全球的今天,焊接工藝作為制造業(yè)的核心環(huán)節(jié),正經(jīng)歷著從“經(jīng)驗(yàn)驅(qū)動”向“數(shù)據(jù)驅(qū)動”的范式躍遷。
    的頭像 發(fā)表于 05-15 11:30 ?777次閱讀

    AUDI攜手Momenta打造豪華智能輔助駕駛新范式

    近日,奧迪新品牌AUDI攜手全球領(lǐng)先的智能駕駛公司Momenta正式宣布,聯(lián)合打造行業(yè)首個(gè)“德系電動豪華標(biāo)準(zhǔn)+飛輪大模型”智能輔助駕駛方案,共同定義豪華智能輔助駕駛標(biāo)準(zhǔn),打造豪華智能輔助駕駛新范式。
    的頭像 發(fā)表于 04-27 10:17 ?761次閱讀

    電子工程師如何利用AI革新設(shè)計(jì)范式

    在AI重構(gòu)電子產(chǎn)品設(shè)計(jì)范式的進(jìn)程中,工程師們應(yīng)如何平衡創(chuàng)新與風(fēng)險(xiǎn),以確保在提升設(shè)計(jì)效率和產(chǎn)品性能的同時(shí),有效應(yīng)對安全、隱私和數(shù)據(jù)質(zhì)量等挑戰(zhàn)?
    的頭像 發(fā)表于 03-19 15:17 ?1341次閱讀