chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

萬(wàn)能的prompt還能做可控文本生成

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:夕小瑤的賣(mài)萌屋 ? 作者:ZenMoore ? 2022-03-22 10:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

可控文本生成,旨在讓語(yǔ)言模型的輸出帶有我們想要的某種屬性。比如情感、主題、三元組等。一般我們習(xí)慣采用 CTRL[1] 或者 PPLM[2] 等方式。但是,CTRL 是對(duì)整個(gè)語(yǔ)言模型進(jìn)行 Finetuning, PPLM 因?yàn)樾枰谏傻倪^(guò)程中迭代更新 hidden activations,所以推理速度非常慢。

隨著 Prompting 技術(shù)的大火,我們一直在思考,Prompt 究竟能夠帶來(lái)什么?我們都說(shuō),Prompt 本質(zhì)上是一種激發(fā)語(yǔ)言模型中知識(shí)的手段。因此,它應(yīng)該不僅僅局限于數(shù)據(jù)集或者說(shuō)任務(wù)的層面,激發(fā)模型對(duì)于某個(gè)任務(wù)的“知識(shí)”,還應(yīng)該擴(kuò)展到范圍更廣的控制屬性層面,激發(fā)模型對(duì)于某種輸出屬性的 sense !

于是,我們不妨把視角從 task scaling 挪開(kāi),更多地關(guān)注一下 Prompt 對(duì)于可控性的 buff 加成。

今天的這篇文章來(lái)自 UCSB 和微軟,提出通過(guò)對(duì)比學(xué)習(xí)的方法找尋到了這個(gè) buff 一般的 Prompt,能夠“調(diào)教”我們的語(yǔ)言模型進(jìn)行可控的生成。

論文標(biāo)題:
Controllable Natural Language Generation with Contrastive Prefixes

論文作者:
Jing Qian, Li Dong, Yelong Shen, Furu Wei, Weizhu Chen

論文鏈接:
https://arxiv.org/abs/2202.13257

模型方法

首先明確一個(gè)概念:Prefix。讀者可以簡(jiǎn)單看一下 Prefix-Tuning[3] 的方法圖,就大概知道:Prefix 相當(dāng)于一種控制指令,加在輸入的最前面,以控制生成文本的屬性。

cf491344-a8da-11ec-952b-dac502259ad0.png

本文提出了兩種方法,分別是監(jiān)督方法和無(wú)監(jiān)督方法。

下面的方法介紹以 Sentiment Control 為例(即生成給定帶有情感的文本)。該任務(wù)要訓(xùn)練的,正是 positive 和 negative 的兩種情感類(lèi)別所對(duì)應(yīng)的 prefix.

監(jiān)督方法

cf68b528-a8da-11ec-952b-dac502259ad0.png

整個(gè)訓(xùn)練過(guò)程和 Prefix-Tuning[3] 相似,LM 的參數(shù)是凍結(jié)的,只調(diào)整 Prefix 相關(guān)聯(lián)的參數(shù)。在訓(xùn)練的時(shí)候,除了LM loss 之外,新增一個(gè)判別損失:

其中, 代表生成文本, 代表控制信號(hào)的類(lèi)別(positive 或 negative)。

無(wú)監(jiān)督方法

在監(jiān)督方法中,控制信號(hào)是已知的。實(shí)際場(chǎng)景中還會(huì)常常出現(xiàn)控制信號(hào)未知的情況,因此需要通過(guò)變分的無(wú)監(jiān)督方法找到這個(gè)“虛擬的類(lèi)別信號(hào)“并使用 latent variable 表征,即 VQ-VAE[4] 的思想。

cf9bff00-a8da-11ec-952b-dac502259ad0.png

如圖,需要先通過(guò)一個(gè) encoder 預(yù)測(cè)相應(yīng)輸入對(duì)應(yīng)的 latent variable 作為 prefix index(指代當(dāng)前要使用哪個(gè) prefix)。設(shè) prefix index 為 ,則這個(gè) encoder 就是要學(xué)習(xí) 這個(gè)分布。

一方面,除了 LM loss ,還需要保證后驗(yàn)概率 或 盡可能的準(zhǔn)確,故引入 KL 散度:

這里的 假設(shè)是 uniform distribution。其中,

GS 表示 Gumbel Softmax, 是 GS 的 temperature 參數(shù)。

關(guān)于這塊兒的詳細(xì)原理,就是我們小學(xué)二年級(jí)就學(xué)過(guò)的 EM 算法啦~

幫讀者回憶一下:

......

另外,作者又提出了一個(gè)無(wú)監(jiān)督對(duì)比損失:其中, 和 是根據(jù) decoder 的文本生成概率得到的,具體計(jì)算方式如下:

最后總的損失函數(shù)為 ,, 的加權(quán)求和,

實(shí)驗(yàn)結(jié)果

Sentiment Control

cfb4baae-a8da-11ec-952b-dac502259ad0.png

Detoxification

cfd7c936-a8da-11ec-952b-dac502259ad0.png

Topic Control

d006265a-a8da-11ec-952b-dac502259ad0.png

推理速度

d036c26a-a8da-11ec-952b-dac502259ad0.png

Multi-Aspect Control

實(shí)際場(chǎng)景中,很少有 multi-aspect labeled data,只有 single-aspect labeled data.

本文使用了兩種方式來(lái)解決多種屬性的可控生成問(wèn)題:

Ours (concatenation):使用 single-aspect labeled data 分別訓(xùn)練各自的 prefix, 然后在 multi-aspect control 任務(wù)中將其拼接起來(lái)。

Ours (semi-supervised):同時(shí)訓(xùn)練 multi-aspect prefixes, 在訓(xùn)練時(shí)把 single-aspect labeled example 當(dāng)做 partially labeled. 此外,multi-aspect prefixes 經(jīng)過(guò)了 trained single-aspect prefixes 的初始化。

Ours (semi-supervised) 是上述監(jiān)督方法和無(wú)監(jiān)督方法的組合,因此架構(gòu)圖和無(wú)監(jiān)督方法的圖是一樣的。

d04eca36-a8da-11ec-952b-dac502259ad0.png

寫(xiě)在最后

這里也推薦讀者品讀一下 DeepMind & ICL 的相似工作:Control Prefixes [5].

古人云:“君子生非異也,善假于物也”。我們把語(yǔ)言模型比作“人”,把可控性比作“物”,也許,大大小小的語(yǔ)言模型在能力的本質(zhì)上并沒(méi)有什么不同,但是如果可以通過(guò)不同的 Control Prefixes,假之以物,則語(yǔ)言模型可成“君子”也?。ü?,搞一個(gè)俏皮的比喻~)

無(wú)論是本文介紹的 Contrastive Prefixes 也好,還是 Control Prefixes 也好,我們都可以從中發(fā)現(xiàn) Prompt 對(duì)于”調(diào)教“語(yǔ)言模型的偉大能力。從 task 到 controllability, 可能會(huì)是 prompt 向前發(fā)展的又一個(gè)新階段吧~

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10790
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    2769

原文標(biāo)題:搭配對(duì)比學(xué)習(xí),萬(wàn)能的 prompt 還能做可控文本生成

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    電子萬(wàn)能試驗(yàn)機(jī)與液壓萬(wàn)能試驗(yàn)機(jī)的區(qū)別

      電子萬(wàn)能材料試驗(yàn)機(jī)主要采用伺服電機(jī)作為動(dòng)力源,絲杠、絲母作為執(zhí)行部件,實(shí)現(xiàn)試驗(yàn)機(jī)移動(dòng)橫梁的速度控制。在傳動(dòng)控制上,目前主要有兩種形式,同步帶 和減速機(jī)。國(guó)內(nèi)來(lái)說(shuō),長(zhǎng)春地區(qū)的試驗(yàn)機(jī)廠(chǎng)家多采用同步帶
    發(fā)表于 07-04 16:06

    winxp萬(wàn)能聲卡驅(qū)動(dòng),程序下載

    winxp萬(wàn)能聲卡驅(qū)動(dòng) 尊敬的用戶(hù),本萬(wàn)能驅(qū)
    發(fā)表于 04-21 19:23 ?538次下載
    winxp<b class='flag-5'>萬(wàn)能</b>聲卡驅(qū)動(dòng),程序下載

    萬(wàn)能遙控器設(shè)置方法_萬(wàn)能遙控器代碼

    電視是每個(gè)家庭必不可少的家用電器,所以我們?cè)谑褂眠b控器的時(shí)間也會(huì)比較多。但如果遙控器換了怎么辦,很多人都會(huì)想到配一個(gè)萬(wàn)能遙控器,那么萬(wàn)能遙控器怎么設(shè)置,它的萬(wàn)能
    發(fā)表于 09-14 18:08 ?19w次閱讀
    <b class='flag-5'>萬(wàn)能</b>遙控器設(shè)置方法_<b class='flag-5'>萬(wàn)能</b>遙控器代碼

    萬(wàn)能鑰匙字典生成工具.exe

    電子發(fā)燒友網(wǎng)站提供《萬(wàn)能鑰匙字典生成工具.exe.exe》資料免費(fèi)下載
    發(fā)表于 04-09 19:43 ?4次下載

    萬(wàn)能協(xié)議通信工具

    萬(wàn)能協(xié)議通信工具分享
    發(fā)表于 11-18 11:47 ?14次下載

    萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)原理_萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)結(jié)構(gòu)

    本文首先闡述了萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)原理,其次介紹了萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)技術(shù)特點(diǎn),最后介紹了萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)結(jié)構(gòu)。
    發(fā)表于 12-09 10:16 ?1.1w次閱讀

    萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)選型_萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)使用

    本文主要介紹了萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)選型方法及萬(wàn)能轉(zhuǎn)換開(kāi)關(guān)的使用。
    發(fā)表于 12-09 10:30 ?5119次閱讀

    文本生成任務(wù)中引入編輯方法的文本生成

    4. FELIX FELIX是Google Research在“FELIX: Flexible Text Editing Through Tagging and Insertion”一文中提出的文本生成
    的頭像 發(fā)表于 07-23 16:56 ?1979次閱讀
    <b class='flag-5'>文本生成</b>任務(wù)中引入編輯方法的<b class='flag-5'>文本生成</b>

    受控文本生成模型的一般架構(gòu)及故事生成任務(wù)等方面的具體應(yīng)用

    來(lái)自:哈工大訊飛聯(lián)合實(shí)驗(yàn)室 本期導(dǎo)讀:本文是對(duì)受控文本生成任務(wù)的一個(gè)簡(jiǎn)單的介紹。首先,本文介紹了受控文本生成模型的一般架構(gòu),點(diǎn)明了受控文本生成模型的特點(diǎn)。然后,本文介紹了受控文本生成
    的頭像 發(fā)表于 10-13 09:46 ?3870次閱讀
    受控<b class='flag-5'>文本生成</b>模型的一般架構(gòu)及故事<b class='flag-5'>生成</b>任務(wù)等方面的具體應(yīng)用

    基于GPT-2進(jìn)行文本生成

    文本生成是自然語(yǔ)言處理中一個(gè)重要的研究領(lǐng)域,具有廣闊的應(yīng)用前景。國(guó)內(nèi)外已經(jīng)有諸如Automated Insights、Narrative Science以及“小南”機(jī)器人和“小明”機(jī)器人等文本生成
    的頭像 發(fā)表于 04-13 08:35 ?5196次閱讀

    基于VQVAE的長(zhǎng)文本生成 利用離散code來(lái)建模文本篇章結(jié)構(gòu)的方法

    寫(xiě)在前面 近年來(lái),多個(gè)大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型 GPT、BART、T5 等被提出,這些預(yù)訓(xùn)練模型在自動(dòng)文摘等多個(gè)文本生成任務(wù)上顯著優(yōu)于非預(yù)訓(xùn)練語(yǔ)言模型。但對(duì)于開(kāi)放式生成任務(wù),如故事生成、新聞生成
    的頭像 發(fā)表于 12-01 17:07 ?2151次閱讀

    基于文本到圖像模型的可控文本到視頻生成

    文本到視頻模型需要大量高質(zhì)量的視頻和計(jì)算資源,這限制了相關(guān)社區(qū)進(jìn)一步的研究和應(yīng)用。為了減少過(guò)度的訓(xùn)練要求,我們研究了一種新的高效形式:基于文本到圖像模型的可控文本到視頻
    的頭像 發(fā)表于 06-14 10:39 ?1317次閱讀
    基于<b class='flag-5'>文本</b>到圖像模型的<b class='flag-5'>可控</b><b class='flag-5'>文本</b>到視頻<b class='flag-5'>生成</b>

    面向結(jié)構(gòu)化數(shù)據(jù)的文本生成技術(shù)研究

    今天我們要講的文本生成是現(xiàn)在最流行的研究領(lǐng)域之一。文本生成的目標(biāo)是讓計(jì)算機(jī)像人類(lèi)一樣學(xué)會(huì)表達(dá),目前看基本上接近實(shí)現(xiàn)。這些突然的技術(shù)涌現(xiàn),使得計(jì)算機(jī)能夠撰寫(xiě)出高質(zhì)量的自然文本,滿(mǎn)足特定的需求。
    的頭像 發(fā)表于 06-26 14:39 ?967次閱讀
    面向結(jié)構(gòu)化數(shù)據(jù)的<b class='flag-5'>文本生成</b>技術(shù)研究

    如何使用 Llama 3 進(jìn)行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進(jìn)行文本生成,可以通過(guò)以下幾種方式實(shí)現(xiàn),取決于你是否愿意在本地運(yùn)行模型或者使用現(xiàn)成的API
    的頭像 發(fā)表于 10-27 14:21 ?1088次閱讀

    效率大升!AI賦鴻蒙萬(wàn)能卡片開(kāi)發(fā)

    效率。 近期,華為重磅推出首款開(kāi)發(fā)鴻蒙原生應(yīng)用的AI輔助編程工具——DevEco CodeGenie,該工具支持萬(wàn)能卡片生成功能,借助AI大模型理解開(kāi)發(fā)者的卡片需求,通過(guò)對(duì)話(huà)式交互,智能生成鴻蒙
    的頭像 發(fā)表于 01-13 13:44 ?788次閱讀
    效率大升!AI賦<b class='flag-5'>能</b>鴻蒙<b class='flag-5'>萬(wàn)能</b>卡片開(kāi)發(fā)