chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

淺析Google Research的LaserTagger和Seq2Edits

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:哈工大訊飛聯(lián)合實(shí)驗(yàn)室 ? 作者:吳珂 ? 2021-07-23 16:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本期導(dǎo)讀:近年來(lái),序列到序列(seq2seq)方法成為許多文本生成任務(wù)的主流思路,在機(jī)器翻譯、文本摘要等絕大多數(shù)生成任務(wù)上都得到了廣泛的應(yīng)用。與此同時(shí),一些研究人員另辟蹊徑,跳脫出傳統(tǒng)的seq2seq方法,探索如何將 編輯方法(edit-based approach) 應(yīng)用于一些文本生成任務(wù),從而提升模型在生成任務(wù)上的表現(xiàn)。本期結(jié)合Google Research的三篇工作,對(duì)基于編輯方法的文本生成技術(shù)進(jìn)行介紹。

1. 引言

在文本生成任務(wù)中引入編輯方法的 motivation 主要有兩方面:

首先,基于Transformer結(jié)構(gòu)的seq2seq模型在當(dāng)前各項(xiàng)文本生成任務(wù)上得到了廣泛使用。而這類傳統(tǒng)seq2seq模型的不足主要有以下幾點(diǎn):

(1)數(shù)據(jù)效率: 為使模型在文本生成任務(wù)上獲得較好的表現(xiàn),傳統(tǒng)seq2seq模型通常需要在大量數(shù)據(jù)上進(jìn)行訓(xùn)練,時(shí)間長(zhǎng),計(jì)算量龐大。

(2)推理時(shí)間: 傳統(tǒng)seq2seq模型在解碼時(shí)主要采用自回歸的方式。這種方式按順序從左至右一個(gè)詞一個(gè)詞地預(yù)測(cè)輸出,雖然遵循了人類語(yǔ)言的單向順序性,但大大增加了模型的推理時(shí)間。

(3)可控性與可解釋性: 傳統(tǒng)seq2seq模型在輸出時(shí)會(huì)發(fā)生一些錯(cuò)誤。例如,產(chǎn)生輸入文本中并不支持的輸出(hallucination)。此外,模型在輸出時(shí)的可解釋性也較差。

其次,以句子融合、語(yǔ)法糾錯(cuò)等為代表的一些文本生成任務(wù)均具有 “重合”(overlap) 的特點(diǎn),即源文本和目標(biāo)文本在語(yǔ)言上重復(fù)性較大,只需要對(duì)源文本做微小的改動(dòng)就能生成目標(biāo)文本(圖1)。因此從頭訓(xùn)練一個(gè)seq2seq模型然后自回歸地預(yù)測(cè)輸出就顯得較為浪費(fèi)?;诖?,復(fù)制機(jī)制(copy mechanism)的引入使得模型能夠?qū)Ξ?dāng)前輸出是復(fù)制原詞還是生成新詞進(jìn)行選擇。但即使模型使用了復(fù)制機(jī)制,仍需要較大規(guī)模的訓(xùn)練數(shù)據(jù)來(lái)滿足解碼時(shí)的詞匯量需求,從而保證模型性能。

綜上,在文本生成任務(wù)中引入文本編輯的方法,意在針對(duì)一些生成任務(wù)中的overlap特點(diǎn),合理利用源文本與目標(biāo)文本的相似部分,改善傳統(tǒng)seq2seq模型的不足。這種方法直觀上保留了從源文本到目標(biāo)文本的編輯過(guò)程(如哪些詞保留,哪些詞需要?jiǎng)h除等),與人類實(shí)際處理這類生成任務(wù)的思路不謀而合,從而也帶來(lái)了較好的可解釋性。

2. LaserTagger

LaserTagger是Google Research在 “Encode, Tag, Realize: High-Precision Text Editing” 一文中提出的文本生成模型,該論文發(fā)表于EMNLP 2019。

這篇工作的主要貢獻(xiàn)有:

(1)將序列標(biāo)注作為源文本到目標(biāo)文本的跳板,即首先對(duì)源文本標(biāo)注編輯操作標(biāo)簽,再根據(jù)標(biāo)注得到的標(biāo)簽序列將源文本并行轉(zhuǎn)化為目標(biāo)文本(圖2)。

(2)基于(1)的思路,設(shè)計(jì)了基于編輯操作的文本生成模型LaserTagger(包括LaserTaggerFF和LaserTaggerAR兩種模型變體),并且在四種文本生成任務(wù)上進(jìn)行了對(duì)比實(shí)驗(yàn),獲得了較好的效果。

2.1 主要方法

標(biāo)注操作定義

本文定義文本編輯操作標(biāo)簽由兩部分構(gòu)成:基本標(biāo)簽B和附加標(biāo)簽P,表示為。

基本標(biāo)簽分為兩種:保留()或刪除(),指對(duì)當(dāng)前位置的token進(jìn)行保留還是刪除操作。

附加標(biāo)簽指需要在當(dāng)前位置插入新短語(yǔ)(可以是單個(gè)詞、多個(gè)詞或標(biāo)點(diǎn)等,也可以為空)。

在構(gòu)造編輯標(biāo)簽序列時(shí),由匹配算法(見(jiàn)圖4)從訓(xùn)練語(yǔ)料構(gòu)造出的phrase vocabulary 中選出合適的短語(yǔ)插入。因此,若詞典的大小為,則編輯標(biāo)簽的總規(guī)模則約為。

此外,可以根據(jù)不同的下游任務(wù)定義一些特殊標(biāo)簽。例如在句子融合任務(wù)中有時(shí)需要交換輸入句子的語(yǔ)序,此時(shí)可以設(shè)置標(biāo)簽SWAP代表交換語(yǔ)序操作。

構(gòu)造phrase vocabulary

在構(gòu)造訓(xùn)練數(shù)據(jù)對(duì)應(yīng)的編輯標(biāo)簽序列時(shí),若詞典無(wú)法提供可插入的新短語(yǔ),則該條訓(xùn)練數(shù)據(jù)會(huì)被篩掉。因此理想的詞典應(yīng)滿足以下兩點(diǎn):一方面,詞典規(guī)模應(yīng)盡可能的??;另一方面,該詞典應(yīng)能夠盡可能的覆蓋更多的訓(xùn)練數(shù)據(jù)。

構(gòu)造詞典的步驟為:

(1) 將源文本和目標(biāo)文本對(duì)齊,計(jì)算出它們的最長(zhǎng)公共子序列(longest common subsequence, LCS)。

(2) 將目標(biāo)文本中不屬于LCS的n-grams加入詞典中。

(3) 最終保留出現(xiàn)頻率最高的個(gè)phrases。

在實(shí)驗(yàn)中發(fā)現(xiàn),詞典保留頻率最高的500個(gè)phrases已能覆蓋85%的訓(xùn)練樣本,且再繼續(xù)增大詞典規(guī)模對(duì)LaserTagger的性能幫助很小。因此,在本文的各主要實(shí)驗(yàn)中,詞典的大小均被設(shè)置為500。

構(gòu)造編輯標(biāo)簽序列

在定義好標(biāo)簽、構(gòu)造完詞典之后,就可以根據(jù)訓(xùn)練語(yǔ)料中的源文本和目標(biāo)文本構(gòu)造出對(duì)應(yīng)編輯標(biāo)簽序列,進(jìn)行有監(jiān)督學(xué)習(xí)。

構(gòu)造編輯標(biāo)簽序列的算法如圖4中偽代碼所示。該算法主要采用貪心匹配的思想,通過(guò)設(shè)置兩個(gè)指針(is與it)對(duì)源文本和目標(biāo)文本進(jìn)行遍歷,進(jìn)而構(gòu)造出標(biāo)簽序列。值得注意的是偽代碼中并未給出PDELETE標(biāo)簽如何生成。筆者猜測(cè)可能是由于PDELETE標(biāo)簽與PKEEP標(biāo)簽實(shí)際上可以相互替代(如圖5所示),在實(shí)驗(yàn)中二者使用一個(gè)即可。

2.2 模型概述

本文設(shè)計(jì)的LaserTagger有兩種變體:LaserTaggerFF與LaserTaggerAR。前者Decoder部分采用前饋網(wǎng)絡(luò)(feed forward network),推理速度更快;后者Decoder部分采用的是1層Transformer Decoder,推理效果更好。兩種變體Encoder部分均與BERT-base結(jié)構(gòu)相同,為12層Transformer Encoder。

3. Seq2Edits

Seq2Edits是Google Research在 “Seq2Edits: Sequence Transduction Using Span-level Edit Operations” 一文中提出的文本生成模型,該論文發(fā)表于EMNLP 2020。

本篇工作的主要改進(jìn)有:

(1)與LaserTagger不同,Seq2Edits是在span-level上進(jìn)行標(biāo)簽標(biāo)注。即,LaserTagger對(duì)每一個(gè)詞(token)標(biāo)注一個(gè)編輯標(biāo)簽,而Seq2Edits對(duì)一個(gè)或多個(gè)詞(span)標(biāo)注一個(gè)編輯標(biāo)簽。

論文作者認(rèn)為在span-level上進(jìn)行標(biāo)注操作能夠更好地對(duì)局部依賴(local dependencies)進(jìn)行建模,而對(duì)于語(yǔ)法糾錯(cuò)等生成任務(wù)而言,人類實(shí)際解決這類問(wèn)題時(shí)的主要根據(jù)也是span與span間的局部依賴,因此在span-level上進(jìn)行標(biāo)注操作也與人類實(shí)際解決問(wèn)題時(shí)的思路相吻合。

(2)Seq2Edits將標(biāo)注操作進(jìn)一步細(xì)化,每一個(gè)span對(duì)應(yīng)的編輯標(biāo)簽都由一個(gè)三元組組成,相比LaserTagger的標(biāo)簽定義方式粒度更細(xì),因此可解釋性也更好。

(3)推理時(shí)間不再取決于目標(biāo)文本的長(zhǎng)度,而是依賴于編輯操作的規(guī)模。推理速度相比傳統(tǒng)seq2seq模型仍得到大幅提升。

3.1 主要方法

標(biāo)注操作定義

Seq2Edits的標(biāo)注操作與LaserTagger主要有兩點(diǎn)不同:(1)Seq2Edits是在span-level上打標(biāo)簽;(2)Seq2Edits的編輯標(biāo)簽被定義為三元組的形式。

編輯標(biāo)簽被定義為一個(gè)三元組,其中代表編輯操作類型(例如修改標(biāo)點(diǎn),修改動(dòng)詞形式等),代表編輯操作的結(jié)束位置(默認(rèn)當(dāng)前操作的開始位置為上一個(gè)標(biāo)簽的結(jié)束位置),為替換短語(yǔ)(保留原文為)。

生成任務(wù)表示

設(shè)源文本為序列,長(zhǎng)度為;目標(biāo)文本為序列,長(zhǎng)度為。

則傳統(tǒng)seq2seq思路下文本生成任務(wù)可表示為:

使用本文方法,則任務(wù)可表示為:

以圖7中句子為例,若源文本、目標(biāo)文本分別為:

則編輯標(biāo)簽序列為:

從源文本到目標(biāo)文本的過(guò)程則可表示為:

從本文對(duì)生成任務(wù)的概率表示中可以看出,在每一個(gè)上,標(biāo)簽三元組中相互并不是條件獨(dú)立的,而是有著一定的依賴關(guān)系,即:

因此,模型在預(yù)測(cè)標(biāo)簽三元組時(shí)存在著先后順序:在第個(gè)上,先預(yù)測(cè),然后預(yù)測(cè),最后預(yù)測(cè)。

3.2 模型概述

在理解Seq2Edits生成文本的概率表示后就不難理解其模型結(jié)構(gòu)。Seq2Edits沿用了標(biāo)準(zhǔn)的Transformer Encoder-Decoder結(jié)構(gòu),將Decoder分為A和B兩部分來(lái)分別預(yù)測(cè)標(biāo)簽、和。Decoder A和Decoder B之間使用殘差連接(residual connections)。

對(duì)于位置標(biāo)簽的預(yù)測(cè)基于pointer-network,使用了類似Transformer中attention的機(jī)制,即:其中(queries)來(lái)自歷史的decoder states,(keys)和(values)來(lái)自當(dāng)前的encoder states。

本期介紹了Google Research的LaserTagger和Seq2Edits兩篇工作,下一期將繼續(xù)介紹Google的第三篇工作FELIX以及三篇工作的實(shí)驗(yàn)評(píng)價(jià)部分和總結(jié),敬請(qǐng)關(guān)注。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1801

    瀏覽量

    60238

原文標(biāo)題:基于編輯方法的文本生成(上)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌查找我的設(shè)備配件(Google Find My Device Accessory)詳解和應(yīng)用

    谷歌查找我的設(shè)備配件(Google Find My Device Accessory)介紹 谷歌查找我的設(shè)備配件是與谷歌 “查找我的設(shè)備” 應(yīng)用程序配合使用的配件,旨在幫助用戶更方便地追蹤和定位個(gè)人
    發(fā)表于 08-31 21:10

    Google Fast Pair服務(wù)簡(jiǎn)介

    Google Fast Pair 是一項(xiàng)利用低功耗藍(lán)牙(Bluetooth LE)技術(shù),實(shí)現(xiàn)設(shè)備間快速安全配對(duì)及提供多種服務(wù)的協(xié)議。其主要功能包括: 設(shè)備處于配對(duì)模式時(shí),顯示半頁(yè)通知,便于用戶進(jìn)行
    發(fā)表于 06-29 19:28

    同步電機(jī)失步淺析

    純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:同步電機(jī)失步淺析.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問(wèn)題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容!
    發(fā)表于 06-20 17:42

    2025 Google I/O大會(huì)演講亮點(diǎn)回顧

    在今年的 Google I/O 大會(huì)上,我們展示了如何在 Google 的各個(gè)平臺(tái)進(jìn)行應(yīng)用構(gòu)建,并利用 Google DeepMind 的卓越 AI 模型實(shí)現(xiàn)創(chuàng)新,大展拳腳。以下是開發(fā)者主旨演講中的重磅亮點(diǎn)內(nèi)容,不容錯(cuò)過(guò)。
    的頭像 發(fā)表于 05-28 09:34 ?752次閱讀

    Google推出全新Cloud WAN解決方案

    超過(guò) 25 年來(lái),Google 一直在推動(dòng)網(wǎng)絡(luò)技術(shù)的邊界,其創(chuàng)新連接了全球數(shù)十億用戶使用 Gmail、YouTube 和 Search 等核心服務(wù)。這一切的基礎(chǔ)是 Google 龐大的骨干網(wǎng)絡(luò)。憑借
    的頭像 發(fā)表于 05-14 16:48 ?1096次閱讀

    NVIDIA Research在多個(gè)領(lǐng)域不斷取得突破

    近二十年來(lái),NVIDIA Research 的研究成果催生了包括 NVIDIA DLSS、NVLink 和 Cosmos 在內(nèi)的標(biāo)志性產(chǎn)品。
    的頭像 發(fā)表于 03-28 09:52 ?725次閱讀

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼里有處理DMA請(qǐng)求,這是出于什么考慮?

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼里有處理DMA請(qǐng)求,這是出于什么考慮?求解答!
    發(fā)表于 03-14 09:01

    如何開發(fā)一款Google Find My Tag?

    My 網(wǎng)絡(luò)的配件(如 AirTag)。通過(guò)結(jié)合 GPS、藍(lán)牙和眾包網(wǎng)絡(luò),F(xiàn)ind My 提供了高精度的定位功能,同時(shí)保護(hù)用戶隱私 Google Find My網(wǎng)絡(luò)同樣也是由數(shù)億臺(tái)運(yùn)行較新版本
    發(fā)表于 03-05 17:39

    隆基榮膺EUPD Research“2025年美國(guó)頂級(jí)光伏品牌”

    近日,隆基榮膺EUPD Research授予的“2025年美國(guó)頂級(jí)光伏品牌”獎(jiǎng)項(xiàng)。
    的頭像 發(fā)表于 02-27 16:36 ?868次閱讀

    Arm技術(shù)助力Google Axion處理器加速AI工作負(fù)載推理

    由 Arm Neoverse V2 平臺(tái)賦能的 Google Axion 處理器已在 Google Cloud 上正式上線,其中,C4A 是首款基于 Axion 的云虛擬機(jī),為基于 CPU 的人工智能 (AI) 推理和通用云工作
    的頭像 發(fā)表于 02-14 14:11 ?933次閱讀
    Arm技術(shù)助力<b class='flag-5'>Google</b> Axion處理器加速AI工作負(fù)載推理

    Lam Research擬在印度投資12億美元

    近日,美國(guó)芯片工具制造商Lam Research宣布了一項(xiàng)重大投資決策,計(jì)劃在未來(lái)幾年內(nèi)向印度南部卡納塔克邦投資超過(guò)1000億盧比(折合美元約為12億)。這一舉措標(biāo)志著Lam Research在印度
    的頭像 發(fā)表于 02-13 09:57 ?625次閱讀

    Thorlabs收購(gòu)MEMS VCSEL先驅(qū)者Praevium Research

    據(jù)報(bào)道,總部位于美國(guó)加州的領(lǐng)先光學(xué)解決方案提供商Thorlabs,近日宣布成功收購(gòu)MEMS垂直腔面發(fā)射激光器(VCSEL)領(lǐng)域的先驅(qū)者Praevium Research。這一戰(zhàn)略收購(gòu)標(biāo)志著兩家
    的頭像 發(fā)表于 01-24 10:45 ?746次閱讀

    如何利用Google Play實(shí)現(xiàn)出海應(yīng)用增長(zhǎng)

    本文內(nèi)容來(lái)自于活動(dòng)演講內(nèi)容的整理和總結(jié),演講人分別: Google Play 應(yīng)用增長(zhǎng)顧問(wèn) Tammy Taw,Google Play 商業(yè)拓展經(jīng)理 Christina Li,Google Play
    的頭像 發(fā)表于 01-22 11:52 ?1091次閱讀
    如何利用<b class='flag-5'>Google</b> Play實(shí)現(xiàn)出海應(yīng)用增長(zhǎng)

    Google Play如何幫助您的應(yīng)用變現(xiàn)

    本文內(nèi)容來(lái)自于活動(dòng)演講內(nèi)容的整理和總結(jié),演講人分別為: Google Play 資深產(chǎn)品經(jīng)理 Kalpa Raj 和 Google Play 商業(yè)拓展經(jīng)理 Maya Ma ? 在 Google
    的頭像 發(fā)表于 01-21 11:21 ?1085次閱讀
    <b class='flag-5'>Google</b> Play如何幫助您的應(yīng)用變現(xiàn)

    Google DeepMind發(fā)布Genie 2:打造交互式3D虛擬世界

    在OpenAI宣布即將發(fā)布新模型和新功能后,Google DeepMind也不甘落后,于近日推出了大型基礎(chǔ)世界模型——Genie 2。這款模型能夠生成各種可控制動(dòng)作、可玩的3D環(huán)境,為用戶帶來(lái)全新
    的頭像 發(fā)表于 12-05 14:16 ?1572次閱讀