chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

無(wú)需翻譯的無(wú)監(jiān)督復(fù)述的新方法:允許從輸入句子生成多樣化、但語(yǔ)義上接近的句子

DPVg_AI_era ? 來(lái)源:lq ? 2019-06-29 07:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

無(wú)需翻譯的無(wú)監(jiān)督復(fù)述的新方法:允許從輸入句子生成多樣化、但語(yǔ)義上接近的句子。模型基于矢量量化自動(dòng)編碼器(VQ-VAE),可以在單純語(yǔ)言環(huán)境中解釋句子。它還具有獨(dú)特的功能,即與量化瓶頸并行的殘余連接,可以更好地控制解碼器熵并簡(jiǎn)化優(yōu)化過(guò)程。

近年來(lái),研究人員一直在嘗試開發(fā)自動(dòng)復(fù)述的方法,復(fù)述就是對(duì)相同語(yǔ)義的不同表達(dá),例如一句話,可以有一千種說(shuō)法。這需要從文本中自動(dòng)抽象語(yǔ)義內(nèi)容。

由于缺乏可用的復(fù)映對(duì)標(biāo)記數(shù)據(jù)集,目前更多的是使用依賴于機(jī)器翻譯(MT)技術(shù)的方法,已經(jīng)被證明非常受歡迎。

理論上來(lái)看,翻譯技術(shù)可能是自動(dòng)復(fù)述的有效解決方案,因?yàn)榉g技術(shù)是從語(yǔ)言實(shí)現(xiàn)中抽象出語(yǔ)義內(nèi)容。例如,將相同的句子分配給不同的翻譯者,最終翻譯出來(lái)的內(nèi)容通常是有差別的,這樣就得到一個(gè)豐富的解釋集,在復(fù)述任務(wù)中可能會(huì)非常有用。

盡管許多研究人員已經(jīng)開發(fā)出基于翻譯的自動(dòng)復(fù)述方法,但顯然人類并不需要翻譯才能解釋句子。

基于這一觀察結(jié)果,Google Research的兩位研究人員最近提出了一種新的復(fù)述技術(shù),可以不依賴機(jī)器翻譯的方法。

在預(yù)先發(fā)表在arXiv上的論文中,他們將這種單語(yǔ)方法與其他翻譯技巧進(jìn)行了比較(例如監(jiān)督翻譯和無(wú)監(jiān)督翻譯方法),該論文被引用了47次。

進(jìn)行這項(xiàng)研究的兩位研究人員Aurko Roy和David Grangier在他們的論文中寫道:“這項(xiàng)工作建議只從未標(biāo)記的單語(yǔ)語(yǔ)料庫(kù)中學(xué)習(xí)復(fù)述模型…為此,我們提出了矢量量化變分自動(dòng)編碼器的殘差變量?!?/p>

Aurko Roy

David Grangier

研究人員介紹的模型基于矢量量化自動(dòng)編碼器(VQ-VAE),可以在單純語(yǔ)言環(huán)境中解釋句子。同時(shí),它還具有獨(dú)特的特征(即與量化瓶頸并行的殘余連接),這使得能夠更好地控制解碼器熵、并簡(jiǎn)化優(yōu)化過(guò)程。他們的模型只需要在一種語(yǔ)言中使用未標(biāo)記的數(shù)據(jù):即用語(yǔ)言來(lái)解釋句子。

研究人員在論文中解釋道:“與連續(xù)自動(dòng)編碼器相比,我們的方法允許從輸入句子生成多樣化、但語(yǔ)義上接近的句子?!?/p>

在研究中,Roy和Grangier將他們的模型表現(xiàn)與其他基于MT的方法在復(fù)述識(shí)別、生成和訓(xùn)練增強(qiáng)方面的表現(xiàn)進(jìn)行了比較。

他們特別將這種方法,與在平行雙語(yǔ)數(shù)據(jù)上訓(xùn)練的監(jiān)督翻譯方法、以及在兩種不同語(yǔ)言的非平行文本上訓(xùn)練的無(wú)監(jiān)督翻譯方法進(jìn)行了比較。

研究人員發(fā)現(xiàn),他們的單語(yǔ)方法在所有任務(wù)中均優(yōu)于無(wú)監(jiān)督翻譯技術(shù)。另一方面,他們的模型和監(jiān)督翻譯方法之間的比較產(chǎn)生了混合的結(jié)果:?jiǎn)握Z(yǔ)方法在識(shí)別和增強(qiáng)任務(wù)中表現(xiàn)更好,而監(jiān)督翻譯方法在復(fù)述生成方面表現(xiàn)更好。

研究人員總結(jié)道:“總的來(lái)說(shuō),我們發(fā)現(xiàn)在進(jìn)行復(fù)述識(shí)別和數(shù)據(jù)增強(qiáng)方面,單語(yǔ)模型可以勝過(guò)雙語(yǔ)模式。單語(yǔ)模型的生成質(zhì)量要高于基于無(wú)監(jiān)督翻譯的模型,但并不高于基于有監(jiān)督翻譯的模型?!?/p>

Roy和Grangier的研究結(jié)果表明,雖然使用雙語(yǔ)并行數(shù)據(jù)(即文本及在其他語(yǔ)言中的可能翻譯)在產(chǎn)生復(fù)述能夠得到更卓越的表現(xiàn)。然而,在雙語(yǔ)數(shù)據(jù)不易獲得的情況下,谷歌研究院提出的單語(yǔ)模型可能是一種有用的資源或替代解決方案。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1204

    瀏覽量

    42911
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6246

    瀏覽量

    110407
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1232

    瀏覽量

    26075

原文標(biāo)題:谷歌NLP新方法:無(wú)需翻譯,質(zhì)量?jī)?yōu)于無(wú)監(jiān)督翻譯模型

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無(wú)刷直流電機(jī)反電勢(shì)過(guò)零檢測(cè)新方法

    附件免費(fèi)獲取完整資料~~~ *附件:無(wú)刷直流電機(jī)反電勢(shì)過(guò)零檢測(cè)新方法.pdf 【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問(wèn)題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容,謝謝!
    發(fā)表于 06-26 13:50

    NLPIR語(yǔ)義分析是對(duì)自然語(yǔ)言處理的完美理解

    單位,詞語(yǔ)具有特定的語(yǔ)義和內(nèi)涵。在詞語(yǔ)層次上,詞語(yǔ)語(yǔ)義分析意味著詞語(yǔ)的內(nèi)涵分析、詞語(yǔ)之間的語(yǔ)義相似度或相關(guān)度分析,這是句子分析和篇章語(yǔ)義分析
    發(fā)表于 10-19 11:34

    深入挖掘通用句子編碼器的每個(gè)組成部分

    是有用的。Cer et. al提出了一種稱為“通用句子編碼器”的模型。在這篇文章中,我將解釋“Universal Sentence Encoder(通用句子編碼器)”背后的核心思想,以及它如何
    發(fā)表于 11-02 15:23

    一種改進(jìn)的句子相似度計(jì)算模型

    在基于實(shí)例的機(jī)器翻譯中,句子相似度計(jì)算是實(shí)例匹配的有效機(jī)制。該文對(duì)基于相同詞的句子相似模型作進(jìn)一步的改進(jìn),包括關(guān)鍵詞抽取,以及在句子相似度的定義中引入同義詞
    發(fā)表于 11-20 15:18 ?9次下載

    英漢機(jī)器翻譯中基于模式的譯文生成

    本文介紹一種基于模式的機(jī)器翻譯的譯文生成方法,并提出一種句法結(jié)構(gòu)與語(yǔ)義信息相結(jié)合的模板匹配算法。最后給出本算法對(duì)英語(yǔ)句子進(jìn)行測(cè)試的實(shí)驗(yàn)結(jié)果。
    發(fā)表于 09-25 16:26 ?15次下載

    漢語(yǔ)句子聯(lián)想生成

    在一定的語(yǔ)言環(huán)境中漢語(yǔ)詞語(yǔ)之間存在著優(yōu)先組合搭配關(guān)系,據(jù)此,在本文中利用互信息、數(shù)理統(tǒng)計(jì)和人腦聯(lián)想記憶的相關(guān)理論,設(shè)計(jì)了一個(gè)漢語(yǔ)句子聯(lián)想生成器,使用該生成
    發(fā)表于 09-26 14:25 ?20次下載

    語(yǔ)義、句式以及變量為基礎(chǔ)的翻譯方法

    模式的基礎(chǔ)上對(duì)動(dòng)詞進(jìn)行詳細(xì)的研究。在對(duì)語(yǔ)義進(jìn)行歸納總結(jié)以后,將動(dòng)詞的語(yǔ)義模式分為三類,再將動(dòng)詞語(yǔ)義模式庫(kù)進(jìn)行搭建,最后設(shè)計(jì)出一種以語(yǔ)義、句式以及變量為基礎(chǔ)的
    發(fā)表于 11-11 12:00 ?14次下載
    以<b class='flag-5'>語(yǔ)義</b>、句式以及變量為基礎(chǔ)的<b class='flag-5'>翻譯</b><b class='flag-5'>方法</b>

    基于分層組合模式的句子組合模型

    閱讀理解任務(wù)需要綜合運(yùn)用文本的表示、理解、推理等自然語(yǔ)言處理技術(shù)。針對(duì)高考語(yǔ)文中文學(xué)作品閱讀理解的選項(xiàng)題問(wèn)題,提出了基于分層組合模式的句子組合模型,用來(lái)實(shí)現(xiàn)句子級(jí)的語(yǔ)義一致性計(jì)算。首先,通過(guò)單個(gè)詞
    發(fā)表于 12-01 13:38 ?0次下載
    基于分層組合模式的<b class='flag-5'>句子</b>組合模型

    基于LDA模型的句子主題特征

    (extractive)和理解式摘要(abstractive)。抽取式摘要直接原文中抽取重要的句子作為摘要句,而理解式摘要?jiǎng)t通過(guò)對(duì)文章進(jìn)行句法、語(yǔ)義和篇章結(jié)構(gòu)的分析獲取文檔的意義,再通過(guò)自然語(yǔ)言
    發(fā)表于 12-14 15:44 ?5次下載
    基于LDA模型的<b class='flag-5'>句子</b>主題特征

    句子相似度計(jì)算方法

    在計(jì)算詞語(yǔ)語(yǔ)義相似度的基礎(chǔ)上,提出一種以句子中心詞為基準(zhǔn)衡量詞語(yǔ)組合相對(duì)位置偏移量的句子相似度計(jì)算方法。根據(jù)詞語(yǔ)詞性和語(yǔ)法規(guī)則確定句子中心詞
    發(fā)表于 01-25 14:25 ?1次下載

    自然語(yǔ)言的語(yǔ)義表示學(xué)習(xí)方法與應(yīng)用

    在獲取句子或文檔的語(yǔ)義表示時(shí),一段話的語(yǔ)義由其各組成部分的語(yǔ)義,以及它們之間的組合方法所確定[8]。由此,一些工作開始嘗試根據(jù)
    的頭像 發(fā)表于 03-08 14:33 ?7844次閱讀

    腦機(jī)接口最新研究能將神經(jīng)信號(hào)直接映射為句子

    據(jù)英國(guó)《自然·神經(jīng)科學(xué)》雜志30日發(fā)表的一項(xiàng)腦機(jī)接口最新研究,美國(guó)科學(xué)家報(bào)告了一種能夠以較高準(zhǔn)確率解碼神經(jīng)活動(dòng),并將其翻譯句子的機(jī)器翻譯算法。通過(guò)該算法,可將神經(jīng)信號(hào)直接映射為句子。
    的頭像 發(fā)表于 03-31 16:32 ?3421次閱讀

    一種無(wú)監(jiān)督下利用多模態(tài)文檔結(jié)構(gòu)信息幫助圖片-句子匹配的采樣方法

    的共現(xiàn)結(jié)構(gòu)信息幫助采樣完成句子-圖片匹配的方法。本文的合作單位是杭州之江實(shí)驗(yàn)室。 ? ? 文章摘要 ? 文章針對(duì)無(wú)監(jiān)督句子圖片匹配任務(wù)?,F(xiàn)
    的頭像 發(fā)表于 12-26 10:26 ?2907次閱讀
    一種<b class='flag-5'>無(wú)</b><b class='flag-5'>監(jiān)督</b>下利用多模態(tài)文檔結(jié)構(gòu)信息幫助圖片-<b class='flag-5'>句子</b>匹配的采樣<b class='flag-5'>方法</b>

    BERT得到最強(qiáng)句子Embedding的打開方式

    不成? nono,你知道這樣得到的句子表示捕捉到的語(yǔ)義信息其實(shí)很弱嗎?今天向大家介紹一篇來(lái)自于 CMU 和字節(jié)跳動(dòng)合作,發(fā)表在 EMNLP2020 的 paper, 詳盡地分析了預(yù)訓(xùn)練模型得到
    的頭像 發(fā)表于 12-31 10:10 ?9517次閱讀

    基于句子級(jí)上下文的神經(jīng)機(jī)器翻譯綜述

    基于句子級(jí)上下文的神經(jīng)機(jī)器翻譯綜述
    發(fā)表于 06-29 16:26 ?64次下載