chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用算法開發(fā)了一種新的自然語言生成解碼方式

深度學(xué)習(xí)自然語言處理 ? 來源:夕小瑤的賣萌屋 ? 作者:Yimin_飯煲 ? 2022-08-02 14:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

相信大多數(shù)學(xué)習(xí)過人工智能課程的讀者,當(dāng)聽到算法的時(shí)候,都會(huì)有一種既熟悉又陌生的感覺。說算法熟悉,是因?yàn)橐宦牭竭@個(gè)算法,就想起那本厚厚的《人工智能——一種現(xiàn)代的方法》,想起這個(gè)算法似乎是人工智能課程考試的重點(diǎn);說算法陌生,是因?yàn)榇蠹椰F(xiàn)在在從事人工智能相關(guān)的研究和開發(fā)工作時(shí),似乎又很少用到這個(gè)算法,大部分時(shí)間都花在了研究數(shù)據(jù)處理和處理實(shí)驗(yàn)設(shè)置上面。而在NAACL2022上,一群來自AI2的自然語言處理研究者們利用算法開發(fā)了一種新的自然語言生成解碼方式,還被授予了NAACL2022 Best New Method paper??雌饋硪呀?jīng)過時(shí)的A*算法,居然能在深度學(xué)習(xí)時(shí)代有如此的妙用,看完這篇論文,筆者情不自禁地打開了《人工智能——一種現(xiàn)代的方法》,想看看還有什么經(jīng)典算法可以深挖一下!

論文標(biāo)題:
NEUROLOGIC A*esque Decoding: Constrained Text Generation with Lookahead Heuristics

論文鏈接:
https://arxiv.org/pdf/2112.08726.pdf

問題背景

自然語言生成任務(wù)一般指給定一個(gè)輸入序列,生成一個(gè)輸出序列。目的是解出使得目標(biāo)函數(shù)最大化的序列,其中, , 而衡量對(duì)約束條件的滿足。傳統(tǒng)的Beam Search不考慮全局的最優(yōu),而是最優(yōu)化當(dāng)前步驟添加的Token.

為了達(dá)到全局最優(yōu)的效果,需要滿足如下的優(yōu)化目標(biāo)

主要方法

前向啟發(fā)算法

直接優(yōu)化全局最優(yōu)目標(biāo)面臨著搜索空間過大的問題。而A算法可以被用來解決這個(gè)搜索問題。A算法是一個(gè)最優(yōu)優(yōu)先的搜索算法,可以解決這樣形式的搜索問題:

其中是迄今為止的分?jǐn)?shù),是對(duì)于未來分?jǐn)?shù)的啟發(fā)式估計(jì)。因此我們將優(yōu)化目標(biāo)修改為如下形式

同時(shí),需要限制前向搜索的長度為,避免模型無限制地向前搜索

在前向生成的過程中有幾種不同的方法。方法只生成一個(gè)序列,從開始,每次選擇概率最大的Token。方法采用插值的思想,混合方法和隨機(jī)選擇一個(gè)Token的概率分布。方法從開始進(jìn)行步的Beam Search,選擇前個(gè)概率最大的序列, 而方法則是直接從按照概率進(jìn)行采樣。

無限制生成

在無限制生成的場景下,使用的優(yōu)化函數(shù)為

其中控制的是對(duì)未來估計(jì)的重視程度,類似于加權(quán)算法

受限制生成

在受限制生成任務(wù)上,作者們基于之前的工作NeuroLogic進(jìn)行改進(jìn)。首先我們簡要介紹一下NeuroLogic方法。首先,將對(duì)生成文本的限制表示為合取范式。其中每一個(gè)表示一個(gè)限制條件,。NeuroLogic的優(yōu)化目標(biāo)可以寫為

其中遠(yuǎn)大于0,用來懲罰不滿足的約束。在每一步搜索時(shí),NeuroLogic利用如下的打分函數(shù)進(jìn)行計(jì)算

其中是約束條件的前綴,這個(gè)優(yōu)化函數(shù)的目標(biāo)是獎(jiǎng)勵(lì)那些滿足約束條件的樣本。接下來,作者們加入了前向啟發(fā)函數(shù)

這樣的前向啟發(fā)函數(shù)有兩個(gè)好處,如果是滿足多Token約束的一個(gè)Token,前向啟發(fā)函數(shù)包含了全部約束的分?jǐn)?shù),如果不是約束的一部分,如果被選中,這一前向策略能考慮到未來約束的分?jǐn)?shù)。

實(shí)驗(yàn)結(jié)果

無限制生成

0b4c6ef6-118e-11ed-ba43-dac502259ad0.png

作者們?cè)诠适律扇蝿?wù)上開展了實(shí)驗(yàn),可以發(fā)現(xiàn)提出的方法不論是在流暢性,豐富性還是人工評(píng)估上都有著很好的表現(xiàn)。

受限制生成

在受限制生成方面,作者們?cè)诔WR(shí)生成,機(jī)器翻譯,表格到文本生成,問題生成等任務(wù)上開展了實(shí)驗(yàn)。在這里展示常識(shí)生成方面的結(jié)果。這一任務(wù)的主要內(nèi)容是給定一系列概念,利用全部概念生成一個(gè)合理的句子.

0b65b0be-118e-11ed-ba43-dac502259ad0.png

可以發(fā)現(xiàn),作者們提出的方法在多個(gè)指標(biāo)上都明顯超越了基線模型,取得了很好的效果。

0b779a5e-118e-11ed-ba43-dac502259ad0.png

從文章中給出的例子來看,作者們提出的方法確實(shí)有著更好的生成效果。

結(jié)語

本文的方法實(shí)現(xiàn)并不復(fù)雜,所用到的原理和思想也是非常經(jīng)典的人工智能算法,但卻取得了非常不錯(cuò)的性能,一舉摘得了NAACL2022的最佳方法論文。看來,好的研究并不是追逐熱點(diǎn),調(diào)參魔改結(jié)構(gòu)的增量式創(chuàng)新,而是打好數(shù)學(xué)基礎(chǔ),深入地思考研究問題,廣泛接觸各個(gè)領(lǐng)域的算法,才能在發(fā)現(xiàn)領(lǐng)域的關(guān)鍵待解決問題時(shí)取得成果~

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95401
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249561
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122798

原文標(biāo)題:NAACL最佳方法論文 | 課本上的A*搜索算法可以提升文本生成效果!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    語言模型的解碼策略與關(guān)鍵優(yōu)化總結(jié)

    的技術(shù)參考。主要涵蓋貪婪解碼、束搜索、采樣技術(shù)等核心解碼方法,以及溫度參數(shù)、懲罰機(jī)制等關(guān)鍵優(yōu)化手段。大型語言模型的技術(shù)基礎(chǔ)大型語言模型是當(dāng)代自然語言
    的頭像 發(fā)表于 02-18 12:00 ?587次閱讀
    大<b class='flag-5'>語言</b>模型的<b class='flag-5'>解碼</b>策略與關(guān)鍵優(yōu)化總結(jié)

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測或決策。自然語言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供了一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識(shí),從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?1987次閱讀

    語音識(shí)別與自然語言處理的關(guān)系

    在人工智能的快速發(fā)展中,語音識(shí)別和自然語言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語音識(shí)別技術(shù)使得機(jī)器能夠理解人類的語音,而自然語言處理則讓機(jī)器能夠理解、解釋和生成人類語言。這兩項(xiàng)技術(shù)
    的頭像 發(fā)表于 11-26 09:21 ?1507次閱讀

    什么是LLM?LLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語言理解能力的次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得
    的頭像 發(fā)表于 11-19 15:32 ?3659次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動(dòng)語音識(shí)別)與自然語言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)谠S多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1026次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種
    的頭像 發(fā)表于 11-15 14:58 ?807次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢而在NLP中
    的頭像 發(fā)表于 11-15 09:41 ?816次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長短期記憶(LSTM)網(wǎng)
    的頭像 發(fā)表于 11-13 09:56 ?1163次閱讀

    自然語言處理的未來發(fā)展趨勢

    隨著技術(shù)的進(jìn)步,自然語言處理(NLP)已經(jīng)成為人工智能領(lǐng)域的個(gè)重要分支。NLP的目標(biāo)是使計(jì)算機(jī)能夠理解、解釋和生成人類語言,這不僅涉及到語言
    的頭像 發(fā)表于 11-11 10:37 ?1727次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的區(qū)別

    是計(jì)算機(jī)科學(xué)、人工智能和語言學(xué)領(lǐng)域的分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。NLP的目標(biāo)是縮小人類語言和計(jì)算機(jī)之間的差距,使計(jì)算機(jī)能夠處理和
    的頭像 發(fā)表于 11-11 10:35 ?1554次閱讀

    使用LLM進(jìn)行自然語言處理的優(yōu)缺點(diǎn)

    自然語言處理(NLP)是人工智能和語言學(xué)領(lǐng)域的個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。大型
    的頭像 發(fā)表于 11-08 09:27 ?2458次閱讀

    AI大模型在自然語言處理中的應(yīng)用

    AI大模型在自然語言處理(NLP)中的應(yīng)用廣泛且深入,其強(qiáng)大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對(duì)AI大模型在NLP中應(yīng)用的介紹: 、核心應(yīng)用 文本生成 AI
    的頭像 發(fā)表于 10-23 14:38 ?1547次閱讀

    AI智能化問答:自然語言處理技術(shù)的重要應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。問答系統(tǒng)作為NLP的個(gè)重要應(yīng)用,能夠精確
    的頭像 發(fā)表于 10-12 10:58 ?1097次閱讀
    AI智能化問答:<b class='flag-5'>自然語言</b>處理技術(shù)的重要應(yīng)用

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的表達(dá)方式生成能力。通過預(yù)測文本中缺失的部分或下個(gè)詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語言
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)介紹了機(jī)器學(xué)習(xí),從方法論上來看,機(jī)器學(xué)習(xí)屬于歸納推理;從開發(fā)設(shè)計(jì)方式來看,機(jī)器學(xué)習(xí)屬于自動(dòng)編程。我們平時(shí)使用各種計(jì)算機(jī)高級(jí)語言編寫程序代碼,這屬于人工編程的范疇;機(jī)器學(xué)習(xí)則由算法
    發(fā)表于 07-25 14:33