chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于知識的對話生成任務(wù)

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2022-09-05 09:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

研究動機(jī)

基于知識的對話生成任務(wù)(Knowledge-Grounded Dialogue Generation,KGD)是當(dāng)前對話系統(tǒng)的研究熱點(diǎn),這個任務(wù)旨在基于對話歷史和外部知識來生成的富含信息量的回復(fù)語句。目前的工作通常使用結(jié)構(gòu)化知識圖(KGs)或非結(jié)構(gòu)化文本作為知識來源。這些外部的知識來源可以緩解傳統(tǒng)生成模型產(chǎn)生的無意義和乏味的回復(fù),比如“我不知道”和“是的”。

最近的一些工作使得有些學(xué)者認(rèn)識到實體(Entity)之間的相關(guān)性在多輪對話中起著重要的作用,因此他們提出在知識圖譜中挖掘?qū)嶓w之間有價值的結(jié)構(gòu)信息,以預(yù)測下一個回復(fù)中可能出現(xiàn)的實體,并利用預(yù)測的實體進(jìn)一步指導(dǎo)回復(fù)語句的生成。然而,這種方法也存在兩個缺陷:

? 一方面,entity-guided KGD方法將對話中的實體作為唯一的知識去指導(dǎo)模型對上下文的理解和回復(fù)的生成,而忽略了KG中實體之間的關(guān)系(relation)的重要性。然而,人類對話背后的規(guī)律性可以概括為一系列話題的轉(zhuǎn)換,其中每個話題可能對應(yīng)于一個關(guān)系邊,而不是KG中的單個實體。

?另一方面,現(xiàn)有的KGD方法僅利用最后一個對話回合中的知識去預(yù)測后續(xù)回復(fù)中的知識,這種方式并不足以學(xué)習(xí)人類如何在多輪對話中如何轉(zhuǎn)換話題。

下圖是一個知識對話的示例。Dialogue Context(a)展示了一個對話上下文,兩個用戶從萊昂納多的職業(yè)聊到了他的代表作泰坦尼克號,然后討論了泰坦尼克號這部電影的類型和主演陣容,并將最后的焦點(diǎn)實體落在凱特溫斯萊特上。KG(b)展示了在這個對話過程中所有涉及到的實體以及它們在KG中的三元組。由這兩個信息源可以得到兩種貫穿這段對話的語言邏輯:

a. 回合級實體過渡路徑:萊昂納多——>泰坦尼克號——>凱特溫斯萊特

b.對話級關(guān)系轉(zhuǎn)換路徑:職業(yè)——>代表作——>電影類型/主演

23d9189c-2c47-11ed-ba43-dac502259ad0.png

由此可見,如果不建模多輪知識,生成的回復(fù)可能是冗余且不連貫的,如Badcase1;如果只關(guān)注回合級的實體過渡路徑,而忽略整個對話中話題的潛在轉(zhuǎn)換路徑時,模型生成的回復(fù)可能非常突兀,無法和對話上下文的語言邏輯順暢地銜接起來,如Badcase2。

PART 02

貢 獻(xiàn)

因此,本文提出了一種新的KGD模型:RT-KGDRelation Transition aware Knowledge-Grounded Dialogue Generation),該模型通過將對話級的關(guān)系轉(zhuǎn)換規(guī)律與回合級的實體語義信息相結(jié)合,來模擬多輪對話過程中的知識轉(zhuǎn)換。具體來說,作者利用多輪對話上下文中包含的所有關(guān)系和實體,構(gòu)建了MHKT-PathMulti-turn Heterogeneous Knowledge Transition Path),它可以看作是外部KG的一個子圖,同時又結(jié)合了多輪對話中關(guān)系和實體出現(xiàn)的順序信息?;谒鶚?gòu)建的MHKT-Path,作者設(shè)計了一個知識預(yù)測模塊,從外部KG中檢索三元組作為后續(xù)回復(fù)中可能出現(xiàn)的知識,最后融合對話上下文和預(yù)測的三元組以生成回復(fù)語句。本文的主要貢獻(xiàn)有以下三點(diǎn):

? 本文是第一個將跨多輪對話中的關(guān)系轉(zhuǎn)換引入KGD任務(wù)的工作,通過整合關(guān)系轉(zhuǎn)換路徑和實體語義信息來學(xué)習(xí)人類對話背后的規(guī)律性。

? RT-KGD為每個對話都構(gòu)建一個多輪異構(gòu)知識轉(zhuǎn)換路徑(MHKT-Path),它將外部KG的結(jié)構(gòu)信息和知識的順序信息結(jié)合起來?;贛HKT-Path,模型可以從KG中檢索適當(dāng)?shù)闹R,以指導(dǎo)下一個回復(fù)的生成。

? 在多領(lǐng)域知識驅(qū)動的對話數(shù)據(jù)集KdConv上的實驗結(jié)果表明,RT-KGD在自動評估和人工評估方面都優(yōu)于基線模型。

PART 03

模 型

23ef7f60-2c47-11ed-ba43-dac502259ad0.png

1.任務(wù)定義

給定一個對話上下文C={u1,...,un-1}、其中每一條語句ui都對應(yīng)一個三元組集合Ki和一個非結(jié)構(gòu)化文本集合Si。模型的目標(biāo)是利用對話上下文、結(jié)構(gòu)化三元組和非結(jié)構(gòu)化文本生成一句合適的回復(fù)語句un。

2.Multi-turn Heterogeneous Knowledge Transition Path(MHKT-Path)

作者為每個對話上下文都構(gòu)建了一個多輪異構(gòu)知識轉(zhuǎn)移路徑圖,來將對話級的關(guān)系轉(zhuǎn)換規(guī)律與回合級的實體語義信息結(jié)合起來。

MHKT-Path有兩類節(jié)點(diǎn):

? 三元組節(jié)點(diǎn) ? 關(guān)系節(jié)點(diǎn)(關(guān)系節(jié)點(diǎn)是從對應(yīng)三元組中抽取得到的) MHKT-Path 有四種邊: ? 連接三元組節(jié)點(diǎn)到三元組節(jié)點(diǎn)的邊(邊的方向按照三元組在對話上下文中出現(xiàn)的順序決定) ?連接關(guān)系節(jié)點(diǎn)到關(guān)系節(jié)點(diǎn)的邊(邊的方向按照關(guān)系在對話上下文中出現(xiàn)的順序決定,即與它們對應(yīng)的三元組之間的邊的方向相同) ?連接三元組節(jié)點(diǎn)到關(guān)系節(jié)點(diǎn)的邊 ?連接關(guān)系節(jié)點(diǎn)到三元組節(jié)點(diǎn)的邊

這樣,兩種粒度的知識信息就得到了充分交互和融合,共同促進(jìn)模型對上下文知識和對話邏輯順序的理解。

3. Knowledge Encoder

Knowledge Encoder用知識圖譜表示學(xué)習(xí)模型和異構(gòu)圖神經(jīng)網(wǎng)絡(luò)將MHKT-Path中的節(jié)點(diǎn)轉(zhuǎn)化為向量表示。

1. 初始化MHKT-Path中的所有節(jié)點(diǎn)。作者利用TransR得到KG中所有元素(實體和關(guān)系)的表示,這些表示融合了KG中的全局信息。因此,MHKT-Path中的節(jié)點(diǎn)表示就可以用這些元素的表示計算得到:對于關(guān)系節(jié)點(diǎn),其向量表示就是該關(guān)系在KG中的表示;對于三元組節(jié)點(diǎn),其向量表示由該三元組包含的頭尾實體和關(guān)系的向量拼接而成。

2. HGT(Heterogeneous Graph Transformer)可利用MHKT-Path中的局部結(jié)構(gòu)信息來更新節(jié)點(diǎn)的表示。

最后,結(jié)合上兩步的結(jié)果得到節(jié)點(diǎn)的最終表示。

4. Knowledge Predictor

Knowledge Predictor用來預(yù)測下一句回復(fù)中可能出現(xiàn)的知識,此模塊分為三部分:

1. 由于知識編碼器只聚合局部鄰域信息,作者進(jìn)一步采用Bi-GRU來分別豐富關(guān)系節(jié)點(diǎn)和三元組節(jié)點(diǎn)的時序特征。具體來說,將此時間步中出現(xiàn)的所有關(guān)系節(jié)點(diǎn)和三元組節(jié)點(diǎn)的平均向量分別作為Bi-GRU的輸入。

2.基于前面的n-1輪(即n-1個時間步)的關(guān)系表示,通過Bi-GRU預(yù)測第n輪(t=n)的關(guān)系節(jié)點(diǎn)的表示:

與關(guān)系節(jié)點(diǎn)不同,作者先用Bi-GRU得到前n-1輪每輪三元組節(jié)點(diǎn)的表示:

然后利用多頭注意力機(jī)制將對話級的第n輪關(guān)系節(jié)點(diǎn)的表示和回合級的前n-1輪三元組節(jié)點(diǎn)的表示結(jié)合起來,共同預(yù)測第n輪三元組節(jié)點(diǎn)的表示:

3. 因為一輪語句中可能包含多個知識,所以作者用多標(biāo)簽分類將得到的第n輪的三元組向量映射到一個標(biāo)簽向量上,其長度為KG中所有的三元組數(shù)量,并用二元交叉熵(BCE)損失函數(shù)來監(jiān)督分類的效果。

5. Knowledge-Enhanced Encoder-Decoder

在Knowledge-Enhanced Encoder-Decoder中,BART用來給上下文語句和其中對應(yīng)的非結(jié)構(gòu)化描述文本S分別進(jìn)行編碼,Si代表第i輪語句中對應(yīng)的非結(jié)構(gòu)化描述文本。

在解碼階段,作者將上述步驟中得到的前n-1輪對話上下文C的表示、前n-1輪非結(jié)構(gòu)化描述文本S的表示、和預(yù)測的第n輪三元組的表示拼接后輸入BART的解碼器中,生成第n輪富含信息量的回復(fù)語句:

模型最終的loss為知識分類標(biāo)簽的BCE損失函數(shù)和解碼語句的交叉熵?fù)p失函數(shù)的加權(quán)和:

PART 04

實 驗

為了驗證提出的模型,在數(shù)據(jù)集的選擇時應(yīng)該滿足兩個要求:(1)每輪語句都用相關(guān)的知識三元組進(jìn)行標(biāo)注;(2)在每個對話段中包含足夠多輪次的語句。因此,KdConv是最佳的實驗數(shù)據(jù)集。從實驗結(jié)果來看,RT-KGD生成了更高質(zhì)量的回復(fù),利用了更合適的知識,并更接近人類的表達(dá)方式。

?自動評估指標(biāo)

2433805c-2c47-11ed-ba43-dac502259ad0.png

? 人工評估指標(biāo)

245d202e-2c47-11ed-ba43-dac502259ad0.png

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4819

    瀏覽量

    106066
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3610

    瀏覽量

    51428
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    25912

原文標(biāo)題:RT-KGD:多輪對話過程中的知識轉(zhuǎn)換模型

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    結(jié)合NLU在面向任務(wù)對話系統(tǒng)中的具體應(yīng)用進(jìn)行介紹

    對面向任務(wù)對話系統(tǒng)來說,NLU模塊的主要任務(wù)是將用戶輸入的自然語言映射為用戶的意圖和相應(yīng)的槽位值。因此,在面向任務(wù)對話系統(tǒng)中,NLU模塊
    的頭像 發(fā)表于 03-21 09:31 ?5927次閱讀
    結(jié)合NLU在面向<b class='flag-5'>任務(wù)</b>的<b class='flag-5'>對話</b>系統(tǒng)中的具體應(yīng)用進(jìn)行介紹

    【安富萊原創(chuàng)】【STemWin教程】第39章 對話框基礎(chǔ)知識

    第39章 對話框基礎(chǔ)知識 在上期教程我們講解了控件的基礎(chǔ)知識,本期教程我們接著講解一下對話框的基礎(chǔ)知識,有了這兩部分的基礎(chǔ)
    發(fā)表于 04-29 10:39

    第39章 對話框基礎(chǔ)知識

    轉(zhuǎn)stemwin教程 在上期教程我們講解了控件的基礎(chǔ)知識,本期教程我們接著講解一下對話框的基礎(chǔ)知識,有了這兩部分的基礎(chǔ)知識后,后面我們就可以進(jìn)行每個控件的應(yīng)用講解了。 控件可以創(chuàng)建并獨(dú)
    發(fā)表于 10-16 11:48

    基于分層編碼的深度增強(qiáng)學(xué)習(xí)對話生成

    面向對話生成問題,提出一種構(gòu)建對話生成模型的方法基于分層編碼的深度增強(qiáng)學(xué)習(xí)對話模型( EHRED),用以解決當(dāng)前標(biāo)準(zhǔn)序列到序列(seq2se
    發(fā)表于 11-25 11:53 ?1次下載

    四大維度講述了一個較為完整的智能任務(wù)對話全景

    這是一個非常典型的任務(wù)型的對話,它滿足兩個條件,第一,它有一個明確的目標(biāo);第二,它通過多輪對話交互來達(dá)成這個目標(biāo)。像這樣的任務(wù)對話在整個辦
    的頭像 發(fā)表于 02-04 09:20 ?7605次閱讀
    四大維度講述了一個較為完整的智能<b class='flag-5'>任務(wù)</b>型<b class='flag-5'>對話</b>全景

    一種可轉(zhuǎn)移的對話狀態(tài)生成

    過度依賴域本體和缺乏跨域知識共享是對話狀態(tài)跟蹤的兩個實際但尚未研究的問題。現(xiàn)有方法通常在推理期間無法跟蹤未知時隙值,并且常常難以適應(yīng)新領(lǐng)域。在本文中,我們提出了一種可轉(zhuǎn)移的對話狀態(tài)生成
    的頭像 發(fā)表于 04-09 14:23 ?2667次閱讀

    對話系統(tǒng)最原始的實現(xiàn)方式 檢索式對話

    檢索式對話作為對話系統(tǒng)最原始的實現(xiàn)方式,又蘊(yùn)涵著什么有意思的東西,我們來看看。 什么是對話系統(tǒng) 對話從來就不是一個簡單的任務(wù),這是一個涉及理
    的頭像 發(fā)表于 09-25 17:08 ?2760次閱讀
    <b class='flag-5'>對話</b>系統(tǒng)最原始的實現(xiàn)方式   檢索式<b class='flag-5'>對話</b>

    華為公開 “人機(jī)對話”相關(guān)專利:可根據(jù)對話內(nèi)容生成準(zhǔn)確回復(fù)

    ,該裝置預(yù)配置有多個對話機(jī)器人,每個對話機(jī)器人用于根據(jù)至少一個話題進(jìn)行人機(jī)對話。對話機(jī)器人能夠針對不同的話題,自適應(yīng)地根據(jù)對話內(nèi)容
    的頭像 發(fā)表于 02-27 11:40 ?3648次閱讀

    口語語言理解在任務(wù)對話系統(tǒng)中的探討

    1.1 研究背景與任務(wù)定義 口語語言理解在任務(wù)對話系統(tǒng)中扮演了一個非常重要的角色,其目的是識別出用戶的輸入文本中蘊(yùn)含的意圖和提及到的槽位,一般被分為意圖識別和槽位填充兩個子任務(wù)[1]
    的頭像 發(fā)表于 03-31 17:48 ?2790次閱讀
    口語語言理解在<b class='flag-5'>任務(wù)</b>型<b class='flag-5'>對話</b>系統(tǒng)中的探討

    視覺問答與對話任務(wù)研究綜述

    視覺問答與對話是人工智能領(lǐng)堿的重要硏究任務(wù),是計算機(jī)視覺與自然語言處理交叉領(lǐng)域的代表性問題之一。視覺問答與對話任務(wù)要求機(jī)器根據(jù)指定的視覺圖像內(nèi)容,對單輪或多輪的自然語言問題進(jìn)行作答。視
    發(fā)表于 04-08 10:33 ?10次下載
    視覺問答與<b class='flag-5'>對話</b><b class='flag-5'>任務(wù)</b>研究綜述

    一種結(jié)合回復(fù)生成對話意圖預(yù)測模型

    ,但是,在很多場景下回復(fù)可能并沒有生成。因此,文中提出了一種結(jié)合回復(fù)生成對話意圖預(yù)測模型。在生成部分,使用Seq2Seq結(jié)構(gòu),根據(jù)對話歷史
    發(fā)表于 04-14 14:02 ?5次下載
    一種結(jié)合回復(fù)<b class='flag-5'>生成</b>的<b class='flag-5'>對話</b>意圖預(yù)測模型

    NLP中基于聯(lián)合知識任務(wù)導(dǎo)向型對話系統(tǒng)HyKnow

    Dialog Modeling with Hybrid 論文地址:https://arxiv.org/pdf/2105.06041v2.pdf 這篇文章提出了一個基于聯(lián)合知識任務(wù)導(dǎo)向型對話系統(tǒng)HyKnow,該模型通過延
    的頭像 發(fā)表于 09-08 10:43 ?4719次閱讀

    受控文本生成模型的一般架構(gòu)及故事生成任務(wù)等方面的具體應(yīng)用

    任務(wù)和常識生成任務(wù)上的具體應(yīng)用,指出了受控文本生成技術(shù)在具體應(yīng)用場景下的改進(jìn)方向。 0. 什么是受控文本生成 文本
    的頭像 發(fā)表于 10-13 09:46 ?4164次閱讀
    受控文本<b class='flag-5'>生成</b>模型的一般架構(gòu)及故事<b class='flag-5'>生成</b><b class='flag-5'>任務(wù)</b>等方面的具體應(yīng)用

    NVIDIA NeMo 如何支持對話式 AI 任務(wù)的訓(xùn)練與推理?

    ,開發(fā)和運(yùn)行可落地的語音人工智能服務(wù)仍然是一項復(fù)雜而艱巨的任務(wù),通常需要面臨實時性、可理解性、自然性、低資源、魯棒性等挑戰(zhàn)。 本期分享我們邀請到了? NVIDIA 的解決方案架構(gòu)師丁文 ,分享如何使用 NVIDIA NeMo 進(jìn)行對話式 AI
    的頭像 發(fā)表于 05-11 20:16 ?1789次閱讀
    NVIDIA NeMo 如何支持<b class='flag-5'>對話</b>式 AI <b class='flag-5'>任務(wù)</b>的訓(xùn)練與推理?

    基于主觀知識任務(wù)對話建模

    我們參加了 DSTC11-track5 并在所有 14 個參賽隊伍中排名第三(客觀指標(biāo)),其中 Turn Detection 子任務(wù)排名第一。本文將介紹 track 5 相關(guān)內(nèi)容以及我們在競賽中嘗試的方法。
    的頭像 發(fā)表于 10-31 16:48 ?944次閱讀
    基于主觀<b class='flag-5'>知識</b>的<b class='flag-5'>任務(wù)</b>型<b class='flag-5'>對話</b>建模