chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟美國(guó)研究院和清華聯(lián)合推出了一款開(kāi)源的多領(lǐng)域端到端對(duì)話系統(tǒng)平臺(tái)—ConvLab

nlfO_thejiangme ? 來(lái)源:lp ? 2019-04-23 10:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來(lái)對(duì)話系統(tǒng)迅速發(fā)展,同時(shí)也出現(xiàn)了一系列豐富的數(shù)據(jù)集。但對(duì)于剛剛進(jìn)入這一領(lǐng)域團(tuán)隊(duì)來(lái)說(shuō),迅速搭建起對(duì)于特定任務(wù)的可用的對(duì)話系統(tǒng)依然充滿挑戰(zhàn)。這主要是由于這一領(lǐng)域內(nèi)缺乏結(jié)構(gòu)完善、易于使用的開(kāi)源系統(tǒng),讓研究人員可以便捷的搭建和測(cè)評(píng)對(duì)話機(jī)器人。

眾所周知,基礎(chǔ)性的開(kāi)源系統(tǒng)為AI研究的突破打下了堅(jiān)實(shí)的基礎(chǔ),在這一領(lǐng)域的Moses、HTK和CoreNLP等項(xiàng)目都被廣泛用于機(jī)器翻譯、語(yǔ)音識(shí)別和自然語(yǔ)言處理,推動(dòng)了各層次研究的飛速發(fā)展。

為了促進(jìn)這一領(lǐng)域的發(fā)展,微軟美國(guó)研究院和清華聯(lián)合推出了一款開(kāi)源的多領(lǐng)域端到端對(duì)話系統(tǒng)平臺(tái)—ConvLab,使得研究人員可以便捷地搭建對(duì)話系統(tǒng)、自動(dòng)訓(xùn)練對(duì)話模型、構(gòu)建并評(píng)測(cè)對(duì)話機(jī)器人的各方面表現(xiàn)。

ConvLab

為了便于用于構(gòu)建不同類型任務(wù)導(dǎo)向的機(jī)器人、將更多的自動(dòng)化引入構(gòu)建、訓(xùn)練和測(cè)評(píng)過(guò)程中,ConvLab包含了豐富的模型工具和運(yùn)行引擎、以及端到端的測(cè)評(píng)平臺(tái)。簡(jiǎn)單來(lái)講臺(tái)中包含了基于模塊和端到端兩種架構(gòu)類型的對(duì)話系統(tǒng):基于模塊的架構(gòu)系統(tǒng)包含了自然語(yǔ)言理解(NLU)、對(duì)話系統(tǒng)追蹤(DST)、對(duì)話策略(POL)和自然語(yǔ)言生成(NLG)等模塊;完全端到端神經(jīng)架構(gòu)減少了手工編程的工作量,并減小了誤差在工作流程中的傳播。

與先前工具集集中于系統(tǒng)策略或者受限于固定的預(yù)訓(xùn)練模型不同,ConvLab基于全標(biāo)注的數(shù)據(jù)集覆蓋了所有可訓(xùn)練的統(tǒng)計(jì)模型,解決了先前對(duì)于系統(tǒng)性能度量的困難。

很多時(shí)候用戶需要在多子域之間無(wú)縫銜接實(shí)現(xiàn)高層用戶目標(biāo),多層級(jí)的對(duì)話系統(tǒng)對(duì)數(shù)據(jù)收集、標(biāo)注以及模型的開(kāi)發(fā)都提出了復(fù)雜的要求。有研究人員提出了MultiWOZ數(shù)據(jù)集(包含了旅行相關(guān)的多鄰域?qū)υ拑?nèi)容),但目前卻缺乏對(duì)應(yīng)的開(kāi)源平臺(tái)來(lái)處理多域多意圖對(duì)話。為了加速多領(lǐng)域?qū)υ挼难芯緾onvLab研究了MultiWOZ任務(wù)的特征,并提供了一系列完整的參考模型(包含了獨(dú)立的模塊和端到端模型)、這些模型在為用戶對(duì)話額外標(biāo)注的MultiWOZ數(shù)據(jù)集上進(jìn)行了訓(xùn)練。ConvLab目前還作為DSTC18多領(lǐng)域端到端對(duì)話追蹤的標(biāo)準(zhǔn)平臺(tái),得到了更廣泛的應(yīng)用和實(shí)際的檢驗(yàn)。為了更好的支持端到端評(píng)價(jià)、ConvLab提供了兩個(gè)互補(bǔ)模塊、分別集成了亞馬遜Amazon Mechanical Turk平臺(tái)用于人類測(cè)評(píng)、同時(shí)也集成了虛擬用戶用于自動(dòng)測(cè)評(píng)。針對(duì)用戶仿真,平臺(tái)同時(shí)提供了基于規(guī)則和基于數(shù)據(jù)驅(qū)動(dòng)的模擬器。ConvLab在開(kāi)發(fā)模擬用戶的過(guò)程中也研發(fā)出了一系列先進(jìn)的用戶模擬技術(shù)。

架構(gòu)設(shè)計(jì)

整個(gè)系統(tǒng)基于模塊化的設(shè)計(jì)保障了靈活性和適應(yīng)性。為了支持多領(lǐng)域?qū)υ捪到y(tǒng)的搭建,平臺(tái)使用了主體-環(huán)境-對(duì)話實(shí)體的組合設(shè)計(jì)(Agents-Environments-Bodies,AEB),除了單環(huán)境和單主體的配置外,系統(tǒng)還包含了一系列先進(jìn)的研究實(shí)驗(yàn)、包括多任務(wù)學(xué)習(xí)、多主體學(xué)習(xí)和角色扮演、無(wú)需復(fù)雜的代碼即可導(dǎo)入到實(shí)例中使用。

此外,為了系統(tǒng)性地對(duì)比不同的主體和環(huán)境,并實(shí)現(xiàn)自動(dòng)超參數(shù)搜索,平臺(tái)充分利用了SLM Lab和Ray^2 作為實(shí)驗(yàn)組件。他們提供了多層級(jí)的控制,從會(huì)話、嘗試和試驗(yàn)上為每一層次生成評(píng)測(cè)報(bào)告。

其中會(huì)話用于初始化主體和環(huán)境、并以預(yù)設(shè)的輪次運(yùn)行。隨后利用隨機(jī)種子來(lái)啟動(dòng)多個(gè)會(huì)話進(jìn)行嘗試、并最終在會(huì)話上分析并求平均。最后利用實(shí)驗(yàn)來(lái)確定不同超參數(shù)的表現(xiàn)。

對(duì)話主體和環(huán)境的配置

在系統(tǒng)中每個(gè)層代表了構(gòu)建對(duì)話系統(tǒng)的不同方式,在下圖中可以看到最上層代表了傳統(tǒng)方式構(gòu)建對(duì)話系統(tǒng)的架構(gòu)路線圖,包括了NLU,DST,POL,NLG。研究人員近年來(lái)通過(guò)引入詞級(jí)對(duì)話狀態(tài)追蹤、對(duì)話策略和端到端模型等典型組件,探索了構(gòu)建對(duì)話系統(tǒng)不同可能的組合實(shí)現(xiàn)形式。在ConvLab平臺(tái)上,研究人員可以聚焦于下圖中的任意組件,并以端到端的簡(jiǎn)單方式進(jìn)行測(cè)試。

對(duì)于環(huán)境構(gòu)建來(lái)說(shuō),可以由很可能的組件來(lái)進(jìn)行構(gòu)建。在研究對(duì)話策略優(yōu)化的強(qiáng)化學(xué)習(xí)算法中,典型的方法是利用用戶模擬器在對(duì)話行為層級(jí)上進(jìn)行操作。對(duì)話主體會(huì)盡可能利用端到端的方式嘗試減小對(duì)標(biāo)注數(shù)據(jù)的需求,對(duì)于人類評(píng)測(cè)來(lái)說(shuō)平臺(tái)提供了基于Amazon Mechanical Turk來(lái)作為最后一層進(jìn)行環(huán)境構(gòu)建。

參考模型和跨域數(shù)據(jù)實(shí)驗(yàn)

在ConvLab中還涵蓋了針對(duì)多重任務(wù)的模型供研究人員進(jìn)行參考評(píng)測(cè),包括了自然語(yǔ)言理解領(lǐng)域的Semantic Tuple Classi-?er (STC)、 OneNet以及作為拓展的Multi-intent LU (MILU);對(duì)話狀態(tài)追蹤引入了DSTCs基準(zhǔn)模型、詞級(jí)對(duì)話狀態(tài)追蹤領(lǐng)域集成了MDBT模型將域識(shí)別與置信狀態(tài)追蹤進(jìn)行結(jié)合;在系統(tǒng)策略方面平臺(tái)支持DQN,REINFORCE\PPO以及自模仿等;自然語(yǔ)言生成領(lǐng)域則使用了SC-LSTM方法。在詞級(jí)策略上使用了Budzianowski等人提出的基準(zhǔn);在用戶策略上ConvLab提供了基于agenda的方法和基于數(shù)據(jù)驅(qū)動(dòng)(例如HUS等)的方法,模型在對(duì)話行為級(jí)別進(jìn)行并可與NLU等模塊協(xié)同構(gòu)架出完整的用戶模擬器;最后再端到端模型上則包含了Mem2Seq,Sequicity,并使得Sequicity實(shí)現(xiàn)了對(duì)于多域的支持。目前ConvLab主要支持MultiWOZ和Movie兩個(gè)不同復(fù)雜度的數(shù)據(jù)域。其中MultiWOZ的主要任務(wù)是幫助旅客,其中引入了包含景點(diǎn)介紹和酒店預(yù)訂等不同方面的內(nèi)容。MultiWOZ中主要包含了7個(gè)子領(lǐng)域的問(wèn)題:景點(diǎn)、醫(yī)院、酒店、警察、餐廳、出租車、火車等方面的內(nèi)容。其中包含了10438個(gè)標(biāo)注對(duì)話。對(duì)于單領(lǐng)域和多領(lǐng)域的對(duì)話輪次平均為8.93和15.93輪。ConvLab對(duì)于用戶對(duì)話行為進(jìn)行了額外的標(biāo)注、并為對(duì)話系統(tǒng)元件和用戶模擬器提供了預(yù)訓(xùn)練基準(zhǔn)模型、以及基于此數(shù)據(jù)訓(xùn)練的端到端的自然對(duì)話模型。Movie則來(lái)自于微軟對(duì)話挑戰(zhàn)賽,主要集中于電影票預(yù)訂場(chǎng)景,包含了2890個(gè)標(biāo)注對(duì)話,評(píng)論為7.5輪,同時(shí)還提供了針對(duì)主體和用戶模擬器的一系列完整的參考模型。研究人員表示在未來(lái)還會(huì)加入Taxi和Restaurant等領(lǐng)域的任務(wù)不斷豐富平臺(tái)支持的領(lǐng)域。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6705

    瀏覽量

    106967
  • 開(kāi)源
    +關(guān)注

    關(guān)注

    3

    文章

    3880

    瀏覽量

    45220
  • 模塊化
    +關(guān)注

    關(guān)注

    0

    文章

    345

    瀏覽量

    22401

原文標(biāo)題:微軟與清華開(kāi)源多領(lǐng)域端到端對(duì)話系統(tǒng)集成平臺(tái)ConvLab,幫助研究人員迅速搭建對(duì)話系統(tǒng)

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    當(dāng)經(jīng)典IP撞上AI技術(shù):利爾達(dá)助力躍然創(chuàng)新推出全球首AI互動(dòng)玩具

    //當(dāng)孩子們手中的奧特曼玩具不僅能發(fā)光發(fā)聲,還能真正智能對(duì)話、情感陪伴,傳統(tǒng)的玩具行業(yè)正經(jīng)歷場(chǎng)前所未有的技術(shù)革命……今日,AI玩具領(lǐng)軍企業(yè)躍然創(chuàng)新(Haivivi)推出全球首搭載
    的頭像 發(fā)表于 08-26 17:37 ?1525次閱讀
    當(dāng)經(jīng)典IP撞上AI技術(shù):利爾達(dá)助力躍然創(chuàng)新<b class='flag-5'>推出</b>全球首<b class='flag-5'>款</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>AI互動(dòng)玩具

    云+模態(tài)”新范式:《移遠(yuǎn)通信AI大模型技術(shù)方案白皮書(shū)》正式發(fā)布

    7月28日,移遠(yuǎn)通信聯(lián)合智次方研究院正式發(fā)布《AI大模型技術(shù)方案白皮書(shū)》(以下簡(jiǎn)稱“白皮書(shū)”)。這份白皮書(shū)系統(tǒng)梳理了AI大模型的技術(shù)特點(diǎn)、產(chǎn)業(yè)發(fā)展態(tài)勢(shì)與多元應(yīng)用場(chǎng)景,以及移遠(yuǎn)通信“
    的頭像 發(fā)表于 07-28 13:08 ?726次閱讀
    “<b class='flag-5'>端</b>云+<b class='flag-5'>多</b>模態(tài)”新范式:《移遠(yuǎn)通信AI大模型技術(shù)方案白皮書(shū)》正式發(fā)布

    蘇州高新區(qū)聯(lián)合領(lǐng)軍企業(yè)研究院到訪智行者科技

    近日,蘇州高新區(qū)聯(lián)合領(lǐng)軍企業(yè)研究院率蘇州高新區(qū)內(nèi)20余家專精特新企業(yè)負(fù)責(zé)人蒞臨智行者參觀交流。
    的頭像 發(fā)表于 07-23 17:13 ?779次閱讀

    Nullmax自動(dòng)駕駛最新研究成果入選ICCV 2025

    Nullmax 在段式核心技術(shù)上的深厚積累與創(chuàng)新實(shí)力,尤其在
    的頭像 發(fā)表于 07-05 15:40 ?1400次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動(dòng)駕駛最新<b class='flag-5'>研究</b>成果入選ICCV 2025

    導(dǎo)遠(yuǎn)科技與清華大學(xué)無(wú)錫應(yīng)用技術(shù)研究院達(dá)成合作

    近日,導(dǎo)遠(yuǎn)科技與清華大學(xué)無(wú)錫應(yīng)用技術(shù)研究院(以下簡(jiǎn)稱:研究院)達(dá)成合作。導(dǎo)遠(yuǎn)科技將提供高精度定位產(chǎn)品及解決方案,以支持研究院在L4級(jí)自動(dòng)駕駛和人形機(jī)器人
    的頭像 發(fā)表于 06-12 16:34 ?649次閱讀

    文帶你厘清自動(dòng)駕駛架構(gòu)差異

    大模型則嘗試直接將傳感器輸入映射到車輛控制指令上,實(shí)現(xiàn)聯(lián)合優(yōu)化。雖同為
    的頭像 發(fā)表于 05-08 09:07 ?625次閱讀
    <b class='flag-5'>一</b>文帶你厘清自動(dòng)駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    東風(fēng)汽車推出自動(dòng)駕駛開(kāi)源數(shù)據(jù)集

    近日,智能網(wǎng)聯(lián)汽車智駕數(shù)據(jù)空間構(gòu)建研討會(huì)暨中汽協(xié)會(huì)智能網(wǎng)聯(lián)汽車分會(huì)、數(shù)據(jù)分會(huì)2024年度會(huì)議在上海舉辦。會(huì)上,東風(fēng)汽車發(fā)布行業(yè)規(guī)模最大、涵蓋125萬(wàn)組高質(zhì)量數(shù)據(jù)的自動(dòng)駕駛開(kāi)源數(shù)據(jù)
    的頭像 發(fā)表于 04-01 14:54 ?837次閱讀

    鯤云科技與中國(guó)工業(yè)互聯(lián)網(wǎng)研究院成立AI+安全生產(chǎn)聯(lián)合實(shí)驗(yàn)室

    在 2025 年 1 月 14 日舉行的智算創(chuàng)新研究院開(kāi)業(yè)盛典上,鯤云科技與中國(guó)工業(yè)互聯(lián)網(wǎng)研究院(以下簡(jiǎn)稱“工聯(lián)”)正式宣布聯(lián)合成立“AI+安全生產(chǎn)
    的頭像 發(fā)表于 01-14 18:01 ?1411次閱讀

    安謀科技與智源研究院達(dá)成戰(zhàn)略合作,共建開(kāi)源AI“芯”生態(tài)

    支持、生態(tài)系統(tǒng)建設(shè)與推廣等系列深入合作,共同打造基于Arm架構(gòu)的開(kāi)源技術(shù)生態(tài)體系,賦能國(guó)內(nèi)大模型與人工智能產(chǎn)業(yè)的高速發(fā)展。 圖:現(xiàn)場(chǎng)簽約照片 安謀科技銷售及商務(wù)執(zhí)行副總裁徐亞濤 表示:“當(dāng)前,生成式AI在云邊
    發(fā)表于 12-26 17:06 ?530次閱讀
    安謀科技與智源<b class='flag-5'>研究院</b>達(dá)成戰(zhàn)略合作,共建<b class='flag-5'>開(kāi)源</b>AI“芯”生態(tài)

    自動(dòng)駕駛技術(shù)研究與分析

    編者語(yǔ):「智駕最前沿」微信公眾號(hào)后臺(tái)回復(fù):C-0450,獲取本文參考報(bào)告:《自動(dòng)駕駛行業(yè)研究報(bào)告》pdf下載方式。 自動(dòng)駕駛進(jìn)入2024年,
    的頭像 發(fā)表于 12-19 13:07 ?1205次閱讀

    準(zhǔn)確性超Moshi和GLM-4-Voice,語(yǔ)音雙工模型Freeze-Omni

    GPT-4o 提供的全雙工語(yǔ)音對(duì)話帶來(lái)了研究熱潮,目前諸多工作開(kāi)始研究如何利用 LLM 來(lái)實(shí)現(xiàn)
    的頭像 發(fā)表于 12-17 10:21 ?1188次閱讀
    準(zhǔn)確性超Moshi和GLM-4-Voice,<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>語(yǔ)音雙工模型Freeze-Omni

    爆火的如何加速智駕落地?

    編者語(yǔ):「智駕最前沿」微信公眾號(hào)后臺(tái)回復(fù):C-0551,獲取本文參考報(bào)告:《智能汽車技術(shù)研究報(bào)告》pdf下載方式。 “
    的頭像 發(fā)表于 11-26 13:17 ?1421次閱讀
    爆火的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>如何加速智駕落地?

    陳天橋雒芊芊腦科學(xué)研究院在人工智能領(lǐng)域取得重大突破

    陳天橋雒芊芊腦科學(xué)研究院(TCCI)的人工智能團(tuán)隊(duì),憑借其在大腦與記憶領(lǐng)域的深厚造詣,于人工智能界取得了突破性進(jìn)展。其自主研發(fā)的OMNE智能體框架,在由Meta AI、Hugging Face
    的頭像 發(fā)表于 11-01 11:11 ?1182次閱讀

    智己汽車“”智駕方案推出,老司機(jī)真的會(huì)被取代嗎?

    隨著智能駕駛技術(shù)的發(fā)展,行業(yè)已經(jīng)從早期基于簡(jiǎn)單規(guī)則和模塊化邏輯的自動(dòng)駕駛,逐步邁向依托深度學(xué)習(xí)的高復(fù)雜度智能駕駛解決方案,各車企也緊跟潮流,先后宣布了自己的智駕方案。就在近期,智己汽車
    的頭像 發(fā)表于 10-30 09:47 ?1051次閱讀
    智己汽車“<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”智駕方案<b class='flag-5'>推出</b>,老司機(jī)真的會(huì)被取代嗎?

    InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    ChatGPT對(duì)技術(shù)的影響引發(fā)了對(duì)人工智能未來(lái)的預(yù)測(cè),尤其是模態(tài)技術(shù)的關(guān)注。OpenAI推出了具有突破性的模態(tài)模型GPT-4,使各個(gè)領(lǐng)域取得了顯著的發(fā)展。 這些AI進(jìn)步是通過(guò)大規(guī)模
    的頭像 發(fā)表于 10-23 11:26 ?7773次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸