chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一套新的自然語言處理(NLP)評(píng)估基準(zhǔn),名為 SuperGLUE

電子工程師 ? 來源:lq ? 2019-04-29 18:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語言處理(NLP),是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)分支,專門研究如何讓機(jī)器理解人類語言和相關(guān)文本,也是發(fā)展通用人工智能技術(shù)亟需攻克的核心難題之一。

不久之后,紐約大學(xué)、華盛頓大學(xué)、劍橋大學(xué)和 Facebook AI 將聯(lián)合推出一套新的自然語言處理(NLP)評(píng)估基準(zhǔn),名為 SuperGLUE,全稱是 Super General-Purpose Language Understanding。

該系統(tǒng)是現(xiàn)有 GLUE 基準(zhǔn)的升級(jí)版(所以前面加上了 Super)。研究人員刪除了原本 11 項(xiàng)任務(wù)中的 9 項(xiàng),更新了剩下 2 項(xiàng),同時(shí)加入了 5 項(xiàng)新的評(píng)估基準(zhǔn)。新版本將更契合未來 NLP 技術(shù)的發(fā)展方向,難度也是大幅增加,更具挑戰(zhàn)性。

(來源:Nikita Nangia)

這套系統(tǒng)的數(shù)據(jù)集、工具包和具體評(píng)估標(biāo)準(zhǔn)預(yù)計(jì)將于 5 月初公布。不過從最新發(fā)布的 SuperGLUE 論文中,我們可以先睹為快。

什么是 GLUE?

實(shí)現(xiàn) NLP 的方法有很多,主流的方法大多圍繞多任務(wù)學(xué)習(xí)和語言模型預(yù)訓(xùn)練展開,由此孕育出很多種不同模型,比如 BERT、MT-DNN、ALICE 和 Snorkel MeTaL 等等。在某個(gè)模型的基礎(chǔ)上,研究團(tuán)隊(duì)還可以借鑒其它模型的精華或者直接結(jié)合兩者。

為了更好地訓(xùn)練模型,同時(shí)更準(zhǔn)確地評(píng)估和分析其表現(xiàn),紐約大學(xué)、華盛頓大學(xué)和 DeepMind 的 NLP 研究團(tuán)隊(duì)在 2018 年推出了通用語言理解評(píng)估基準(zhǔn)(GLUE),其中包含 11 項(xiàng)常見 NLP 任務(wù),都是取自認(rèn)可度相當(dāng)高的 NLP 數(shù)據(jù)集,最大的語料庫規(guī)模超過 40 萬條,而且種類多變,涉及到自然語言推理、情感分析、閱讀理解和語義相似性等多個(gè)領(lǐng)域。

圖 | GLUE的11項(xiàng)任務(wù)

不過GLUE基準(zhǔn)才發(fā)布一年,已經(jīng)有很多 NLP 模型在特定任務(wù)中超過了人類基準(zhǔn),尤其是在 QQP、MRPC 和 QNLI 三項(xiàng)任務(wù)中:

QQP 是“Quora 問題配對(duì)”數(shù)據(jù)集,由 40 萬對(duì) Quora 問題組成,模型需要識(shí)別兩個(gè)問題之間的含義是否相同。

MRPC 是“微軟研究釋義語料庫”,與 QQP 類似,模型需要判斷兩個(gè)形式不同的句子是否具有相似的意思(即釋義句)。

QNLI 任務(wù)基于“斯坦福問答數(shù)據(jù)集(SQuAD)”,主要考察模型的閱讀理解能力。它需要根據(jù)維基百科中的文章來回答一些問題,答案可能存在于文章中,也可能不存在。

圖 | NLP 模型在三項(xiàng)任務(wù)中普遍超過了人類基準(zhǔn),越靠右側(cè)的模型分?jǐn)?shù)越高

目前綜合分?jǐn)?shù)最高的是微軟提交的 MT-DNN++模型,其核心是多任務(wù)深度神經(jīng)網(wǎng)絡(luò)(MT-DNN)模型,并且在文本編碼層整合了 BERT。僅次于它的是阿里巴巴達(dá)摩院 NLP 團(tuán)隊(duì)的 ALICE Large 模型和斯坦福的 Snorkel MeTaL 模型。

從上面圖中我們也能看出,得益于 BERT 和 GPT 模型的引入,模型在很多GLUE 任務(wù)的得分都已經(jīng)接近人類基準(zhǔn),只有 2-3 個(gè)任務(wù)與人類有明顯差距。

因此,推出新的評(píng)估基準(zhǔn)勢(shì)在必行。

圖 | GLUE排行榜前五名

從 GLUE 到 SuperGLUE

新的 SuperGLUE 遵從了 GLUE 的基本原則:為通用語言理解技術(shù)的進(jìn)步提供通俗,但又具有挑戰(zhàn)性的基準(zhǔn)。

在制定這個(gè)新基準(zhǔn)時(shí),研究人員先在 NLP 社區(qū)公開征集任務(wù)提案,獲得了大約 30 份提案,隨后按照如下標(biāo)準(zhǔn)篩選:

任務(wù)本質(zhì):測(cè)試系統(tǒng)理解英語的能力。

任務(wù)難度:超出當(dāng)前最先進(jìn)模型的能力,但是人類可以解決。

可評(píng)估性:具備自動(dòng)評(píng)判機(jī)制,并且能夠準(zhǔn)確對(duì)應(yīng)人類的判斷或表現(xiàn)。

公開數(shù)據(jù):擁有公開的訓(xùn)練數(shù)據(jù)。

任務(wù)格式:SuperGLUE 輸入值的復(fù)雜程度得到了提升,允許出現(xiàn)復(fù)雜句子,段落和文章等。

任務(wù)許可:所用數(shù)據(jù)必須獲得研究和重新分發(fā)的許可。

在篩選過程中,他們首先重新審核了現(xiàn)有的 GLUE 任務(wù)集,從中刪除了模型表現(xiàn)較好的 9 項(xiàng)任務(wù),保留了 2 項(xiàng)表現(xiàn)最差的任務(wù)——Winograd 模式挑戰(zhàn)賽(WSC)和文本蘊(yùn)含識(shí)別(RTE)——它們還有很大的進(jìn)步空間。

兩項(xiàng)任務(wù)分別屬于自然語言推理和閱讀理解范疇。人類通常比較擅長(zhǎng)這樣的任務(wù),甚至于不需要特殊訓(xùn)練就可以精通。比如看到這樣兩句話:

“這本書裝不進(jìn)書包,因?yàn)樗罅恕!?/p>

“這本書裝不進(jìn)書包,因?yàn)樗×恕!?/p>

盡管兩個(gè)句子包含兩個(gè)含義截然相反的形容詞,人類還是可以輕松理解,因?yàn)槲覀冎馈八钡闹复锊煌?。但上面那些NLP模型卻表現(xiàn)的很糟糕,平均水平不足人類的 70%。而這其實(shí)就是 WSC 任務(wù)的主要內(nèi)容。

最后,研究人員挑選(設(shè)計(jì))了 5 項(xiàng)新任務(wù),分別是 CB,COPA,GAP,MultiRC 和 WiC,主要測(cè)試模型回答問題,指代消解和常識(shí)推理的能力。

圖 | 新版SuperGLUE任務(wù)集,其中RTE和WSC來自于現(xiàn)有的GLUE任務(wù)

研究人員認(rèn)為,SuperGLUE 的新任務(wù)更加側(cè)重于測(cè)試模型在復(fù)雜文本下的推理能力。

比如 WiC 要求模型在兩段內(nèi)容中,區(qū)分同一個(gè)單詞的含義是否一致(聽起來簡(jiǎn)單,但對(duì)于機(jī)器來說非常困難)。CB 和 COPA 都是考察模型在給定“前提”的情況下,對(duì)“假設(shè)”或“理由”的正確性進(jìn)行判斷,只不過有的側(cè)重于分析從句,有的側(cè)重于問答模式。

GAP 則要求模型對(duì)性別做出判斷,能夠通過“姐姐”,“哥哥”和“妻子”這樣的詞匯,分辨文本中“他”和“她”的指代對(duì)象。

MultiRC 任務(wù)更加復(fù)雜,模型需要完成閱讀理解,然后回答問題。一個(gè)典型的例子是這樣的:

圖| 搜索關(guān)鍵詞“speedy recover”,幾乎一眼就能找到答案,但機(jī)器未必知道

選擇了新的任務(wù)之后,研究人員用主流 NLP 模型進(jìn)行了測(cè)試。

最流行的 BERT 模型的表現(xiàn)勉強(qiáng)可以接受,但其量化之后的綜合分?jǐn)?shù)比人類低約 16.8%,說明機(jī)器距離人類基準(zhǔn)仍有不小的差距,而且 SuperGLUE 確實(shí)比GLUE 難了不少。

圖 | 現(xiàn)有模型在SuperGLUE上的表現(xiàn)

鑒于目前 SuperGLUE 還沒有正式推出,我們還無法查看任務(wù)數(shù)據(jù)集和模型排行榜。在 5 月份推出 SuperGLUE 后,它可能還會(huì)經(jīng)歷一些微調(diào),然后在7月份變?yōu)檎桨姹荆┭邪l(fā) NLP 模型的團(tuán)隊(duì)挑戰(zhàn)。

目前來看,SuperGLUE 和 GLUE 之間的差距是可以接受的,新任務(wù)具有一定的挑戰(zhàn)性,但并非遙不可及,足以為全球的 NLP 團(tuán)隊(duì)樹立一個(gè)新的標(biāo)桿。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11288
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    629

    瀏覽量

    14624
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23241

原文標(biāo)題:SuperGLUE!自然語言處理模型新標(biāo)準(zhǔn)即將公布

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    盒內(nèi)存抵一套房!大廠鎖貨、小廠停擺,存儲(chǔ)漲價(jià)撕裂產(chǎn)業(yè)鏈

    電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)2026年初,“盒內(nèi)存條堪比上海一套房”的話題沖上熱搜。據(jù)媒體報(bào)道,256GB DDR5服務(wù)器內(nèi)存單條價(jià)格超過4萬元,若次性采購盒100根,總價(jià)高達(dá)
    的頭像 發(fā)表于 01-08 16:31 ?2296次閱讀
    <b class='flag-5'>一</b>盒內(nèi)存抵<b class='flag-5'>一套</b>房!大廠鎖貨、小廠停擺,存儲(chǔ)漲價(jià)撕裂產(chǎn)業(yè)鏈

    如何使用SpringBoot、Vue2.0、MySQL開發(fā)一套云診所系統(tǒng)?

    ? 如何使用Java語言;前端框架:Vue2.0;后端框架:SpringBoot;數(shù) 據(jù) 庫: MySQL 這些技術(shù)開發(fā)一套云診所系統(tǒng)? 技術(shù)棧分析: 后端:SpringBoot
    的頭像 發(fā)表于 11-27 16:02 ?219次閱讀
    如何使用SpringBoot、Vue2.0、MySQL開發(fā)<b class='flag-5'>一套</b>云診所系統(tǒng)?

    一套聽聲辯位的算法,并在板機(jī)上部署?

    一套聽聲辯位的算法,并在板機(jī)上部署。有謝。
    發(fā)表于 11-10 23:07

    云知聲論文入選自然語言處理頂會(huì)EMNLP 2025

    近日,自然語言處理NLP)領(lǐng)域國際權(quán)威會(huì)議 ——2025 年計(jì)算語言學(xué)與自然語言處理國際會(huì)議(
    的頭像 發(fā)表于 11-10 17:30 ?694次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會(huì)EMNLP 2025

    怎么實(shí)現(xiàn)一套容器運(yùn)行時(shí),并符合OCI規(guī)范?

    如題,怎么實(shí)現(xiàn)一套容器運(yùn)行時(shí),并符合OCI規(guī)范
    發(fā)表于 10-10 07:35

    HarmonyOSAI編程自然語言代碼生成

    安裝CodeGenie后,在下方對(duì)話框內(nèi),輸入代碼需求描述,將根據(jù)描述智能生成代碼,生成內(nèi)容可鍵復(fù)制或鍵插入至編輯區(qū)當(dāng)前光標(biāo)位置。 提問示例 使用ArkTs語言段代碼,在頁面中
    發(fā)表于 09-05 16:58

    如何搭建一套安防監(jiān)控管理平臺(tái)?

    構(gòu)建一套現(xiàn)代化的安防監(jiān)控管理平臺(tái),本質(zhì)上是建設(shè)個(gè)集數(shù)據(jù)采集、傳輸、處理、存儲(chǔ)、分析與應(yīng)用于體的綜合型技術(shù)中樞。其技術(shù)架構(gòu)需遵循模塊化、高可用、可擴(kuò)展及開放性的設(shè)計(jì)原則,具體可分為以
    的頭像 發(fā)表于 09-04 16:19 ?887次閱讀
    如何搭建<b class='flag-5'>一套</b>安防監(jiān)控管理平臺(tái)?

    分支多、云也多,網(wǎng)絡(luò)又慢又燒錢?一套方案全搞定!

    、成本控制與運(yùn)維效率的多重壓力。面對(duì)這些挑戰(zhàn),是否有一套網(wǎng)絡(luò)架構(gòu)能夠“全搞定”?答案是肯定的?;谛袠I(yè)實(shí)踐與技術(shù)演進(jìn),我們逐漸形成了一套以SD-WAN+云網(wǎng)融合平臺(tái)+
    的頭像 發(fā)表于 08-28 14:25 ?1140次閱讀
    分支多、云也多,網(wǎng)絡(luò)又慢又燒錢?<b class='flag-5'>一套</b>方案全搞定!

    小白學(xué)大模型:國外主流大模型匯總

    數(shù)據(jù)科學(xué)AttentionIsAllYouNeed(2017)https://arxiv.org/abs/1706.03762由GoogleBrain的團(tuán)隊(duì)撰寫,它徹底改變了自然語言處理NLP
    的頭像 發(fā)表于 08-27 14:06 ?813次閱讀
    小白學(xué)大模型:國外主流大模型匯總

    【HZ-T536開發(fā)板免費(fèi)體驗(yàn)】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務(wù)器,自然語言輕松控板

    引言:為什么需要 “自然語言控板”? 痛點(diǎn)引入 :嵌入式開發(fā)中,開發(fā)者常需通過 SSH 等工具登錄開發(fā)板,手動(dòng)輸入復(fù)雜的 Linux 命令(如ls -l、gpio readall、ifconfig等
    發(fā)表于 08-23 13:10

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷場(chǎng)翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多
    的頭像 發(fā)表于 06-10 14:24 ?1180次閱讀
    Transformer架構(gòu)概述

    云知聲四篇論文入選自然語言處理頂會(huì)ACL 2025

    近日,第63屆國際計(jì)算語言學(xué)年會(huì)ACL 2025(Annual Meeting of the Association for Computational Linguistics,簡(jiǎn)稱ACL)論文接收
    的頭像 發(fā)表于 05-26 14:15 ?1212次閱讀
    云知聲四篇論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會(huì)ACL 2025

    自然語言處理的發(fā)展歷程和應(yīng)用場(chǎng)景

    你是否曾經(jīng)對(duì)著手機(jī)說:“嘿,Siri,今天天氣怎么樣?”或者在出國旅行時(shí),打開翻譯軟件,對(duì)著菜單說:“請(qǐng)把這道菜翻譯成英文”。
    的頭像 發(fā)表于 04-17 11:40 ?1253次閱讀

    自然語言提示原型在英特爾Vision大會(huì)上首次亮相

    在英特爾Vision大會(huì)上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動(dòng)的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?869次閱讀

    如何使用MATLAB構(gòu)建Transformer模型

    Transformer 模型在 2017 年由 Vaswani 等人在論文《Attentionis All You Need》中首次提出。其設(shè)計(jì)初衷是為了解決自然語言處理(Nature
    的頭像 發(fā)表于 02-06 10:21 ?6110次閱讀
    如何使用MATLAB構(gòu)建Transformer模型