chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如果把中學(xué)生的英語(yǔ)閱讀理解選擇題讓AI來(lái)做,會(huì)做出什么水平?

DPVg_AI_era ? 來(lái)源:lp ? 2019-04-19 10:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如果把中學(xué)生的英語(yǔ)閱讀理解選擇題讓AI來(lái)做,會(huì)做出什么水平?近日,上交大團(tuán)隊(duì)訓(xùn)練的“雙向協(xié)同匹配網(wǎng)絡(luò)”(DCMN)取得了74%的正確率。盡管和人類學(xué)生相比只能算馬馬虎虎,但對(duì)AI來(lái)說(shuō),這已經(jīng)達(dá)到了目前的最高水平。

目前,在英語(yǔ)考試的閱讀理解上,AI雖然無(wú)法擊敗更有能力的人類學(xué)生,但它仍然是衡量機(jī)器對(duì)語(yǔ)言理解能力的最佳量度之一。

近日,上海交通大學(xué)的趙海團(tuán)隊(duì)對(duì)AI模型進(jìn)行了超過(guò)25000次英語(yǔ)閱讀理解測(cè)試訓(xùn)練。訓(xùn)練材料和中國(guó)現(xiàn)行英語(yǔ)水平考試的閱讀理解形式類似,每篇文章大約200到300個(gè)詞,文后是一系列與文章內(nèi)容相關(guān)的多項(xiàng)選擇題。這些測(cè)試來(lái)自針對(duì)12至18歲中國(guó)學(xué)生的英語(yǔ)水平考試。

雖然這些問(wèn)題有些可以在文中找到答案,但其中一半以上的題目仍需要一定程度的推理。例如,有些問(wèn)題會(huì)要求從四個(gè)選項(xiàng)中選出文章的“最佳標(biāo)題”。在訓(xùn)練結(jié)束后,AI參加了測(cè)試,其中包括1400次以前從未見(jiàn)過(guò)的考試。綜合得分為74分(百分制),優(yōu)于之前的所有機(jī)器測(cè)試。

上交大的AI系統(tǒng)可以識(shí)別與問(wèn)題相關(guān)的文章相關(guān)部分,然后選出在含義上和邏輯上最相似的答案。在測(cè)試中排名第二的是騰訊的AI系統(tǒng),在同一次考試中得分為72分。騰訊的AI學(xué)會(huì)了比較每個(gè)選項(xiàng)中包含的信息,并將不同選項(xiàng)間的信息差異作為提示,在文章中尋找證據(jù)。

目前最厲害的AI,閱讀理解只能得個(gè)C+

盡管在測(cè)試中分?jǐn)?shù)處于領(lǐng)先,趙海團(tuán)隊(duì)仍在努力提高AI系統(tǒng)的能力?!叭绻麖恼嫒藢W(xué)生的視角來(lái)看,我們的AI的表現(xiàn)也就是一般水平,最多得個(gè)C+,”他說(shuō)?!皩?duì)于那些想進(jìn)入中國(guó)優(yōu)秀大學(xué)的學(xué)生來(lái)說(shuō),他們的目標(biāo)是90分。”

為了提高分?jǐn)?shù),團(tuán)隊(duì)將嘗試修改AI,以便理解嵌入在句子結(jié)構(gòu)中的信息,并為AI提供更多數(shù)據(jù),擴(kuò)大其詞匯量。

如何理解人類的語(yǔ)言,一直是AI領(lǐng)域的一個(gè)主要問(wèn)題,因?yàn)檫@種理解通常是不精確的,這個(gè)問(wèn)題涉及機(jī)器難以掌握的隱含語(yǔ)境信息和社會(huì)線索問(wèn)題。

卡內(nèi)基梅隆大學(xué)的GuokunLai表示,目前我們?nèi)圆磺宄嗀I在學(xué)習(xí)我們的語(yǔ)言時(shí)會(huì)遵循什么規(guī)則,“不過(guò)在閱讀了大量的句子和文章之后,AI似乎能夠理解我們的邏輯?!?/p>

該研究的相關(guān)論文已經(jīng)發(fā)表在Arxiv上,以下是論文的主要內(nèi)容:

讓AI做閱讀理解是一項(xiàng)具有挑戰(zhàn)性的任務(wù),需要復(fù)雜的推理過(guò)程。AI需要從一組候選答案中選擇正確的答案。本文提出雙重協(xié)同匹配網(wǎng)絡(luò)(DCMN),該網(wǎng)絡(luò)可以雙向地模擬通道,問(wèn)題和答案之間的關(guān)系。

與僅就問(wèn)題感知或選擇性文章表示進(jìn)行計(jì)算的現(xiàn)有方法不同,DCMN能夠計(jì)算文章感知問(wèn)題表示和文章感知答案表示。為了證明DCMN模型的有效性,我們?cè)诖笮烷喿x理解數(shù)據(jù)集(即RACE)上評(píng)估了模型。結(jié)果表明,該模型達(dá)到了目前AI閱讀理解的最高水平。

機(jī)器閱讀理解和問(wèn)答已經(jīng)成為評(píng)估自然語(yǔ)言處理和理解領(lǐng)域人工智能系統(tǒng)進(jìn)展的關(guān)鍵應(yīng)用問(wèn)題。計(jì)算語(yǔ)言學(xué)界對(duì)機(jī)器閱讀理解和問(wèn)答的一般問(wèn)題給予了極大的關(guān)注。

本文主要關(guān)注選擇題閱讀理解數(shù)據(jù)集,如RACE,該數(shù)據(jù)集中每個(gè)問(wèn)題后都帶有一組答案選項(xiàng)。大多數(shù)問(wèn)題的正確答案可能不會(huì)在原文中完全復(fù)現(xiàn),問(wèn)題類型和范圍也更加豐富和廣泛,比如涉及某一段落的提要和對(duì)文章作者態(tài)度的分析。

這需要AI能夠更深入地了解文章內(nèi)容,并利用外部世界知識(shí)來(lái)回答這些問(wèn)題。此外,與傳統(tǒng)的閱讀理解問(wèn)題相比,我們需要充分考慮通過(guò)文章-問(wèn)題-答案三者之間的關(guān)系,而不僅僅是問(wèn)題-答案的配對(duì)。

新模型DCMN:在文章、問(wèn)題、答案三者之間建立聯(lián)系

DCMN模型可以將問(wèn)題-答案與給定文章內(nèi)容進(jìn)行雙向匹配,利用了NLP領(lǐng)域的最新突破——BERT進(jìn)行上下文嵌入。在介紹BERT的原論文中提到,對(duì)應(yīng)于第一輸入令牌(CLS)的最終隱藏向量被用作聚合表示,然后利用分類層計(jì)算標(biāo)準(zhǔn)分類損失。

我們認(rèn)為這種方法太粗糙,無(wú)法處理文章-問(wèn)題-答案的三者關(guān)系組合,因?yàn)檫@種方法只是粗略地將文章-問(wèn)題的聯(lián)系作為第一序列,將問(wèn)題作為第二序列,沒(méi)有考慮問(wèn)題和文章內(nèi)容之間的關(guān)系。因此,我們提出了一種新方法來(lái)模擬文章、問(wèn)題和候選答案之間的關(guān)系。

使用BERT作為編碼層,分別得到文章、問(wèn)題和答案選項(xiàng)的上下文表示。

構(gòu)造匹配層以獲得文章-問(wèn)題-答案三者之間匹配表示,對(duì)問(wèn)題在文章中對(duì)應(yīng)的位置信息與特定上下文匹配的候選答案進(jìn)行編碼。

對(duì)從字級(jí)到序列級(jí)的匹配表示應(yīng)用層次聚合方法,然后從序列級(jí)到文檔級(jí)應(yīng)用。

我們的模型在BERT模型的基礎(chǔ)上,于RACE數(shù)據(jù)集上將當(dāng)前最高得分提高了2.6個(gè)百分點(diǎn),并使用大規(guī)模BERT模型進(jìn)一步將得分提高了3個(gè)百分點(diǎn)。

實(shí)驗(yàn)及測(cè)試結(jié)果

在RACE數(shù)據(jù)集上對(duì)模型進(jìn)行了評(píng)估。這個(gè)數(shù)據(jù)集由兩個(gè)子集組成:RACE-M和RACE-H。RACE-M來(lái)自初中考試試題,RACE-H來(lái)自高中考試試題。RACE是這兩者的結(jié)合。我們將我們的模型與以下基線方法進(jìn)行了比較:MRU(多范圍推理),DFN(動(dòng)態(tài)融合網(wǎng)絡(luò)),HCM(等級(jí)協(xié)同匹配),OFT(OpenAI微調(diào)語(yǔ)言轉(zhuǎn)換模型),RSM(閱讀策略模型)。

我們還將我們的模型與BERT基線進(jìn)行比較,并實(shí)現(xiàn)BERT原論文(2018)中描述的方法,該方法使用對(duì)應(yīng)于第一個(gè)輸入標(biāo)記([CLS])的最終隱藏向量作為聚合表示,然后是分類層,最后計(jì)算標(biāo)準(zhǔn)分類損失。測(cè)試結(jié)果如上表所示。

我們可以看到BERT基線模型的性能非常接近先前的最高水平,而大型BERT模型的表現(xiàn)甚至超過(guò)了之前SOTA水平3.7%。但是實(shí)驗(yàn)結(jié)果表明,我們的DCMN模型更強(qiáng)大,將最高得分進(jìn)一步分別提升了2.2%。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280014
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249576
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25449

原文標(biāo)題:最強(qiáng)AI挑戰(zhàn)中國(guó)英語(yǔ)閱讀理解:只得70多分,不如中等生

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    英語(yǔ)單詞學(xué)習(xí)頁(yè)面+單詞朗讀實(shí)現(xiàn) -- 【2】單詞朗讀實(shí)現(xiàn) ##HarmonyOS SDK AI##

    requestId 原先我按照文檔里是這個(gè)參數(shù)寫(xiě)死的,但是我發(fā)現(xiàn),如果連續(xù)兩次進(jìn)行播放的話,就會(huì)報(bào)錯(cuò)。 文檔中的提示是“requestId在同一實(shí)例內(nèi)僅能用一次,請(qǐng)勿重復(fù)設(shè)置”,我一開(kāi)始的理解就是你不能
    發(fā)表于 06-29 23:26

    【「零基礎(chǔ)開(kāi)發(fā)AI Agent」閱讀體驗(yàn)】+讀《零基礎(chǔ)開(kāi)發(fā)AI Agent》掌握扣子平臺(tái)開(kāi)發(fā)智能體方法

    都比較復(fù)雜,涉及到的基礎(chǔ)素材很多,而閱讀書(shū)籍的人并沒(méi)有,所以最好像其他的編程書(shū)籍一樣也建立一個(gè)素材庫(kù),幫助讀者更好的理解知識(shí)并有實(shí)際項(xiàng)目的參照價(jià)值。 不過(guò)總體來(lái)說(shuō),我還是從這本書(shū)中收獲頗豐,對(duì)AI
    發(fā)表于 05-14 19:51

    【「零基礎(chǔ)開(kāi)發(fā)AI Agent」閱讀體驗(yàn)】+Agent的案例解讀

    、AI助手等功能,大大提升了古籍整理與研究利用的效率。? 業(yè)務(wù)特色? 在引入扣子前,識(shí)典古籍在古籍?dāng)?shù)字化過(guò)程中面臨以下的挑戰(zhàn):? 1)內(nèi)容理解難度高 古籍語(yǔ)言復(fù)雜晦澀,使普通用戶往往望而卻步,平臺(tái)
    發(fā)表于 05-14 11:23

    【「零基礎(chǔ)開(kāi)發(fā)AI Agent」閱讀體驗(yàn)】+Agent的工作原理及特點(diǎn)

    如何有效地實(shí)現(xiàn)目標(biāo)。它涉及子目標(biāo)分解、連續(xù)思考和自我反思等復(fù)雜的過(guò)程。 3)行動(dòng) 行動(dòng)是指在感知和規(guī)劃后所做出的具體操作。 在Agent的應(yīng)用中,主要是通過(guò)提示詞來(lái)完成的,其編寫(xiě)提示詞的提示詞萬(wàn)能公式
    發(fā)表于 05-11 10:24

    【「零基礎(chǔ)開(kāi)發(fā)AI Agent」閱讀體驗(yàn)】+初品Agent

    期待中的《零基礎(chǔ)開(kāi)發(fā)AI Agent——手把手教你用扣子智能體》終于寄到了,該書(shū)由葉濤、 管鍇、張心雨完成,并由電子工業(yè)出版社出版發(fā)行。 全書(shū)分為三個(gè)部分,即入門(mén)篇、工具篇及實(shí)踐篇。由此可見(jiàn)這是
    發(fā)表于 04-22 11:51

    【「AI Agent應(yīng)用與項(xiàng)目實(shí)戰(zhàn)」閱讀體驗(yàn)】書(shū)籍介紹

    會(huì)追根溯源,你有種“大徹大悟”的感覺(jué)。 這本書(shū)主要講大語(yǔ)言模型的內(nèi)容,教我們做一個(gè)AI Agent應(yīng)用出來(lái),其實(shí)這個(gè)東西現(xiàn)在也叫智能體了,他跟我們平常使用大語(yǔ)言模型有個(gè)不同點(diǎn)在于他會(huì)專注某個(gè)領(lǐng)域
    發(fā)表于 03-05 20:40

    AI Agent應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀體驗(yàn)--跟著迪哥學(xué)Agent

    的知識(shí)是自由行,那么閱讀《Agent》就是跟團(tuán)游。它我對(duì)AI落地應(yīng)用有了更系統(tǒng)和清晰的了解。 《Agent》第一章是全書(shū)的導(dǎo)引章節(jié),本章我對(duì)Agent的
    發(fā)表于 03-02 12:28

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得2——客服機(jī)器人、AutoGen框架 、生成式代理

    繼續(xù)分享第2篇閱讀心得。 傳統(tǒng)客服系統(tǒng)在知識(shí)庫(kù)更新和多輪對(duì)話管理方面存在諸多技術(shù)瓶頸,本書(shū)第3章中提出的AI課程客服機(jī)器人架構(gòu)巧妙地解決了這些問(wèn)題。該架構(gòu)采用Replit作為開(kāi)發(fā)環(huán)境
    發(fā)表于 02-25 21:59

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》第1-2章閱讀心得——理解Agent框架與Coze平臺(tái)的應(yīng)用

    也好好抓住這次AI agent的廣闊應(yīng)用前景,努力學(xué)習(xí),厚積薄發(fā)。 作為一名數(shù)據(jù)挖掘工程師,在研讀《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》第1-2章時(shí),我對(duì)Agent的認(rèn)知有了質(zhì)的飛躍。 如果說(shuō)2023年
    發(fā)表于 02-19 16:35

    企業(yè)AI模型托管怎么

    當(dāng)下,越來(lái)越多的企業(yè)選擇AI模型托管給專業(yè)的第三方平臺(tái),以實(shí)現(xiàn)高效、靈活和安全的模型運(yùn)行。下面,AI部落小編為您介紹企業(yè)AI模型托管是怎么
    的頭像 發(fā)表于 01-15 10:10 ?405次閱讀

    【「大模型啟示錄」閱讀體驗(yàn)】對(duì)大模型更深入的認(rèn)知

    閱讀《大模型啟示錄》這本書(shū),我得說(shuō),它徹底顛覆了我對(duì)大模型的理解。作為一個(gè)經(jīng)常用KIMI和豆包這類AI工具來(lái)完成作業(yè)、整理資料的大學(xué)生,我原
    發(fā)表于 12-20 15:46

    【「大模型啟示錄」閱讀體驗(yàn)】對(duì)本書(shū)的初印象

    很高興能夠申請(qǐng)到《大模型啟示錄》一書(shū),作為一名在讀大學(xué)生,我深感榮幸。在日常生活中,人工智能(AI)的應(yīng)用已經(jīng)變得無(wú)處不在,它不僅幫助我們完成一些簡(jiǎn)單的文本歸納任務(wù),還能在代碼調(diào)試中指出錯(cuò)誤,甚至
    發(fā)表于 12-16 14:05

    常見(jiàn)AI大模型的比較與選擇指南

    :由月之暗面科技有限公司開(kāi)發(fā),擅長(zhǎng)中英文對(duì)話,能處理多種文件格式(TXT、PDF、Word、PPT、Excel等),還能閱讀理解用戶上傳的文件,并結(jié)合互聯(lián)網(wǎng)搜索結(jié)果來(lái)回答問(wèn)題。 智普清言(智譜清言) :基于智譜AI自主研發(fā)的
    的頭像 發(fā)表于 10-23 15:36 ?2671次閱讀

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    for Science的技術(shù)支撐”的學(xué)習(xí)心得,可以從以下幾個(gè)方面進(jìn)行歸納和總結(jié): 1. 技術(shù)基礎(chǔ)的深入理解閱讀第二章的過(guò)程中,我對(duì)于AI for Science所需的技術(shù)基礎(chǔ)有了更加深入的
    發(fā)表于 10-14 09:16

    云知聲口語(yǔ)評(píng)測(cè)技術(shù)應(yīng)用于教育領(lǐng)域

    日前,云知聲入選大連、丹東、本溪三地初中學(xué)業(yè)水平考試英語(yǔ)聽(tīng)力口語(yǔ)考試智能口語(yǔ)評(píng)測(cè)技術(shù)服務(wù)商,并以其專業(yè)可靠的口語(yǔ)評(píng)測(cè),確保三地英語(yǔ)考試結(jié)果的公平、客觀、準(zhǔn)確,為教育公平和
    的頭像 發(fā)表于 09-19 15:41 ?707次閱讀