chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語(yǔ)言處理頂會(huì)NAACL近日公布了本屆會(huì)議的最佳論文,谷歌BERT論文獲得最佳長(zhǎng)論文

DPVg_AI_era ? 來(lái)源:lp ? 2019-04-19 11:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語(yǔ)言處理頂會(huì)NAACL近日公布了本屆會(huì)議的最佳論文,谷歌BERT論文獲得最佳長(zhǎng)論文,可謂名至實(shí)歸。

自然語(yǔ)言處理四大頂會(huì)之一NAACL2019將于6月2日-7日在美國(guó)明尼阿波利斯市舉行。

據(jù)官方統(tǒng)計(jì),NAACL2019共收到1955篇論文,接收論文424篇,錄取率僅為22.6%。其中長(zhǎng)論文投稿1198篇,短論文757篇。

今天,大會(huì)揭曉了本屆會(huì)議的最佳論文獎(jiǎng)項(xiàng),包括最佳專題論文、最佳可解釋NLP論文、最佳長(zhǎng)論文、最佳短論文和最佳資源論文。

其中,谷歌BERT論文獲得最佳長(zhǎng)論文獎(jiǎng)項(xiàng),可謂名至實(shí)歸。

最佳長(zhǎng)論文:谷歌BERT模型

最佳長(zhǎng)論文(Best Long Paper)

BERT:PretrainingofDeepBidirectionalTransformersforLanguageUnderstanding

JacobDevlin,Ming-WeiChang,KentonLeeandKristinaToutanova

https://arxiv.org/abs/1810.04805

谷歌AI團(tuán)隊(duì)在去年10月發(fā)布的BERT模型,在機(jī)器閱讀理解頂級(jí)水平測(cè)試SQuAD1.1中表現(xiàn)出驚人的成績(jī):全部?jī)蓚€(gè)衡量指標(biāo)上全面超越人類!并且還在11種不同NLP測(cè)試中創(chuàng)出最佳成績(jī),包括將GLUE基準(zhǔn)推至80.4%(絕對(duì)改進(jìn)7.6%),MultiNLI準(zhǔn)確度達(dá)到86.7%(絕對(duì)改進(jìn)率5.6%)等。

自BERT模型發(fā)布以來(lái),許多基于BERT的改進(jìn)模型不斷在各種NLP任務(wù)刷新成績(jī)。毫不夸張地說,BERT模型開啟了NLP的新時(shí)代!

首先來(lái)看下谷歌AI團(tuán)隊(duì)做的這篇論文。

BERT的新語(yǔ)言表示模型,它代表Transformer的雙向編碼器表示。與最近的其他語(yǔ)言表示模型不同,BERT旨在通過聯(lián)合調(diào)節(jié)所有層中的上下文來(lái)預(yù)先訓(xùn)練深度雙向表示。因此,預(yù)訓(xùn)練的BERT表示可以通過一個(gè)額外的輸出層進(jìn)行微調(diào),適用于廣泛任務(wù)的最先進(jìn)模型的構(gòu)建,比如問答任務(wù)和語(yǔ)言推理,無(wú)需針對(duì)具體任務(wù)做大幅架構(gòu)修改。

論文作者認(rèn)為現(xiàn)有的技術(shù)嚴(yán)重制約了預(yù)訓(xùn)練表示的能力。其主要局限在于標(biāo)準(zhǔn)語(yǔ)言模型是單向的,這使得在模型的預(yù)訓(xùn)練中可以使用的架構(gòu)類型很有限。

在論文中,作者通過提出BERT:即Transformer的雙向編碼表示來(lái)改進(jìn)基于架構(gòu)微調(diào)的方法。

BERT提出一種新的預(yù)訓(xùn)練目標(biāo):遮蔽語(yǔ)言模型(maskedlanguagemodel,MLM),來(lái)克服上文提到的單向性局限。MLM的靈感來(lái)自Cloze任務(wù)(Taylor,1953)。MLM隨機(jī)遮蔽模型輸入中的一些token,目標(biāo)在于僅基于遮蔽詞的語(yǔ)境來(lái)預(yù)測(cè)其原始詞匯id。

與從左到右的語(yǔ)言模型預(yù)訓(xùn)練不同,MLM目標(biāo)允許表征融合左右兩側(cè)的語(yǔ)境,從而預(yù)訓(xùn)練一個(gè)深度雙向Transformer。除了遮蔽語(yǔ)言模型之外,本文作者還引入了一個(gè)“下一句預(yù)測(cè)”(nextsentenceprediction)任務(wù),可以和MLM共同預(yù)訓(xùn)練文本對(duì)的表示。

預(yù)訓(xùn)練模型架構(gòu)的差異。BERT使用雙向Transformer。OpenAIGPT使用從左到右的Transformer。ELMo使用經(jīng)過獨(dú)立訓(xùn)練的從左到右和從右到左LSTM的串聯(lián)來(lái)生成下游任務(wù)的特征。三個(gè)模型中,只有BERT表示在所有層中共同依賴于左右上下文。

參考閱讀:

NLP歷史突破!谷歌BERT模型狂破11項(xiàng)紀(jì)錄,全面超越人類!

最佳專題論文:減輕機(jī)器學(xué)習(xí)系統(tǒng)的偏見

最佳專題論文(Best Thematic Paper)

What’sinaName?ReducingBiasinBiosWithoutAccesstoProtectedAttributes

AlexeyRomanov,MariaDeArteaga,HannaWallach,JenniferChayes,ChristianBorgs,AlexandraChouldechova,SahinGeyik,KrishnaramKenthapadi,AnnaRumshiskyandAdamKalai

https://128.84.21.199/abs/1904.05233

越來(lái)越多的研究提出了減輕機(jī)器學(xué)習(xí)系統(tǒng)偏見的方法。這些方法通常依賴于對(duì)受保護(hù)屬性(如種族、性別或年齡)的可用性。

然而,這提出了兩個(gè)重要的挑戰(zhàn):

(1)受保護(hù)的屬性可能不可用,或者使用它們可能不合法;

(2)通常需要同時(shí)考慮多個(gè)受保護(hù)的屬性及其交集。

在減輕職業(yè)分類偏見的背景下,我們提出了一種方法,用于阻隔個(gè)人真實(shí)職業(yè)的預(yù)測(cè)概率與他們名字的單詞嵌入之間的相關(guān)性。

這種方法利用了詞嵌入中編碼的社會(huì)偏見,從而無(wú)需訪問受保護(hù)屬性。最重要的是,這種方法只要求在訓(xùn)練時(shí)訪問個(gè)人姓名,而不是在部署時(shí)。

我們使用了一個(gè)大規(guī)模的在線傳記數(shù)據(jù)集來(lái)評(píng)估我們提出的方法的兩種變體。我們發(fā)現(xiàn),這兩種變體同時(shí)減少了種族和性別偏見,而分類器的總體真實(shí)陽(yáng)性率幾乎沒有降低。

最佳可解釋NLP論文:用量子物理的數(shù)學(xué)框架建模人類語(yǔ)言

最佳可解釋NLP論文 (Best Explainable NLP Paper)

CNM:AnInterpretableComplex-valuedNetworkforMatching

QiuchiLi,BenyouWangandMassimoMelucci

https://128.84.21.199/abs/1904.05298

本文試圖用量子物理的數(shù)學(xué)框架對(duì)人類語(yǔ)言進(jìn)行建模。

這個(gè)框架利用了量子物理中精心設(shè)計(jì)的數(shù)學(xué)公式,將不同的語(yǔ)言單元統(tǒng)一在一個(gè)復(fù)值向量空間中,例如,將單詞作為量子態(tài)的粒子,句子作為混合系統(tǒng)。我們構(gòu)建了一個(gè)復(fù)值網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)該框架的語(yǔ)義匹配。

由于具有良好約束的復(fù)值組件,網(wǎng)絡(luò)允許對(duì)顯式物理意義進(jìn)行解釋。所提出的復(fù)值匹配網(wǎng)絡(luò)(complex-valuednetworkformatching,CNM)在兩個(gè)基準(zhǔn)問題回答(QA)數(shù)據(jù)集上具有與強(qiáng)大的CNN和RNN基線相當(dāng)?shù)男阅堋?/p>

最佳短論文:視覺模態(tài)對(duì)機(jī)器翻譯的作用

最佳短論文(Best Short Paper)

Probing the Need for Visual Context in Multimodal Machine Translation

OzanCaglayan,PranavaMadhyastha,LuciaSpeciaandLo?cBarrault

https://arxiv.org/abs/1903.08678

目前關(guān)于多模態(tài)機(jī)器翻譯(MMT)的研究表明,視覺模態(tài)要么是不必要的,要么僅僅是有幫助的。

我們假設(shè)這是在任務(wù)的惟一可用數(shù)據(jù)集(Multi30K)中使用的非常簡(jiǎn)單、簡(jiǎn)短和重復(fù)的語(yǔ)句的結(jié)果,其中源文本被呈現(xiàn)為上下文。

然而,在一般情況下,我們認(rèn)為可以將視覺信息和文本信息結(jié)合起來(lái)進(jìn)行實(shí)際的翻譯。

在本文中,我們通過系統(tǒng)的分析探討了視覺模態(tài)對(duì)最先進(jìn)的MMT模型的貢獻(xiàn)。我們的結(jié)果表明,在有限的文本上下文中,模型能夠利用視覺輸入生成更好的翻譯。這與當(dāng)前的觀點(diǎn)相矛盾,即要么是因?yàn)閳D像特征的質(zhì)量,要么是因?yàn)樗鼈兗傻侥P椭械姆绞?,MMT模型忽視了視覺模態(tài)。

最佳資源論文:常識(shí)性問答的新數(shù)據(jù)集

最佳資源論文(Best Resource Paper)

CommonsenseQA:AQuestionAnsweringChallengeTargetingCommonsenseKnowledge

AlonTalmor,JonathanHerzig,NicholasLourieandJonathanBerant

https://arxiv.org/abs/1811.00937

在回答一個(gè)問題時(shí),除了特定的上下文外,人們往往會(huì)利用他們豐富的世界知識(shí)。

最近的工作主要集中在回答一些有關(guān)文件或背景的問題,很少需要一般常識(shí)背景。

為了研究基于先驗(yàn)知識(shí)的問答任務(wù),我們提出了CommonsenseQA:一個(gè)具有挑戰(zhàn)性的用于常識(shí)性問答的新數(shù)據(jù)集。

為了獲取超出關(guān)聯(lián)之外的常識(shí),我們從ConceptNet(Speeretal.,2017)中提取了與單個(gè)源概念具有相同語(yǔ)義關(guān)系的多個(gè)目標(biāo)概念。參與者被要求撰寫多項(xiàng)選擇題,其中要提到源概念,并依次區(qū)分每個(gè)目標(biāo)概念。這鼓勵(lì)參與人員創(chuàng)建具有復(fù)雜語(yǔ)義的問題,這些問題通常需要先驗(yàn)知識(shí)。

我們通過這個(gè)過程創(chuàng)建了12247個(gè)問題,并用大量強(qiáng)大的基線說明了我們?nèi)蝿?wù)的難度。我們最好的基線是基于BERT-large(Devlinetal.,2018)的,獲得56%的準(zhǔn)確率,遠(yuǎn)低于人類表現(xiàn),即89%的準(zhǔn)確度。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6244

    瀏覽量

    110193
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11246
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    629

    瀏覽量

    14556

原文標(biāo)題:自然語(yǔ)言處理頂會(huì)NAACL最佳論文出爐!谷歌BERT名至實(shí)歸獲最佳長(zhǎng)論文

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    后摩智能六篇論文入選四大國(guó)際會(huì)

    2025年以來(lái),后摩智能在多項(xiàng)前沿研究領(lǐng)域取得突破性進(jìn)展,近期在NeurIPS、ICCV、AAAI、ACMMM四大國(guó)際會(huì)上有 6 篇論文入選。致力于大模型的推理優(yōu)化、微調(diào)、部署等關(guān)鍵技術(shù)難題,為大模型的性能優(yōu)化與跨場(chǎng)景應(yīng)用提供
    的頭像 發(fā)表于 11-24 16:42 ?608次閱讀
    后摩智能六篇<b class='flag-5'>論文</b>入選四大國(guó)際<b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>

    理想汽車12篇論文入選全球五大AI會(huì)

    2025年三季度以來(lái),理想汽車基座模型團(tuán)隊(duì)在國(guó)際頂級(jí)AI學(xué)術(shù)會(huì)議上取得重大突破,共有12篇高質(zhì)量研究論文入選AAAI、NeurIPS、EMNLP、ACM MM、ICCV五大會(huì)。
    的頭像 發(fā)表于 11-21 14:44 ?362次閱讀
    理想汽車12篇<b class='flag-5'>論文</b>入選全球五大AI<b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>

    Nullmax端到端軌跡規(guī)劃論文入選AAAI 2026

    11月8日,全球人工智能會(huì) AAAI 2026 公布論文錄用結(jié)果,Nullmax 研發(fā)團(tuán)隊(duì)的端到端軌跡規(guī)劃論文成功入選。該
    的頭像 發(fā)表于 11-12 10:53 ?497次閱讀

    云知聲論文入選自然語(yǔ)言處理會(huì)EMNLP 2025

    近日自然語(yǔ)言處理(NLP)領(lǐng)域國(guó)際權(quán)威會(huì)議 ——2025 年計(jì)算語(yǔ)言學(xué)與自然語(yǔ)言
    的頭像 發(fā)表于 11-10 17:30 ?466次閱讀
    云知聲<b class='flag-5'>論文</b>入選<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>EMNLP 2025

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室五篇論文入選NeurIPS 2025

    近日,機(jī)器學(xué)習(xí)與計(jì)算神經(jīng)科學(xué)領(lǐng)域全球頂級(jí)學(xué)術(shù)頂級(jí)會(huì)議NeurIPS 2025公布論文錄用結(jié)果,思必馳-上海交大聯(lián)合實(shí)驗(yàn)室共有5篇論文被收錄。
    的頭像 發(fā)表于 10-23 15:24 ?516次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室五篇<b class='flag-5'>論文</b>入選NeurIPS 2025

    智芯公司榮獲ICEPT 2025優(yōu)秀論文獎(jiǎng)

    近日,第26屆電子封裝技術(shù)國(guó)際會(huì)議(ICEPT 2025)在上海舉行。智芯公司提交的論文“WBLGA SiP High-Reliability and High-Thermal
    的頭像 發(fā)表于 08-26 11:22 ?919次閱讀

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室研究成果入選兩大頂級(jí)會(huì)議

    近日,計(jì)算語(yǔ)言學(xué)與自然語(yǔ)言處理領(lǐng)域全球頂級(jí)會(huì)議ACL 2025及語(yǔ)音研究領(lǐng)域旗艦會(huì)議INTERS
    的頭像 發(fā)表于 07-11 16:24 ?693次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室研究成果入選兩大頂級(jí)<b class='flag-5'>會(huì)議</b>

    格靈深瞳六篇論文入選ICCV 2025

    近日,國(guó)際頂級(jí)會(huì)議ICCV 2025(計(jì)算機(jī)視覺國(guó)際大會(huì))公布論文錄用結(jié)果,格靈深瞳團(tuán)隊(duì)共有6篇論文入選。
    的頭像 發(fā)表于 07-07 18:23 ?1273次閱讀

    后摩智能與高校合作研究成果榮獲ISCA 2025最佳論文獎(jiǎng)

    》,成功榮獲第52屆計(jì)算機(jī)體系結(jié)構(gòu)國(guó)際研討會(huì)(ISCA)最佳論文獎(jiǎng)。作為國(guó)內(nèi)學(xué)術(shù)機(jī)構(gòu)在該會(huì)議上的首次獲獎(jiǎng)成果,其核心創(chuàng)新聚焦于邊緣側(cè)大語(yǔ)言
    的頭像 發(fā)表于 07-05 11:21 ?1834次閱讀

    理想汽車八篇論文入選ICCV 2025

    近日,ICCV 2025(國(guó)際計(jì)算機(jī)視覺大會(huì))公布論文錄用結(jié)果,理想汽車共有8篇論文入選,其中5篇來(lái)自自動(dòng)駕駛團(tuán)隊(duì),3篇來(lái)自基座模型團(tuán)隊(duì)。ICCV作為計(jì)算機(jī)視覺領(lǐng)域的頂級(jí)學(xué)術(shù)
    的頭像 發(fā)表于 07-03 13:58 ?800次閱讀

    后摩智能四篇論文入選三大國(guó)際會(huì)

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國(guó)際會(huì)收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國(guó)際
    的頭像 發(fā)表于 05-29 15:37 ?1072次閱讀

    云知聲四篇論文入選自然語(yǔ)言處理會(huì)ACL 2025

    結(jié)果正式公布。云知聲在此次國(guó)際學(xué)術(shù)盛會(huì)中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會(huì)論文(Main Paper)和2篇Findings。入選的4篇
    的頭像 發(fā)表于 05-26 14:15 ?1018次閱讀
    云知聲四篇<b class='flag-5'>論文</b>入選<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>ACL 2025

    美報(bào)告:中國(guó)芯片研究論文全球領(lǐng)先

    據(jù)新華社報(bào)道,美國(guó)喬治敦大學(xué)“新興技術(shù)觀察項(xiàng)目(ETO)”3日在其網(wǎng)站發(fā)布一份報(bào)告說,2018年至2023年間,在全球發(fā)表的芯片設(shè)計(jì)和制造相關(guān)論文中,中國(guó)研究人員的論文數(shù)量遠(yuǎn)超其他國(guó)家,中國(guó)在高被
    的頭像 發(fā)表于 03-05 14:32 ?1699次閱讀

    后摩智能5篇論文入選國(guó)際會(huì)

    2025年伊始,后摩智能在三大國(guó)際會(huì)(AAAI、ICLR、DAC)中斬獲佳績(jī),共有5篇論文被收錄,覆蓋大語(yǔ)言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?1164次閱讀
    后摩智能5篇<b class='flag-5'>論文</b>入選國(guó)際<b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    Learning,簡(jiǎn)稱ML)是人工智能的一個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語(yǔ)言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識(shí),從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?2513次閱讀