chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook人工智能在自然語言理解方面取得重大突破

電子工程師 ? 來源:郭婷 ? 作者:新浪科技 ? 2019-09-17 17:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語言理解(NLU)和語言翻譯是一系列重要應(yīng)用的關(guān)鍵,包括大規(guī)模識別和刪除有害內(nèi)容,以及連接世界各地不同語言的人們。盡管近年來基于深度學習的方法加速了語言處理的進展,但在處理大量標記訓練數(shù)據(jù)不易獲得的任務(wù)時,現(xiàn)有系統(tǒng)的處理水平仍然是有限的。

因此,F(xiàn)acebook 聯(lián)合 Deepmind Technologies、紐約大學(NYU)及華盛頓大學(UW)合作構(gòu)建新基準 SuperGLUE,并發(fā)布了相關(guān)內(nèi)容介紹該高難度測試基準。

SuperGLUE 推出背景

最近,F(xiàn)acebook 人工智能在 NLP 方面取得了重大突破。Facebook 通過使用半監(jiān)督和自監(jiān)督學習技術(shù),利用未標記的數(shù)據(jù)來提高純監(jiān)督系統(tǒng)的性能。

在第四屆機器翻譯大會(WMT19)比賽中,F(xiàn)acebook 采用了一種新型的半監(jiān)督訓練方法,并在多種語言翻譯任務(wù)中獲得了第一名。Facebook 還引入了一種新的自我監(jiān)督的預(yù)訓練方法——RoBERTa。它在一些語言理解任務(wù)上超過了所有現(xiàn)有的 NLU 系統(tǒng)。在某些情況下,這些系統(tǒng)甚至優(yōu)于人類基線,包括英德翻譯和五個 NLU 基準。

在整個自然語言處理領(lǐng)域,NLU 系統(tǒng)的發(fā)展速度如此之快,以至于它在許多現(xiàn)有的基準上已經(jīng)達到了一個極限。為了繼續(xù)提高技術(shù)水平,F(xiàn)acebook 與 Deepmind Technologies、紐約大學及華盛頓大學合作開發(fā)了一套全新的基準、排行榜和 PyTorch 工具包(https://jiant.info/),F(xiàn)acebook 希望這些成果將進一步推動自然語言處理領(lǐng)域的研究進展。

簡而言之,這些新工具將幫助人類創(chuàng)建更強大的內(nèi)容理解系統(tǒng),而且能夠翻譯數(shù)百種語言,理解諸如含糊不清、共同引用和常識性推理等復雜的問題,從而減少現(xiàn)有的這些系統(tǒng)對大量標記訓練數(shù)據(jù)的依賴性。

翻譯準確性的突破

對于神經(jīng)機器翻譯(NMT)模型,有監(jiān)督式訓練通常需要大量附有參考翻譯的句子。然而,大量高質(zhì)量的雙語數(shù)據(jù)并不是普遍可用的,這就要求研究人員使用沒有參考翻譯的單語數(shù)據(jù)。反向翻譯(Back translation,一種半監(jiān)督學習技術(shù))允許 Facebook 在一定程度上克服這個問題。

Facebook 最近提交給 WMT 的報告是基于 Facebook 之前在大規(guī)模反向翻譯方面的工作,這也幫助 Facebook 在去年的同一比賽中贏得了第一名。

而今年,F(xiàn)acebook 引入了一種新的方法,通過生成多個候選譯文,并選擇最能平衡正向、反向、流暢性三種不同模型分數(shù)的譯文,來進一步改進 Facebook 的反向翻譯系統(tǒng)。

正向模型的分數(shù)主要由候選翻譯在多大程度上捕捉了原句的意思來衡量;相反,反向模型的分數(shù)是通過查看模型能從候選譯文中重建出的句子準確性來評判;流暢性模型的分數(shù)根據(jù)候選翻譯流暢性來衡量,最后系統(tǒng)通過觀察大量的單語數(shù)據(jù)以自我監(jiān)督的方式進行訓練;經(jīng)過對這三個分數(shù)的平衡,系統(tǒng)就能夠產(chǎn)生顯著優(yōu)化后的翻譯結(jié)果。

經(jīng)過幾年的努力,F(xiàn)acebook 將英-德語翻譯任務(wù)的性能提高了 4.5 BLEU(衡量生成的翻譯和專業(yè)參考之間重疊程度的指標),這是一個很大的改進。根據(jù)人工評估,F(xiàn)acebook 的模型在英-德、德-英、英-俄,和俄-英四個翻譯任務(wù)中排名第一。根據(jù) WMT 賽制的評判,F(xiàn)acebook 的英-德語翻譯甚至比人工翻譯更佳。

圖 1 Facebook 引入的一種新方法

上面的圖片展示了這種技術(shù)是如何工作的:首先,一個正向模型將一個句子翻譯成英語,例如從德語翻譯成英語,就會生成一組英語翻譯或假設(shè)。然后,一個反向模型將這些英語假設(shè)翻譯回德語,使系統(tǒng)能夠評估每個英語翻譯與原始德語句子的匹配程度。最后,一個語言模型來判斷英語翻譯的流暢程度。

Facebook 還將訓練擴展到了更大的數(shù)據(jù)集,包括大約 100 億個單詞用于英語到德語翻譯的詞匯。與去年相比,F(xiàn)acebook 使用了兩倍多的單語數(shù)據(jù)進行半監(jiān)督訓練,進一步提高了翻譯的準確性。更多詳情,可以參考 Facebook 人工智能在 2019 年 WMT 國際機器翻譯大賽中的表現(xiàn)(https://ai.facebook.com/blog/facebook-leads-wmt-translation-competition/)。

自監(jiān)督預(yù)訓練方法的改進

Facebook 最近對自然語言處理(NLP)的最大突破——BERT, 也進行了優(yōu)化和改進。Google 在 2018 年發(fā)布了 BERT。它是革命性的,因為它展示了自監(jiān)督訓練技術(shù)的潛力,它具有與傳統(tǒng)的標簽密集型監(jiān)督方法的性能相媲美甚至超越它的能力。例如,F(xiàn)acebook 利用 BERT 和相關(guān)方法推動對話型人工智能領(lǐng)域的前沿研究,改進內(nèi)容理解系統(tǒng),提高低資源和無監(jiān)督的翻譯質(zhì)量。

因為 Google 開源了 BERT,F(xiàn)acebook 才能夠進行一項復制研究,并確定進一步提高其有效性的設(shè)計變更。Facebook 引入了穩(wěn)健優(yōu)化的 BERT 預(yù)訓練方法,即 RoBERTa,并取得了新的最先進進展。

RoBERTa 修改了 BERT 中的關(guān)鍵超參數(shù),包括刪除 BERT 的下一個句子的預(yù)訓練目標,并使用更大的批量和學習率進行訓練。與 BERT 相比,RoBERTa 的數(shù)據(jù)總量要多 10 倍以上,因此訓練時間也要長得多。這種方法在廣泛使用的 NLP 基準測試、通用語言理解評估(GLUE)和閱讀理解考試(RACE)上產(chǎn)生了最先進的結(jié)果。

圖 2 圖表展示了 RoBERTa 在不同任務(wù)中的結(jié)果

憑借平均得分 88.5 分,RoBERTa 贏得了 GLUE 排行榜的榜首位置,與之前第一名——平均得分為 88.4 分的 XLNet-Large 表現(xiàn)不相上下。RoBERTa 還在一些語言理解基準測試水平上實現(xiàn)了提高,包括 MNLI、QNLI、RTE、STS-B 和 RACE 任務(wù)。

這一部分就是 Facebook 不斷致力于提高不太依賴于數(shù)據(jù)標記的自監(jiān)督系統(tǒng)的性能和潛力的內(nèi)容。有關(guān) RoBERTa 的更多詳細信息,請參考‘RoBERTa:預(yù)訓練自監(jiān)督 NLP 系統(tǒng)的優(yōu)化方法(https://ai.facebook.com/blog/roberta-an-optimized-method-for-pretraining-self-supervised-nlp-systems/)’。

NLP 研究的下一個前沿

作為衡量研究進展的行業(yè)標準,GLUE 旨在覆蓋大量的 NLP 任務(wù),因此只有構(gòu)建足夠通用的工具來幫助解決大多數(shù)新的語言理解問題,才能得到良好的表現(xiàn)。

在發(fā)布后的一年內(nèi),幾個 NLP 模型(包括 RoBERTa)已經(jīng)在 GLUE 基準測試中超過了人類。目前的模型已經(jīng)提出了一個令人驚訝的有效方法,它將大型文本數(shù)據(jù)集上的語言模型預(yù)訓練與簡單的多任務(wù)和轉(zhuǎn)移學習技術(shù)進行了結(jié)合。

這種快速的進步是大型人工智能社區(qū)內(nèi)協(xié)作的一個功能。上面描述的 NLP 競賽、基準測試和代碼發(fā)布使模型復制,改進和最先進結(jié)果的更快進步成為可能。隨著 GPT 和 BERT 的引入,GLUE 的模型性能急劇提升,現(xiàn)在最先進的模型已經(jīng)超越了人類的能力,如圖 3 所示:

圖 3 最先進的自然語言處理模型能力已經(jīng)超越人類

盡管目前的模型可以在特定的 GLUE 任務(wù)上超越人類水平的性能,但它們還不能完美地解決人類解決的一些任務(wù)。為了給 NLP 研究設(shè)定一個新的更高的標準,facebook 人工智能團隊與紐約大學、deepmind 以及華盛頓大學合作構(gòu)建了 SuperGLUE,這是一個具有全面人類基線的更高難度基準。Facebook 正在推出 SuperGlue,讓自然語言理解領(lǐng)域的研究人員能夠繼續(xù)推進最先進的技術(shù)。

SuperGLUE 基準測試

最初的基準和新的基準都是由紐約大學發(fā)起,與相同的合作伙伴合作創(chuàng)建。SuperGLUE 緊跟 GLUE 的腳步,GLUE 提供了單一的數(shù)字度量,用于總結(jié)不同 NLP 任務(wù)集的進度。除了新的基準之外,F(xiàn)acebook 還發(fā)布了一個用于引導研究的排行榜和 pytorch 工具包。

SuperGlue 包含了新的方法來測試一系列困難的 NLP 任務(wù)的創(chuàng)造性方法,這些任務(wù)主要關(guān)注機器學習一些核心領(lǐng)域的創(chuàng)新,包括樣本有效性、轉(zhuǎn)移、多任務(wù)和自監(jiān)督學習。為了向研究人員提出挑戰(zhàn),F(xiàn)acebook 選擇了格式多樣、問題更為微妙、尚未用最先進方法解決但容易被人們解決的任務(wù)。為了檢查這些任務(wù),F(xiàn)acebook 為許多候選任務(wù)運行基于 BERT 的基線,并為人工基線收集數(shù)據(jù)。

新的基準測試包括八個不同且具有挑戰(zhàn)性的任務(wù),其中包括選擇合理的替代方案(COPA),一個因果推理任務(wù)。在這個任務(wù)中,系統(tǒng)被賦予一個前提語句,并且必須從兩個可能的選擇中確定這個前提語句的因果。值得注意的是,人類在 COPA 上獲得了 100% 的準確率,而 BERT 只獲得了 74%,這表明 BERT 還有很大的進步空間。

其他獨特的前沿組件還包括用于測量這些模型中偏差的診斷工具。例如:winogender,它是為了測試在自動指代消解系統(tǒng)(automated co-reference resolution systems)中是否存在性別偏見而設(shè)計的。SuperGlue 還包括一個名為‘BoolQ’的問答(QA)任務(wù),其中每個示例都由一個段落和一個關(guān)于該段落的是’或‘否’問題組成;它是自然問題基準測試中的一個很好的工具。

圖 4 該示例表示 SuperGlue 中八個任務(wù)中的 1 個。粗體文本表示每個任務(wù)示例格式的一部分;斜體文本是模型輸入的一部分;帶下劃線的文本在輸入中特別標記;等寬字體中的文本表示預(yù)期的模型輸出(更多示例請閱讀原文)

與 GLUE 類似,新的基準測試還包括一個圍繞自然語言理解任務(wù)構(gòu)建的公共排行榜,它利用現(xiàn)有數(shù)據(jù),并附帶一個單數(shù)字性能指標和一個分析工具包。

Facebook 最近針對新的基準測試了 RoBERTa,RoBERTa 在多語言閱讀理解(Multientence Reading Comprehension,MultiRC)任務(wù)中的表現(xiàn)超過了所有現(xiàn)有的 NLU 系統(tǒng),甚至超過了人類在該任務(wù)上的基線。盡管如此,在許多 SuperGLUE 任務(wù)中,RoBERTa 與人類基線之間仍然存在很大差距,這說明了當今最先進的 NLU 系統(tǒng)的一些局限性。

圖 5 RoBERTa 在多語言閱讀理解任務(wù)中表現(xiàn)與其它方法的對比

下一步計劃

為了進一步挑戰(zhàn)人工智能系統(tǒng)能為人類提供的幫助,F(xiàn)acebook 還引入了第一個長格式的問答數(shù)據(jù)集和基準測試,它要求機器提供長而復雜的答案——這是現(xiàn)有算法以前從未遇到過的挑戰(zhàn)。

目前的問答系統(tǒng)主要集中在一些瑣碎的問題上,比如水母是否有大腦。這項新的挑戰(zhàn)更進一步,要求機器對開放性問題進行深入的解答,例如‘沒有大腦,水母如何工作?’現(xiàn)有的算法與人類的表現(xiàn)相去甚遠,這一新的挑戰(zhàn)將促使人工智能合成來自不同來源的信息,為開放式問題提供復雜的答案。

近期,F(xiàn)acebook 還公布了來自 35 個國家的 115 份獲獎提案中的 11 份,并宣布成立人工智能語言研究聯(lián)盟 (AI Language Research Consortium),這是一個由合作伙伴組成的社區(qū),F(xiàn)acebook 表示將‘共同努力,推進 NLP’。

除了與 Facebook 的研究人員就多年項目和出版物進行合作外,人工智能語言研究聯(lián)盟的成員還有機會獲得研究經(jīng)費,參加年度研究講習班,參加重要的 NLP 會議。Facebook 表示:‘這些 NLP 和機器翻譯的研究獎項是我們長期目標的延續(xù),我們希望這個聯(lián)盟,以及這些 NLP 和機器翻譯的研究獎項,會有助于加速 NLP 社區(qū)的研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    58351
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49734

    瀏覽量

    261529
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    匯川技術(shù)構(gòu)網(wǎng)型儲能系統(tǒng)在工程化應(yīng)用方面取得重大突破

    復雜氣候與特殊電網(wǎng)環(huán)境下,新能源項目的涉網(wǎng)性能面臨嚴峻挑戰(zhàn)。該項目試驗結(jié)果顯示,其多項關(guān)鍵技術(shù)指標超額達標,標志著我司構(gòu)網(wǎng)型儲能系統(tǒng)(PCS)技術(shù)在工程化應(yīng)用方面取得重大突破。
    的頭像 發(fā)表于 12-05 10:49 ?383次閱讀

    云知聲論文入選自然語言處理頂會EMNLP 2025

    近日,自然語言處理(NLP)領(lǐng)域國際權(quán)威會議 ——2025 年計算語言學與自然語言處理國際會議(EMNLP 2025)公布論文錄用結(jié)果,云知聲提交的《面向門診病歷生成的高質(zhì)量醫(yī)患對話合成技術(shù)
    的頭像 發(fā)表于 11-10 17:30 ?513次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b>處理頂會EMNLP 2025

    中國芯片研制獲重大突破 全球首款亞埃米級快照光譜成像芯片

    “玉衡”,相關(guān)研究成果發(fā)表在《自然》。這是我國在智能光子領(lǐng)域的重大突破,標志著我國智能光子技術(shù)在高精度成像測量領(lǐng)域邁上新臺階。 此外我們還看到,日前,北京大學
    的頭像 發(fā)表于 10-16 17:58 ?2097次閱讀

    達坦能源TAPP智能無線井下壓力監(jiān)測系統(tǒng)取得重大突破

    近日,在陜北某區(qū)塊煤巖氣井測試中,達坦能源自主研發(fā)的TAPP智能無線井下壓力監(jiān)測系統(tǒng)取得重大突破。
    的頭像 發(fā)表于 07-31 11:16 ?1098次閱讀

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢 ? ? 近年來,人工智能(AI)技術(shù)迅猛發(fā)展,深刻影響著各行各業(yè)。從計算機視覺到自然語言處理,從自動駕駛到醫(yī)療診斷,AI的應(yīng)用場景不斷擴展,推動社會向智能
    的頭像 發(fā)表于 07-16 15:01 ?1190次閱讀

    中軟國際在能源化工行業(yè)大模型項目取得重大突破

    近日,中軟國際簽約某大型石油企業(yè)大模型開發(fā)項目。作為中國能源化工行業(yè)首個備案的大模型,此次簽約標志著中軟國際在能源化工行業(yè)人工智能領(lǐng)域取得重大突破。根據(jù)項目規(guī)劃,中軟國際將針對輸送管質(zhì)量檢測、常減壓工藝運行優(yōu)化、設(shè)備預(yù)測性維護
    的頭像 發(fā)表于 07-05 17:03 ?1207次閱讀

    人工智能在現(xiàn)代戰(zhàn)場上的五大戰(zhàn)略優(yōu)勢

    還將為指揮官提供決策支持工具、能夠管理任務(wù)和資源的系統(tǒng),以及使用自然語言處理技術(shù)分析多源情報報告。本文將概述,雖然通信往往具有挑戰(zhàn)性,計算能力也有限,但仍有機會從人工智能中獲益。此外,還將重點介紹人工智能技術(shù)可為戰(zhàn)
    的頭像 發(fā)表于 02-19 11:11 ?866次閱讀

    Figure AI宣布終止與OpenAI合作,稱已在AI方面取得重大突破

    領(lǐng)域取得了“重大突破”。該公司聲稱,這一突破完全是在其內(nèi)部獨立開發(fā)的,無需依賴外部合作伙伴。這一成就不僅展示了Figure AI在技術(shù)研發(fā)方面的強大實力,也為其未來的發(fā)展奠定了堅實基礎(chǔ)
    的頭像 發(fā)表于 02-06 14:08 ?777次閱讀

    重大突破!優(yōu)刻得×腦虎科技腦機接口臨床試驗取得新進展

    華山醫(yī)院先后開展了高精度實時運動解碼和語言解碼臨床試驗研究,并取得重大技術(shù)突破,使得“腦控”智能設(shè)備和“意念對話”成為現(xiàn)實。高通量植入式柔性
    的頭像 發(fā)表于 01-03 16:57 ?2144次閱讀
    <b class='flag-5'>重大突破</b>!優(yōu)刻得×腦虎科技腦機接口臨床試驗<b class='flag-5'>取得</b>新進展

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    近年來,人工智能領(lǐng)域的大模型技術(shù)在多個方向上取得突破性的進展,特別是在機器人控制領(lǐng)域展現(xiàn)出了巨大的潛力。在“具身智能機器人大模型”部分,作者研究并探討了大模型如何提升機器人的能力,大
    發(fā)表于 12-29 23:04

    2025年人工智能在工程領(lǐng)域的應(yīng)用趨勢

    人工智能在重塑工程范式方面發(fā)揮著關(guān)鍵作用,它提供的工具和方法可提高各個領(lǐng)域的精度、效率和適應(yīng)性。想要在人工智能競賽中保持領(lǐng)先的工程領(lǐng)導者應(yīng)該關(guān)注四個關(guān)鍵領(lǐng)域的進步:生成式人工智能、驗證
    的頭像 發(fā)表于 12-27 15:40 ?2148次閱讀

    人工智能推理及神經(jīng)處理的未來

    人工智能行業(yè)所圍繞的是一個受技術(shù)進步、社會需求和監(jiān)管政策影響的動態(tài)環(huán)境。機器學習、自然語言處理和計算機視覺方面的技術(shù)進步,加速了人工智能的發(fā)展和應(yīng)用。包括醫(yī)療保健、金融和制造業(yè)在內(nèi)的各
    的頭像 發(fā)表于 12-23 11:18 ?869次閱讀
    <b class='flag-5'>人工智能</b>推理及神經(jīng)處理的未來

    模型案例之綿羊檢測模型

    ? 導讀? ? 2023年以ChatGPT為代表的大語言模型橫空出世,它的出現(xiàn)標志著自然語言處理領(lǐng)域取得重大突破。它在文本生成、對話系統(tǒng)和語言
    的頭像 發(fā)表于 12-20 10:27 ?763次閱讀
    模型案例之綿羊檢測模型

    國外科研團隊在X射線科學領(lǐng)域取得重大突破

    近日,據(jù)《自然·光子學》報道,歐洲X射線自由電子激光裝置(XFEL)和德國電子同步加速器研究中心團隊在X射線科學領(lǐng)域取得重大突破。他們成功生成了前所未有的高功率、阿秒級硬X射線脈沖,且重復頻率達到
    的頭像 發(fā)表于 12-20 09:11 ?674次閱讀

    人機環(huán)境系統(tǒng)智能化:人工智能的未來發(fā)展趨勢

    與機器、環(huán)境之間的高效協(xié)同和智能化互動。隨著AI技術(shù)的發(fā)展,特別是自然語言處理、計算機視覺、物聯(lián)網(wǎng)、大數(shù)據(jù)分析、機器學習等技術(shù)的成熟,人機環(huán)境系統(tǒng)智能的應(yīng)用場景和實際價值正在不斷擴大。 1.?人機環(huán)境系統(tǒng)
    的頭像 發(fā)表于 12-09 14:05 ?1186次閱讀