chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌大腦CMU聯(lián)手推出XLNet,20項(xiàng)任務(wù)全面超越BERT

gckX_aicapital ? 來(lái)源:YXQ ? 2019-06-22 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌大腦和CMU聯(lián)合團(tuán)隊(duì)提出面向NLP預(yù)訓(xùn)練新方法XLNet,性能全面超越此前NLP領(lǐng)域的黃金標(biāo)桿BERT,在20個(gè)任務(wù)上實(shí)現(xiàn)了性能的大幅提升,刷新了18個(gè)任務(wù)上的SOTA結(jié)果,可謂全面屠榜!

近日,谷歌大腦主任科學(xué)家Quoc V. Le在Twitter上放出一篇重磅論文,立即引發(fā)熱議:

這篇論文提出一種新的NLP模型預(yù)訓(xùn)練方法XLNet,在20項(xiàng)任務(wù)上(如SQuAD、GLUE、RACE) 的性能大幅超越了此前NLP黃金標(biāo)桿BERT。

XLNet:克服BERT固有局限,20項(xiàng)任務(wù)性能強(qiáng)于BERT

本文提出的XLNet是一種廣義自回歸預(yù)訓(xùn)練方法,具有兩大特點(diǎn):(1)通過(guò)最大化分解階的所有排列的預(yù)期可能性來(lái)學(xué)習(xí)雙向語(yǔ)境,(2)由于其自回歸的性質(zhì),克服了BERT的局限性。

此外,XLNet將最先進(jìn)的自回歸模型Transformer-XL的創(chuàng)意整合到預(yù)訓(xùn)練過(guò)程中。實(shí)驗(yàn)顯示,XLNet在20個(gè)任務(wù)上的表現(xiàn)優(yōu)于BERT,而且大都實(shí)現(xiàn)了大幅度性能提升,并在18個(gè)任務(wù)上達(dá)到了SOTA結(jié)果,這些任務(wù)包括問(wèn)答、自然語(yǔ)言推理、情感分析和文檔排名等。

與現(xiàn)有語(yǔ)言預(yù)訓(xùn)練目標(biāo)相比,本文提出了一種廣義的自回歸方法,同時(shí)利用了AR語(yǔ)言建模和AE的優(yōu)點(diǎn),同時(shí)避免了二者的局限性。首先是不再像傳統(tǒng)的AR模型那樣,使用固定的前向或后向分解順序,而是最大化序列的預(yù)期對(duì)數(shù)似然性分解順序的所有可能排列。每個(gè)位置的上下文可以包含來(lái)自該位置前后的令牌,實(shí)現(xiàn)捕獲雙向語(yǔ)境的目標(biāo)。

作為通用AR語(yǔ)言模型,XLNet不依賴于數(shù)據(jù)損壞。因此,XLNet不會(huì)受到BERT受到的預(yù)訓(xùn)練和微調(diào)后的模型之間差異的影響。同時(shí)以自然的方式使用乘積規(guī)則,分解預(yù)測(cè)的令牌的聯(lián)合概率,從而消除了在BERT中做出的獨(dú)立性假設(shè)。

除了新的預(yù)訓(xùn)練目標(biāo)外,XLNet還改進(jìn)了預(yù)訓(xùn)練的架構(gòu)設(shè)計(jì)。 XLNet將Transformer-XL的分段重復(fù)機(jī)制和相對(duì)編碼方案集成到預(yù)訓(xùn)練中,從而憑經(jīng)驗(yàn)改進(jìn)了性能,對(duì)于涉及較長(zhǎng)文本序列的任務(wù)效果尤其明顯。

圖1:在給定相同輸入序列x,但分解順序不同的情況下,對(duì)置換語(yǔ)言建模目標(biāo)的預(yù)測(cè)結(jié)果

圖2:(a):內(nèi)容流注意力機(jī)制,與標(biāo)準(zhǔn)的自注意力機(jī)制相同。(b)查詢流注意力,其中不含關(guān)于內(nèi)容xzt的訪問(wèn)信息。(c):使用雙信息流注意力機(jī)制的置換語(yǔ)言建模訓(xùn)練示意圖。

全面屠榜:大幅刷新18項(xiàng)任務(wù)數(shù)據(jù)集SOTA性能

表1:與閱讀理解任務(wù)RACE測(cè)試集的最新結(jié)果的比較。 *表示使用聚集模型。 RACE中的“Middle”和“High”是代表初中和高中難度水平的兩個(gè)子集。所有BERT和XLNet結(jié)果均采用大小相似的模型(又稱BERT-Large),模型為24層架構(gòu)。我們的XLNet單一模型在精確度方面高出了7.6分

表2:?jiǎn)蝀LNet模型在SQuAD1.1數(shù)據(jù)集上的性能優(yōu)于分別優(yōu)于真人表現(xiàn)和最佳聚集模型性能達(dá)7.6 EM和2.5 EM。

表3:與幾個(gè)文本分類數(shù)據(jù)集的測(cè)試集上錯(cuò)誤率SOTA結(jié)果的比較。所有BERT和XLNet結(jié)果均采用具有相似大小的24層模型架構(gòu)(BERT-Large)

表4:GLUE數(shù)據(jù)集上的結(jié)果。所有結(jié)果都基于具有相似模型尺寸的24層架構(gòu)(也稱BERT-Large)??梢詫⒆钌闲信cBERT和最下行中的結(jié)果直接比較。

表5:與文檔排名任務(wù)ClueWeb09-B的測(cè)試集上的最新結(jié)果的比較。 ?表示XLNet的結(jié)果。

表6:我們使用BERT官方實(shí)現(xiàn)方案和XLNet超參數(shù)搜索空間在其他數(shù)據(jù)集上運(yùn)行BERT,結(jié)果如圖所示,其中K是控制優(yōu)化難度的超參數(shù)。所有模型都在相同的數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練。

從實(shí)驗(yàn)結(jié)果可以看出,說(shuō)XLNet全面超越BERT其實(shí)一點(diǎn)都不夸張。

知乎熱議:512TPU訓(xùn)練,家里沒(méi)礦真搞不起

有熱心網(wǎng)友一早將這篇“屠榜”論文發(fā)在了知乎上,從網(wǎng)友的評(píng)論上看,一方面承認(rèn)谷歌和CMU此項(xiàng)成果的突破,同時(shí)也有人指出,這樣性能強(qiáng)勁的XLNet,還是要背靠谷歌TPU平臺(tái)的巨額算力資源,“大力出奇跡”果然還是深度學(xué)習(xí)界的第一真理嗎?

比如,網(wǎng)友“Towser”在對(duì)論文核心部分內(nèi)容的簡(jiǎn)要回顧中,提到了XLNet的優(yōu)化方法,其中引人注目的一點(diǎn)是其背后的谷歌爸爸的海量算力資源的支持:

512個(gè)TPU訓(xùn)練了2.5天,訓(xùn)練總計(jì)算量是BERT的5倍!要知道作為谷歌的親兒子,BERT的訓(xùn)練計(jì)算量已經(jīng)讓多數(shù)人望塵莫及了。沒(méi)錢(qián),搞什么深度學(xué)習(xí)?

難怪NLP領(lǐng)域的專家、清華大學(xué)劉知遠(yuǎn)副教授對(duì)XLNet一句評(píng)價(jià)被毫無(wú)懸念地頂?shù)搅酥踝罡哔潱?/p>

目前,XLNet的代碼和預(yù)訓(xùn)練模型也已經(jīng)在GitHub上放出。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6244

    瀏覽量

    110208
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23182

原文標(biāo)題:NLP新標(biāo)桿!谷歌大腦CMU聯(lián)手推出XLNet,20項(xiàng)任務(wù)全面超越BERT

文章出處:【微信號(hào):aicapital,微信公眾號(hào):全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌正式推出最新Gemini 3 AI模型

    今天我們正式推出 Gemini 3,這是我們迄今為止最智能的模型,能夠幫助用戶實(shí)現(xiàn)任何創(chuàng)意。Gemini 3 Pro 基于最先進(jìn)的推理技術(shù),與之前的版本相比,它在所有主要的 AI 基準(zhǔn)測(cè)試中都取得了無(wú)與倫比的結(jié)果,尤其是在編程方面也超越了 2.5 Pro,能夠熟練地處理智
    的頭像 發(fā)表于 11-24 11:10 ?702次閱讀
    <b class='flag-5'>谷歌</b>正式<b class='flag-5'>推出</b>最新Gemini 3 AI模型

    芯原與谷歌聯(lián)合推出開(kāi)源Coral NPU IP

    芯原股份近日宣布與谷歌聯(lián)合推出面向始終在線、超低能耗端側(cè)大語(yǔ)言模型應(yīng)用的Coral NPU IP。
    的頭像 發(fā)表于 11-13 11:24 ?245次閱讀
    芯原與<b class='flag-5'>谷歌</b>聯(lián)合<b class='flag-5'>推出</b>開(kāi)源Coral NPU IP

    今日看點(diǎn):谷歌芯片實(shí)現(xiàn)量子計(jì)算比經(jīng)典超算快13000倍;NFC 技術(shù)突破:讀取距離從 5 毫米提升至 20 毫米

    性能甚至超越了最快的經(jīng)典超級(jí)計(jì)算機(jī),速度快 13000 倍。 ? Willow是谷歌于去年12月宣布推出的量子芯片。當(dāng)時(shí),Willow量子芯片在5分鐘內(nèi)完成了一項(xiàng)傳統(tǒng)超級(jí)計(jì)算機(jī)需要“1
    發(fā)表于 10-23 10:20 ?1211次閱讀

    AI賦能谷歌Chrome與Web工具全面升級(jí)

    2025 Google 谷歌開(kāi)發(fā)者大會(huì)帶來(lái)了最新 Web 工具,包括全面升級(jí)的 Chrome 開(kāi)發(fā)體驗(yàn)、極大簡(jiǎn)化的 UI 開(kāi)發(fā),到云端兩側(cè)的 AI 部署。這些強(qiáng)大的工具為出海開(kāi)發(fā)者提供了前所未有的加速,幫助他們更高效地打造面向全球用戶的 Web 應(yīng)用。
    的頭像 發(fā)表于 08-29 09:33 ?789次閱讀

    Task任務(wù):LuatOS實(shí)現(xiàn)“任務(wù)級(jí)并發(fā)”的核心引擎

    LuatOS應(yīng)用程序運(yùn)行的核心大腦——所有LuatOS應(yīng)用項(xiàng)目都會(huì)使用到sys核心庫(kù)。 ? ?sys核心庫(kù)提供了四大類功能: Task任務(wù) Message消息 Timer定時(shí)器 Run調(diào)度器 本文將
    的頭像 發(fā)表于 08-28 13:49 ?325次閱讀
    Task<b class='flag-5'>任務(wù)</b>:LuatOS實(shí)現(xiàn)“<b class='flag-5'>任務(wù)</b>級(jí)并發(fā)”的核心引擎

    將HFREFR和LFREFR寄存器值設(shè)置為錯(cuò)誤的值來(lái)將故障注入CMU,但CMU_ISR值始終為零,為什么?

    我試圖通過(guò)將 HFREFR 和 LFREFR 寄存器值設(shè)置為錯(cuò)誤的值來(lái)將故障注入 CMU,但 CMU_ISR值始終為零。
    發(fā)表于 03-28 07:41

    谷歌AI智能體執(zhí)行復(fù)雜任務(wù)能力大幅提升

    自然語(yǔ)言描述任務(wù),隨后由AI智能體代替用戶執(zhí)行并最終完成任務(wù),極大地提升工作效率和便捷性。 為了推進(jìn)這一技術(shù)的實(shí)現(xiàn),谷歌正在積極開(kāi)發(fā)兩個(gè)相關(guān)項(xiàng)目。其中備受矚目的是名為“Mariner”的瀏覽器擴(kuò)展程序。通過(guò)該程序,AI智能體能夠
    的頭像 發(fā)表于 02-17 14:39 ?972次閱讀

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    谷歌旗下 AI 大模型 Gemini 系列全面上新,正式版 Gemini 2.0 Flash、Gemini 2.0 Flash-Lite 以及新一代旗艦大模型 Gemini 2.0 Pro 實(shí)驗(yàn)
    的頭像 發(fā)表于 02-07 15:07 ?1075次閱讀

    DeepSeek用戶量超越谷歌Gemini

    在聊天AI領(lǐng)域的競(jìng)爭(zhēng)中,中國(guó)AI產(chǎn)品DeepSeek展現(xiàn)出了強(qiáng)勁的增長(zhǎng)勢(shì)頭。據(jù)最新數(shù)據(jù)顯示,1月底,DeepSeek的用戶量已經(jīng)成功超越谷歌的Gemini。 具體來(lái)看,1月31日這一天
    的頭像 發(fā)表于 02-07 14:59 ?775次閱讀

    科技為用戶而生!海爾智家大腦HomeGPT連獲三項(xiàng)大獎(jiǎng)

    用戶體驗(yàn)的全面提升。 連獲三項(xiàng)大獎(jiǎng),讓家更懂用戶所需 用戶的好評(píng)與行業(yè)認(rèn)可是科技實(shí)力的最佳證明。短短兩個(gè)月內(nèi),海爾智家大腦HomeGPT入選“2024年工信部‘?dāng)?shù)字三品’應(yīng)用場(chǎng)景典型案例”,榮獲“2024年度山東省信息產(chǎn)業(yè)協(xié)會(huì)科
    的頭像 發(fā)表于 01-24 11:36 ?778次閱讀

    三星電子與谷歌聯(lián)手研發(fā)AR眼鏡

    近日,三星電子在美國(guó)加州圣何塞成功舉辦了其一年一度的“Galaxy Unpacked”發(fā)布會(huì)。會(huì)上,三星電子不僅推出了備受期待的新旗艦“Galaxy S25”系列手機(jī),還展示了與谷歌共同研發(fā)
    的頭像 發(fā)表于 01-24 10:22 ?1196次閱讀

    谷歌CEO:Gemini AI技術(shù)超越競(jìng)品,目標(biāo)年底5億用戶

    近日,谷歌CEO皮查伊近期向員工傳達(dá)了他對(duì)公司Gemini AI技術(shù)的信心。據(jù)悉,皮查伊認(rèn)為Gemini的能力已經(jīng)超越了當(dāng)前的競(jìng)爭(zhēng)對(duì)手。 皮查伊表示,他期望到今年年底,全球能有5億人
    的頭像 發(fā)表于 01-17 10:37 ?1119次閱讀

    馬斯克預(yù)言:AI將全面超越人類智力

    近日,科技巨頭馬斯克作出了一個(gè)關(guān)于人工智能(AI)的大膽預(yù)測(cè)。他斷言,AI的發(fā)展速度將超乎人類的想象,并將在不久的將來(lái)全面超越人類的智力。 馬斯克在X平臺(tái)上明確表示,AI的迅猛進(jìn)步不容忽視。他預(yù)測(cè)
    的頭像 發(fā)表于 12-28 14:23 ?1151次閱讀

    谷歌量子芯片Willow發(fā)布 速度超最快超算

    谷歌最新推出的量子芯片Willow引發(fā)了業(yè)界的廣泛關(guān)注。這款芯片具備105個(gè)物理量子比特,并在多個(gè)性能指標(biāo)上處于領(lǐng)先地位,同時(shí)實(shí)現(xiàn)了兩項(xiàng)重要突破。 首先,Willow成功解決了近30年來(lái)困擾研究者
    的頭像 發(fā)表于 12-13 16:36 ?938次閱讀

    谷歌發(fā)布Gemini 2.0 AI模型

    谷歌近日正式推出了新一代AI模型——Gemini 2.0。此次更新引入了名為“深度研究”的新特性,旨在為用戶提供更加全面和深入的復(fù)雜主題探索與報(bào)告撰寫(xiě)輔助。 Gemini 2.0通過(guò)高級(jí)推理和長(zhǎng)上
    的頭像 發(fā)表于 12-12 10:13 ?955次閱讀