chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI新NLP模型,刷新了7大數(shù)據(jù)集的SOTA

DPVg_AI_era ? 來源:lq ? 2019-02-16 10:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

史上最強“通用”NLP模型來襲:今天OpenAI在官博介紹了他們訓練的一個大規(guī)模無監(jiān)督NLP模型,可以生成連貫的文本段落,刷新了7大數(shù)據(jù)集基準,并且能在未經(jīng)預訓練的情況下,完成閱讀理解、問答、機器翻譯等多項不同的語言建模任務。

OpenAI今天在官博上介紹了他們的新NLP模型,刷新了7大數(shù)據(jù)集的SOTA(當前最佳結(jié)果),并且能夠在不進行任何與領(lǐng)域知識相關(guān)數(shù)據(jù)訓練的情況下,直接跨任務執(zhí)行最基礎(chǔ)的閱讀理解、機器翻譯、問答和文本總結(jié)等不同NLP任務。

無需預訓練就能完成多種不同任務且取得良好結(jié)果,相當于克服了“災難性遺忘”,簡直可謂深度學習研究者夢寐以求的“通用”模型!

如果說谷歌的BERT代表NLP邁入了一個預訓練模型的新時代,OpenAI便用這一成果證明,只要擁有超凡的數(shù)據(jù)量和計算力,就能實現(xiàn)以往無法想象的事情。

例如計算力,根據(jù)參與OpenAI強化學習研究的Smertiy透露,新模型使用了256塊谷歌TPU v3(沒有公布具體的訓練時間),訓練價格每小時2048美元。

史上最強“通用”NLP模型:15億參數(shù)馳騁40GB網(wǎng)絡數(shù)據(jù)

OpenAI的這個NLP模型基于Transformer,擁有15億參數(shù),使用含有800萬網(wǎng)頁內(nèi)容的數(shù)據(jù)集訓練,只為一個目的:

根據(jù)當前已有的信息,預測下一個單詞是什么。

新模型的名字叫GPT-2,是OpenAI去年發(fā)布的無監(jiān)督NLP模型GPT的直接拓展,新模型用到的參數(shù)和訓練數(shù)據(jù),都增長了超過10個數(shù)量級。

由于模型容量足夠大,并且訓練數(shù)據(jù)足夠多,GPT-2在擁有40GB網(wǎng)絡數(shù)據(jù)的測試集上,僅是簡單“預測下一個單詞是什么”,就足以完成各種不同的NLP任務,展示出了強大的泛化能力。

當前,構(gòu)建機器學習系統(tǒng)的主流方法是監(jiān)督學習——收集數(shù)據(jù),也即喂給模型一套“理想的”輸入和輸出組合,讓模型模仿“套路”,在新的測試數(shù)據(jù)集上也給出類似的結(jié)果。這種方法在特定領(lǐng)域任務上表現(xiàn)很好,但缺點是一旦改為其他任務,比如將在問答數(shù)據(jù)集上表現(xiàn)很好的模型用到閱讀理解上,模型就無法適應,也即泛化能力很差。

對此,OpenAI的研究人員大膽推測:當前機器學習系統(tǒng)泛化能力差的原因,恰恰是因為讓模型局限在特定領(lǐng)域的數(shù)據(jù)集上做特定任務的訓練。

同時,現(xiàn)有的多任務模型研究證明,單純依靠訓練樣本的增加,難以實現(xiàn)有效的任務擴展;NLP研究人員正越來越多地使用自注意力模塊遷移學習來構(gòu)建多任務學習模型。

于是,OpenAI的研究人員結(jié)合上述兩種思路,在更通用的數(shù)據(jù)集基礎(chǔ)上,使用自注意力模塊遷移學習,然后得到了一個無需調(diào)整任何參與或模型結(jié)構(gòu),在 zero-shot 情況下能夠執(zhí)行多項不同NLP任務的模型,也即上文所說的GPT-2。

有鑒于其強大的能力和可能被濫用的危險,OpenAI并沒有公布GPT-2模型及代碼,只公布了一個僅含117M參數(shù)的樣本模型及代碼,供有興趣的研究人員學習和參考:https://github.com/openai/gpt-2

當然,GPT-2的具體模型結(jié)構(gòu)OpenAI這次也沒有詳述,他們預留了半年的時間向?qū)W界征集意見。在公布的論文“Language Models are Unsupervised Multitask Learners”中,OpenAI的研究人員介紹了模型構(gòu)建的思路和方法。

至于具體的計算力,論文中沒有提及,根據(jù)上文Twitter上的數(shù)據(jù),他們的模型使用了256個谷歌云TPU v3,盡管沒有公布訓練時間。TPU v3在Google之外只提供單獨使用版本(盡管OpenAI可能得到了特別的許可),這意味著他們要支付8 * 256 = 2048美元/小時。

下面,就是OpenAI展示其成果的時間——你也可以直接拉到文末,點擊“閱讀原文”查看論文。

無需預訓練,8個數(shù)據(jù)集7個刷新當前最佳紀錄

我們對四個語言模型進行了訓練和基準測試,它們的大小如下表所示:

4個模型大小的架構(gòu)和超參數(shù)

其中,最小的模型等價于原始的GPT,次小的等價于最大的BERT模型。我們的最大模型是GPT-2,它的參數(shù)比GPT多一個數(shù)量級。

GPT-2在各種領(lǐng)域特定的語言建模任務上取得了state-of-the-art 的成績。我們的模型沒有針對任何特定于這些任務的數(shù)據(jù)進行訓練,只是作為最終測試對它們進行了評估;這就是被稱為“zero-shot”的設(shè)置。

當在相同的數(shù)據(jù)集上進行評估時,GPT-2比在特定領(lǐng)域數(shù)據(jù)集(如Wikipedia、新聞、書籍)上訓練的模型表現(xiàn)更好。

下表顯示了我們所有最先進的zero-shot結(jié)果。

(+)表示該項分數(shù)越高越好。(-)表示分數(shù)越低越好。

GPT-2在這些數(shù)據(jù)集中均獲得SOTA結(jié)果

GPT-2在Winograd Schema、LAMBADA以及其他語言建模任務上實現(xiàn)了state-of-the-art 的結(jié)果。

在各數(shù)據(jù)集上,四種不同參數(shù)大小模型的Zero-shot結(jié)果。

可以看到,WebText LMs可以很好地跨域和數(shù)據(jù)集傳輸,在zero-shot設(shè)置下將8個數(shù)據(jù)集中的7個的state of the art結(jié)果進一步提升了。

在Penn Treebank和WikiText-2等只有100萬到200萬個訓練token的小型數(shù)據(jù)集上,可以看到改進很大。在用于測量長期依賴關(guān)系的數(shù)據(jù)集上,如LAMBADA和the Children’s Book Test,也有很大的改進。

我們的模型在One Billion Word Benchmark上仍然明顯比之前的工作要差。這可能是由于它既是最大的數(shù)據(jù)集,又有一些最具破壞性的預處理——1BW的句子級變換消除了所有的遠程結(jié)構(gòu)。

其他任務:問答、閱讀理解、摘要總結(jié)和翻譯

在其他語言任務,如問題回答、閱讀理解、摘要總結(jié)和翻譯,我們在沒有對模型進行任何微調(diào)的情況下獲得了極好的結(jié)果,只需要以正確的方式提示訓練模型(下面的例子展示了具體做法和結(jié)果),但在這些任務還達不到專業(yè)系統(tǒng)的SOTA水平。

1、閱讀理解:回答關(guān)于給定段落的問題

數(shù)據(jù)集:CoQA

示例

The 2008 Summer Olympics torch relay was run from March 24 until August 8, 2008, prior to the 2008 Summer Olympics, with the theme of “one world, one dream”. Plans for the relay were announced on April 26, 2007, in Beijing, China. The relay, also called by the organizers as the “Journey of Harmony”, lasted 129 days and carried the torch 137,000 km (85,000 mi) – the longest distance of any Olympic torch relay since the tradition was started ahead of the 1936 Summer Olympics.

After being lit at the birthplace of the Olympic Games in Olympia, Greece on March 24, the torch traveled to the Panathinaiko Stadium in Athens, and then to Beijing, arriving on March 31. From Beijing, the torch was following a route passing through six continents. The torch has visited cities along the Silk Road, symbolizing ancient links between China and the rest of the world. The relay also included an ascent with the flame to the top of *** on the border of Nepal and Tibet, China from the Chinese side, which was closed specially for the event.

Q: What was the theme?A: “one world, one dream”.

Q: What was the length of the race?A: 137,000 km

Q: Was it larger than previous ones?A: No

Q: Where did the race begin?A: Olympia, Greece

Q: Is there anything notable about that place?A: birthplace of Olympic Games

Q: Where did they go after?A: Athens

Q: How many days was the race?A: seven

Q: Did they visit any notable landmarks?A: Panathinaiko Stadium

Q: And did they climb any mountains?

A:

Target answers:unknownoryesModel answer:Everest

性能表現(xiàn):

在閱讀理解任務中,GPT-2比DrQA+PGNet要差,也遠低于人類水平

2、常識推理:解決含義模糊的代詞

數(shù)據(jù)集:Winograd Schema Challenge

示例

The trophy doesn’t fit into the brown suitcase because it is too large.

Correct answer:it = trophyModel answer:it = trophy

The trophy doesn’t fit into the brown suitcase because it is too small.

Correct answer:it = suitcaseModel answer:it = suitcase

性能表現(xiàn)

在常識推理任務中,GPT-2優(yōu)于SOTA

3、問題回答

數(shù)據(jù)集:Natural Questions

示例

Who wrote the book the origin of species?

Correct answer:Charles DarwinModel answer:Charles Darwin

What is the largest state in the U.S. by land mass?

Correct answer:AlaskaModel answer:California

性能表現(xiàn):

在問答任務中,GPT-2的表現(xiàn)遠低于BERT

4、廣義語境的語言建模:預測一段文字的最后一個詞

數(shù)據(jù)集:LAMBADA

示例

Both its sun-speckled shade and the cool grass beneath were a welcome respite after the stifling kitchen, and I was glad to relax against the tree’s rough, brittle bark and begin my breakfast of buttery, toasted bread and fresh fruit. Even the water was tasty, it was so clean and cold. It almost made up for the lack of…

Correct answer:coffeeModel answer:food

性能表現(xiàn)

在廣義語境的語言建模任務中,GPT-2比SOTA的模型表現(xiàn)更好

5、寫摘要:對新聞文章進行總結(jié)

數(shù)據(jù)集:CNN和每日郵報數(shù)據(jù)集

示例文本:

Prehistoric man sketched an incredible array of prehistoric beasts on the rough limestone walls of a cave in modern day France 36,000 years ago.

Now, with the help of cutting-edge technology, those works of art in the Chauvet-Pont-d’Arc Cave have been reproduced to create the biggest replica cave in the world.

參考摘要:

Cave mimics famous Caverne du Pont-d’Arc in France, the oldest cave decorated by man and the best preserved. The replica contains all 1,000 paintings which include 425 such as a woolly rhinoceros and mammoths. Minute details were copied using 3D modelling and anamorphic techniques, often used to shoot widescreen images. The modern cave also includes replica paw prints of bears, bones and details preserved in the original cave.

機器編寫的摘要:

The original site in Vallon-Pont-D’arc in Southern France is a Unesco World Heritage site and is the oldest known and the best preserved cave decorated by man. The replica cave was built a few miles from the original site in Vallon-Pont-D’Arc in Southern France. The cave contains images of 14 different species of animals including woolly rhinoceros, mammoths, and big cats.

性能表現(xiàn)

在摘要任務中,GPT-2的表現(xiàn)不如專門的系統(tǒng)

6、機器翻譯:把法語句子翻譯成英語

數(shù)據(jù)集:WMT-14 Fr-En

示例

法語句子:

Un homme a expliqué que l’opération gratuite qu’il avait subie pour soigner une hernie lui permettrait de travailler à nouveau.

參考翻譯:

One man explained that the free hernia surgery he’d received will allow him to work again.

模型的翻譯

A man told me that the operation gratuity he had been promised would not allow him to travel.

性能表現(xiàn)

在法語-英語機器翻譯任務中,GPT-2的表現(xiàn)不如專門的系統(tǒng)

我們認為,由于這些任務是通用語言建模的子集,我們可以預期隨著計算力和數(shù)據(jù)量的增加,性能會進一步提高。其他研究人員也發(fā)表了類似的假設(shè)。我們還期望通過微調(diào)來提高下游任務的性能,盡管這需要進行徹底的實驗。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    140

    瀏覽量

    15192
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25445
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22621

原文標題:15億參數(shù)!史上最強通用NLP模型誕生:狂攬7大數(shù)據(jù)集最佳紀錄

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    OpenAI發(fā)布o1大模型,數(shù)理化水平比肩人類博士,國產(chǎn)云端推理芯片的新藍海?

    時間思考后再做出回答,而傳統(tǒng)大模型是直接給出回答,但往往這個回答并不準確。 ? OpenAI介紹稱,OpenAI o1模型解決很多傳統(tǒng)
    發(fā)表于 09-14 00:04 ?1819次閱讀
    <b class='flag-5'>OpenAI</b>發(fā)布o1大<b class='flag-5'>模型</b>,數(shù)理化水平比肩人類博士,國產(chǎn)云端推理芯片的新藍海?

    請問NanoEdge AI數(shù)據(jù)該如何構(gòu)建?

    我想用NanoEdge來識別異常的聲音,但我目前沒有辦法生成模型,我感覺可能是數(shù)據(jù)的問題,請問我該怎么構(gòu)建數(shù)據(jù)?或者生成
    發(fā)表于 03-10 08:20

    是否可以輸入隨機數(shù)據(jù)來生成INT8訓練后量化模型?

    無法確定是否可以輸入隨機數(shù)據(jù)來生成 INT8 訓練后量化模型。
    發(fā)表于 03-06 06:45

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    OpenAI的首席執(zhí)行官薩姆·奧特曼(Sam Altman)近期為公司的GPT-4.5和GPT-5大模型開發(fā)制定一項重要的路線圖,旨在極大地簡化和優(yōu)化用戶及開發(fā)人員在選擇AI模型時的
    的頭像 發(fā)表于 02-18 09:12 ?497次閱讀

    OpenAI即將推出GPT-5模型

    OpenAI首席執(zhí)行官奧爾特曼近日宣布一項重要消息:OpenAI將在今年未來幾個月內(nèi)推出全新的GPT-5模型。這一消息引起了業(yè)界的廣泛關(guān)注和期待。 據(jù)了解,GPT-5
    的頭像 發(fā)表于 02-13 11:21 ?584次閱讀

    OpenAI o3-mini模型思維鏈遭質(zhì)疑

    近日,OpenAI公開了其大模型o3-mini的推理思維鏈,這一舉措使得免費用戶和付費用戶都能深入了解模型的思考過程。這一透明度的提升,原本旨在增強用戶對模型的信任和理解,然而卻意外引
    的頭像 發(fā)表于 02-08 10:57 ?642次閱讀

    OpenAI提交新商標的申請

    的前沿。2024 年,OpenAI 發(fā)布首個視頻生成模型 Sora,展示其在多模態(tài)領(lǐng)域的技術(shù)實力。此次申請新商標
    的頭像 發(fā)表于 02-05 16:38 ?679次閱讀

    OpenAI即將推出o3 mini推理AI模型

    近日,OpenAI首席執(zhí)行官Sam Altman在社交媒體平臺X上發(fā)表一篇引人關(guān)注的文章。在文章中,他透露了一個重要信息:OpenAI已經(jīng)成功完成了全新推理AI模型o3 mini版本
    的頭像 發(fā)表于 01-20 10:54 ?566次閱讀

    2025年:大模型Scaling Law還能繼續(xù)嗎

    ? OpenAI 最近推出了其新的推理模型 o3,該模型在 ARC 數(shù)據(jù)上大幅超越之前的最佳
    的頭像 發(fā)表于 01-15 14:32 ?517次閱讀
    2025年:大<b class='flag-5'>模型</b>Scaling Law還能繼續(xù)嗎

    微軟尋求在365 Copilot中引入非OpenAI模型

    近日,據(jù)路透社報道,微軟正在積極尋求為其旗艦人工智能產(chǎn)品Microsoft 365 Copilot增加內(nèi)部和第三方的人工智能模型,以減少對OpenAI底層技術(shù)的依賴,并降低成本。 知情人士透露,微軟
    的頭像 發(fā)表于 12-25 10:41 ?610次閱讀

    OpenAI暫不推出Sora視頻生成模型API

    OpenAI近日宣布,目前暫無推出其視頻生成模型Sora的應用程序接口(API)的計劃。Sora模型能夠基于文本和圖像生成視頻,引發(fā)了廣泛關(guān)注。然而,由于訪問量遠超預期,OpenAI
    的頭像 發(fā)表于 12-20 14:23 ?526次閱讀

    OpenAI世界最貴大模型:昂貴背后的技術(shù)突破

    2023年“雙十二”的第一天,OpenAI推出了其最強推理模型o1的滿血版及其Pro版本。同時,ChatGPT也推出了每月200美元的Pro訂閱計劃,這一價格使其一躍成為“世界最貴的大模型”。下面,AI部落小編帶您深入了解
    的頭像 發(fā)表于 12-06 14:46 ?1064次閱讀

    如何進行自然語言處理模型訓練

    1. 確定目標和需求 在開始之前,你需要明確你的NLP項目的目標是什么。這可能是文本分類、情感分析、機器翻譯、問答系統(tǒng)等。明確目標有助于選擇合適的數(shù)據(jù)模型架構(gòu)。 2.
    的頭像 發(fā)表于 11-11 10:43 ?1185次閱讀

    Orion模型即將面世,OpenAI采用新發(fā)布模式

    據(jù)最新報道,OpenAI計劃在今年12月推出其新款前沿模型,代號為“Orion”。這款模型將采用與以往不同的發(fā)布模式,引發(fā)廣泛關(guān)注。 與GPT-4o和o1等模型通過ChatGPT廣泛發(fā)
    的頭像 發(fā)表于 10-25 10:11 ?693次閱讀

    OpenAI與Anthropic新模型將受美政府評估

    近日,美國政府宣布一項重要合作,旨在加強人工智能安全監(jiān)管。根據(jù)協(xié)議,OpenAI與Anthropic兩大AI領(lǐng)軍企業(yè)同意,在推出新的AI模型之前,先將其提交給美國人工智能安全問題研究所進行評估。這一舉措旨在確保新
    的頭像 發(fā)表于 08-30 15:35 ?566次閱讀