chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

布朗大學(xué)90后研究生:我們復(fù)現(xiàn)了15億參數(shù)GPT-2模型,你也行!

DPVg_AI_era ? 來(lái)源:lq ? 2019-09-01 07:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

布朗大學(xué)的計(jì)算機(jī)科學(xué)研究畢業(yè)生 Vanya Cohen 近日在 Medium 分享了他復(fù)現(xiàn) GPT-2 大模型的全過(guò)程。作者復(fù)刻了Open-AI 15億參數(shù)模型,允許其他人在其預(yù)訓(xùn)練模型上進(jìn)行構(gòu)建并進(jìn)一步改進(jìn)。

BERT,XLNet,GPT-2和Grover等大型語(yǔ)言模型在生成文本和多個(gè)NLP任務(wù)方面取得了令人矚目的成果。

本文試圖去復(fù)刻GPT-2的15億模型以供研究人員使用。

Google Colab地址:

https://colab.research.google.com/drive/1esbpDOorf7DQJV8GXWON24c-EQrSKOit

單獨(dú)提供的模型權(quán)重:

https://drive.google.com/drive/u/1/folders/1KfK5MXtvgH8C615UUZoKPIUVJYIdJxX1

復(fù)刻

之所以采取遲遲不放出模型的安全戰(zhàn)略,是因?yàn)檫@些模型難以復(fù)刻并需要高度專(zhuān)業(yè)的領(lǐng)域知識(shí)。

但是布朗大學(xué)的兩名碩士研究生卻證明了本文的許多結(jié)果復(fù)刻起來(lái)并不是那么的難。而且不僅他們倆可以,絕大多數(shù)感興趣的人都可以復(fù)刻GPT-2。

研究生之一:Vanya Cohen

此外,Zellers等人表明像GPT-2這樣的大型語(yǔ)言模型是一種非常有用的工具,可以抵制使用與文本生成器相同的模型。

兩位研究生經(jīng)過(guò)深思熟慮后認(rèn)為,復(fù)刻工作并不是獨(dú)一無(wú)二的,并且大型語(yǔ)言模型是目前抵制生成文本的最有效手段,因此在對(duì)抗未來(lái)模型被濫用的可能性方面,發(fā)布本模型是有益的。

本模型的實(shí)現(xiàn)基于Grover模型,并修改其代碼庫(kù)以匹配GPT-2的語(yǔ)言建模訓(xùn)練目標(biāo)。由于他們的模型是在類(lèi)似的大型語(yǔ)料庫(kù)上進(jìn)行訓(xùn)練的,因此大部分代碼和超參數(shù)都可以重復(fù)使用。本模型沒(méi)有從Grover中大幅改變超參數(shù)。

使用本模型代碼從頭開(kāi)始訓(xùn)練模型的成本約為5萬(wàn)美元。要注意這個(gè)數(shù)字是云計(jì)算的估計(jì)值,并不包含所涉及的各種其他細(xì)微的內(nèi)部成本。

存在顯著的時(shí)間-成本平衡,并且較慢的訓(xùn)練方法具有相當(dāng)小的成本,因此降低了使用門(mén)檻。

數(shù)據(jù)集

原始文件提供了有關(guān)如何清理數(shù)據(jù)集的最低限度的詳細(xì)信息。

與在WebText中一樣,首先從Reddit中解析出超過(guò)3個(gè)向上投票的所有鏈接。接著,從PushshiftRedditscrape開(kāi)始。這是一個(gè)包含不斷更新的Reddit帖子、評(píng)論以及相關(guān)元數(shù)據(jù)集合的數(shù)據(jù)集。

然后過(guò)濾一些鏈接以刪除不太可能包含可用文本或HTML(即視頻文件,PDF和CSS樣式文件)的文件類(lèi)型的直接鏈接。

同時(shí)還過(guò)濾網(wǎng)頁(yè)以刪除維基百科,因?yàn)樗桓鞣N評(píng)估基準(zhǔn)和數(shù)據(jù)集使用。目前還無(wú)法確定過(guò)濾標(biāo)準(zhǔn)是否與OpenAI相匹配,因?yàn)榇诵畔奈窗l(fā)布過(guò)。

使用Newspaper Python庫(kù)從HTML頁(yè)面中提取文本,然后使用fastText Python庫(kù)來(lái)提取英文文本、過(guò)濾掉其他語(yǔ)言。具體來(lái)說(shuō),使用WhatTheLangpython Wrapper。

使用局部敏感散列(LSH)來(lái)去重。然后將文檔散列為5-grams的集合,并且刪除了相似度閾值大于0.5的所有文檔。

使用Heuristic Cleaning算法,從數(shù)據(jù)集中刪除少于128個(gè)令牌的文檔。這些較短的文件往往質(zhì)量較低,這是由文本連貫性決定的。最后將此數(shù)據(jù)集作為OpenWebTextCorpus發(fā)布。

使用Radford等人發(fā)布的小型模型和Binary Pattern Encoder對(duì)數(shù)據(jù)集進(jìn)行編碼,并使用OpenWebText web-scrapingcodebase的修改版本作為數(shù)據(jù)集集合的起點(diǎn)。

勘誤表

從公開(kāi)發(fā)布的來(lái)自WebText的260k文檔集合中來(lái)看,研究人員發(fā)現(xiàn)所有文件都具有最小字節(jié)對(duì)(BPE)編碼,長(zhǎng)度為40,最大值為1024.

OpenWebText的不同之處在于為128個(gè)令牌設(shè)置文檔長(zhǎng)度的下限(而不是BPE代碼),并且不限制最大文檔長(zhǎng)度。

原始的WebTextCorpus在這些樣本可用之前發(fā)布,因此沒(méi)有使用該信息來(lái)生成cleaning heuristics。

研究人員曾多次嘗試聯(lián)系Radford等人,以澄清評(píng)估和模型細(xì)節(jié),但最終都沒(méi)有成功。

結(jié)果

盡管訓(xùn)練分布存在差異,但確實(shí)報(bào)告了與大多數(shù)數(shù)據(jù)集相似的困惑。

示例:輸入“Recycling is good for the world. NO! YOU COULD NOT BE MORE WRONG!!”輸出結(jié)果如下:

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11310
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26187

原文標(biāo)題:布朗大學(xué)90后研究生:我們復(fù)現(xiàn)了15億參數(shù)GPT-2模型,你也行!

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    上海交大發(fā)布國(guó)產(chǎn)光學(xué)大模型Optics GPT

    原理,為科研、設(shè)計(jì)與教學(xué)提供智能化助力。 ? 目前,通用人工智能模型雖功能多樣,但在光學(xué)這類(lèi)需要深厚專(zhuān)業(yè)知識(shí)和精密計(jì)算的硬科技領(lǐng)域,往往難以深入理解。上海交通大學(xué)“光未來(lái)”項(xiàng)目組經(jīng)過(guò)深入研究
    的頭像 發(fā)表于 01-26 09:59 ?1099次閱讀
    上海交大發(fā)布國(guó)產(chǎn)光學(xué)大<b class='flag-5'>模型</b>Optics <b class='flag-5'>GPT</b>

    如何在NVIDIA Jetson AGX Thor上部署1200參數(shù)模型

    我們將嘗試能否在 Jetson AGX Thor 上部署并成功運(yùn)行高達(dá) 1,200 參數(shù)量的 gpt-oss-120b 大模型。
    的頭像 發(fā)表于 12-26 17:06 ?4777次閱讀
    如何在NVIDIA Jetson AGX Thor上部署1200<b class='flag-5'>億</b><b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>

    芯華章助力2025中國(guó)研究生創(chuàng)“芯”大賽EDA精英挑戰(zhàn)賽圓滿舉辦

    作為深化產(chǎn)教融合的重要載體,中國(guó)研究生創(chuàng) “芯” 大賽?EDA 精英挑戰(zhàn)賽為校企協(xié)同育人機(jī)制創(chuàng)新提供關(guān)鍵平臺(tái)。
    的頭像 發(fā)表于 12-19 09:38 ?384次閱讀
    芯華章助力2025中國(guó)<b class='flag-5'>研究生</b>創(chuàng)“芯”大賽EDA精英挑戰(zhàn)賽圓滿舉辦

    紫光同創(chuàng)助力2025中國(guó)研究生創(chuàng)“芯”大賽EDA精英挑戰(zhàn)賽圓滿收官

    11月28日-30日,2025中國(guó)研究生創(chuàng)“芯”大賽·EDA精英挑戰(zhàn)賽決賽在香港科學(xué)園舉辦。自8月啟動(dòng)以來(lái),共有154所國(guó)內(nèi)外高校的674支研究生隊(duì)伍報(bào)名、1734名學(xué)生報(bào)名參賽,最終206支隊(duì)伍經(jīng)過(guò)評(píng)選晉級(jí)進(jìn)入總決賽,角逐各類(lèi)獎(jiǎng)項(xiàng)榮譽(yù)。
    的頭像 發(fā)表于 12-15 14:11 ?566次閱讀

    2026年NVIDIA研究生獎(jiǎng)學(xué)金名單公布

    25 年來(lái),NVIDIA 研究生獎(jiǎng)學(xué)金計(jì)劃致力于為在與 NVIDIA 技術(shù)相關(guān)的前沿領(lǐng)域開(kāi)展研究的碩博研究生提供支持。近日,該計(jì)劃公布最新一批獎(jiǎng)學(xué)金授予結(jié)果:10 位博士
    的頭像 發(fā)表于 12-13 09:44 ?1047次閱讀

    普華基礎(chǔ)軟件走進(jìn)清華大學(xué)研究生課堂

    近日,普華基礎(chǔ)軟件走進(jìn)清華大學(xué)車(chē)輛與運(yùn)載學(xué)院,在《車(chē)輛控制工程》課堂上開(kāi)展研究生專(zhuān)題授課和交流。本次授課聚焦智能駕駛汽車(chē)基礎(chǔ)軟件發(fā)展與關(guān)鍵技術(shù),旨在搭建校企知識(shí)傳遞橋梁,為高校學(xué)子帶來(lái)產(chǎn)業(yè)前沿視角,助力培養(yǎng)符合行業(yè)需求的復(fù)合型人才。
    的頭像 發(fā)表于 11-26 15:53 ?384次閱讀

    谷歌與耶魯大學(xué)合作發(fā)布最新C2S-Scale 27B模型

    我們很榮幸發(fā)布與耶魯大學(xué)合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),這是一個(gè)新的 270
    的頭像 發(fā)表于 11-06 10:35 ?842次閱讀

    如何在TPU上使用JAX訓(xùn)練GPT-2模型

    如果您對(duì)如何使用 JAX 從頭開(kāi)始構(gòu)建語(yǔ)言模型感到好奇,那么本文非常適合您。我們在 2025 年 Google Cloud Next 大會(huì)上舉辦了一場(chǎng)關(guān)于此主題的研討會(huì),并獲得了一些很好的反饋,我們也為所有無(wú)法參會(huì)的開(kāi)發(fā)者編寫(xiě)了
    的頭像 發(fā)表于 09-03 11:39 ?1694次閱讀
    如何在TPU上使用JAX訓(xùn)練<b class='flag-5'>GPT-2</b><b class='flag-5'>模型</b>

    新思科技連續(xù)八年助力中國(guó)研究生創(chuàng)“芯”大賽

    作為中國(guó)研究生創(chuàng) “芯” 大賽的創(chuàng)始合作方,新思科技始終秉持初心,連續(xù)八年全力支持這一賽事,致力于為中國(guó)本土集成電路設(shè)計(jì)領(lǐng)域培育后備力量,以實(shí)際行動(dòng)推動(dòng)產(chǎn)業(yè)人才生態(tài)建設(shè)。
    的頭像 發(fā)表于 08-15 15:40 ?1031次閱讀

    Cadence連續(xù)八年助力中國(guó)研究生創(chuàng)“芯”大賽

    中國(guó)研究生創(chuàng)“芯”大賽是中國(guó)研究生創(chuàng)新實(shí)踐系列賽事之一,是一項(xiàng)面向全國(guó)高等院校和科研院所在讀研究生的團(tuán)體性集成電路設(shè)計(jì)創(chuàng)意實(shí)踐活動(dòng)。大賽以“創(chuàng)芯、選星、育芯”為宗旨,配合國(guó)家集成電路產(chǎn)業(yè)發(fā)展戰(zhàn)略,切實(shí)提高
    的頭像 發(fā)表于 08-06 15:05 ?1283次閱讀

    OpenAI發(fā)布2款開(kāi)源模型

    OpenAI開(kāi)源兩款高性能權(quán)重語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt
    的頭像 發(fā)表于 08-06 14:25 ?1026次閱讀

    3Dfindit 提供的數(shù)字立方體模型研究項(xiàng)目的可視化提供支持

    作為學(xué)習(xí)項(xiàng)目的一部分,羅伊特林根教育大學(xué)的學(xué)生們?cè)诒刃粮袪I(yíng)紀(jì)念地的博物館中使用 3Dfindit 動(dòng)畫(huà)立方體模型進(jìn)行了學(xué)習(xí)。作為歷史教學(xué)研討會(huì)的一部分,學(xué)生們研究巴登-符騰堡州
    發(fā)表于 08-01 14:36

    感應(yīng)電機(jī)智能調(diào)速

    內(nèi)容先進(jìn),可作為電力傳動(dòng)專(zhuān)業(yè)特別是感應(yīng)電機(jī)控制專(zhuān)業(yè)方向的大學(xué)教師和學(xué)生(高年級(jí)本科、碩士研究生、博士研究生)學(xué)習(xí)研究感應(yīng)電機(jī)智能控制的參考
    發(fā)表于 05-28 15:53

    浙江大學(xué)與大華股份共建研究生聯(lián)合培育基地

    近日,浙江大學(xué)研究生產(chǎn)教融合人才培養(yǎng)工作會(huì)議在杭州召開(kāi),會(huì)上舉行了校級(jí)聯(lián)合培養(yǎng)基地授牌儀式暨行業(yè)導(dǎo)師聘書(shū)頒發(fā)儀式,大華股份作為校級(jí)聯(lián)合培養(yǎng)基地代表參會(huì),標(biāo)志著“浙江大學(xué)-大華股份研究生
    的頭像 發(fā)表于 03-27 15:34 ?810次閱讀

    FA90-220S15G2N5 FA90-220S15G2N5

    電子發(fā)燒友網(wǎng)為提供AIPULNION(AIPULNION)FA90-220S15G2N5相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有FA90-220S15G2N5的引腳圖、接線圖、封裝手冊(cè)、中文資料
    發(fā)表于 03-19 18:31
    FA<b class='flag-5'>90-220S15G2</b>N5 FA<b class='flag-5'>90-220S15G2</b>N5