chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

簡化版的XLNet在PyTorch Wrapper實現(xiàn)

DPVg_AI_era ? 來源:lq ? 2019-07-07 09:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

XLNet雖然好用,但實在太費錢了!近日,一位韓國小哥成功將簡化版的XLNet在PyTorch Wrapper實現(xiàn),批規(guī)模僅為1,不再依賴谷歌爸爸的巨額算力,讓“窮人”也能用得起。

不久前,谷歌大腦和CMU聯(lián)合團隊提出面向NLP預訓練新方法XLNet,性能全面超越此前NLP領域的黃金標桿BERT,在20個任務上實現(xiàn)了性能的大幅提升,刷新了18個任務上的SOTA結果,可謂全面屠榜。

論文地址:

https://arxiv.org/pdf/1906.08237.pdf

XLNet性能確實強大,不過還是要背靠谷歌TPU平臺的巨額算力資源。有網友做了一下簡單統(tǒng)計,按照論文中的實驗設計,XL-Large用512 TPU chips訓練了4天,也就是說,訓練時的總計算量是BERT的5倍。語料規(guī)模是BERT-large的10倍。

要知道BERT作為谷歌的親兒子,其訓練量和對計算資源的需求已經讓很多人望塵莫及?,F(xiàn)在XLNet又來了個5倍,讓人直呼用不起。

這么強勁的XLNet,只能看著流口水卻用不起,豈不是太遺憾了?

土豪有土豪的用法,窮人有窮人的訣竅。最近有個韓國小哥就成功將XLNet挪到了Pytorch框架上,可以在僅使用小規(guī)模訓練數(shù)據(jù)(批規(guī)模=1)的情況下,實現(xiàn)一個簡單的XLNet實例,并弄清XLNet架構的預訓練機制。他將實現(xiàn)方案放在了GitHub上。

要使用這個實現(xiàn)很簡單,只需導入如下代碼:

$ git clone https://github.com/graykode/xlnet-Pytorch && cd xlnet-Pytorch# To use Sentence Piece Tokenizer(pretrained-BERT Tokenizer)$ pip install pytorch_pretrained_bert$ python main.py --data ./data.txt --tokenizer bert-base-uncased --seq_len 512 --reuse_len 256 --perm_size 256 --bi_data True --mask_alpha 6 --mask_beta 1 --num_predict 85 --mem_len 384 --num_step 100

接下來對實現(xiàn)方法和超參數(shù)設置的簡單介紹,首先貼出XLNet論文中給出的預訓練超參數(shù):

然后,作者給出了PyTorch框架下XLNet實現(xiàn)的超參數(shù)調節(jié)選項如下:

—data(String): 使用文本文件訓練,多行文本也可以。另外,將一個文件視為一個批張量。默認值: data.txt

—tokenizer(String):目前僅使用【這里】的Tokenizer作為子詞的Tokenizer(即將編入句子部分),這里可以選擇bert-base-uncased/bert-large-uncased/bert-base-cased/bert-large-cased四種Tokenizer。

默認值:bert-base-uncased

—seq_len(Integer): 序列長度。

默認值 :512

—reuse_len(Interger): 可作為記憶重復使用的token數(shù)量??赡苁切蛄虚L度的一半。

默認值 :256

—perm_size(Interger): 最長排列長度。

默認值:256

--bi_data(Boolean): 是否設立雙向數(shù)據(jù),如設置為“是”,biz(batch size) 參數(shù)值應為偶數(shù)。

默認值:否

—mask_alpha(Interger): 多少個token構成一個group。

默認值:6

—mask_beta(Integer):在每個group中需要mask的token數(shù)量。

默認值:1

—num_predict(Interger) :

要預測的token數(shù)量。在XLNet論文中, 這表示部分預測。

默認值:85

—mem_len(Interger): 在Transformer-XL架構中緩存的步驟數(shù)量。

默認值:384

—number_step(Interger):步驟(即Epoch)數(shù)量.。

默認值:100

XLNet:克服BERT固有局限,20項任務性能強于BERT

XLNet是一種基于新型廣義置換語言建模目標的新型無監(jiān)督語言表示學習方法。此外,XLNet采用Transformer-XL作為骨架模型,在長時間環(huán)境下的語言任務中表現(xiàn)出非常出色的性能,在多項NLP任務性能上超越了BERT,成為NLP領域的新標桿。

關于XLNet中的一些關鍵詞

1、自回歸模型與自動編碼模型

自回歸(AR)模型

自動編碼(AE)模型

2、部分預測的排列語言建模

排列語言建模

部分預測

3、具有目標感知表示的雙向自注意力模型

雙向自注意力模型

目標感知表示

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6244

    瀏覽量

    110207
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23182
  • pytorch
    +關注

    關注

    2

    文章

    812

    瀏覽量

    14663

原文標題:XLNet太貴?這位小哥在PyTorch Wrapper上做了個微縮版的

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    以太網通訊FPGA上的實現(xiàn)

    、雙工模式、是否采用流控等。FPGA和PHY之間有一個RGMII接口。RGMII是GMII的簡化版,數(shù)據(jù)位寬為2位,1000Mbps傳輸速率下,時鐘頻率為125Mhz。 PHY芯片KSZ9031RNX
    發(fā)表于 10-30 07:45

    EMC電路怎么整改:如何通過簡化設計提升兼容性

    EMC電路怎么整改:如何通過簡化設計提升兼容性|南柯電子
    的頭像 發(fā)表于 10-29 10:09 ?193次閱讀

    京東:對接訂單結算API,實現(xiàn)企業(yè)采購批量開票,簡化財務流程

    。通過對接該API,企業(yè)可以實現(xiàn)批量開票,顯著簡化財務流程。本文將逐步介紹API的功能、對接方法、實現(xiàn)步驟以及帶來的好處,助您高效優(yōu)化采購管理。 什么是京東訂單結算API? 京東訂單結算API是一套標準化接口,允許企業(yè)系統(tǒng)直接訪
    的頭像 發(fā)表于 09-11 15:27 ?469次閱讀
    京東:對接訂單結算API,<b class='flag-5'>實現(xiàn)</b>企業(yè)采購批量開票,<b class='flag-5'>簡化</b>財務流程

    ADI安全產品如何簡化不同機器人控制系統(tǒng)中安全機制的實現(xiàn)

    我們將探討各種機器人安全用例,展示ADI的安全產品如何簡化不同機器人控制系統(tǒng)中安全機制的實現(xiàn)。
    的頭像 發(fā)表于 08-12 10:43 ?8627次閱讀
    ADI安全產品如何<b class='flag-5'>簡化</b>不同機器人控制系統(tǒng)中安全機制的<b class='flag-5'>實現(xiàn)</b>

    Arm方案 基于Arm架構的邊緣側設備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構的邊緣側設備上部署 PyTorch 模型。
    的頭像 發(fā)表于 07-28 11:50 ?2463次閱讀

    DigiKey 和 Würth Elektronik – 簡化 IIoT

    Elektronik]攜手提供旨在簡化 IIoT 實施的廣泛產品和工具。通過關注連接、開發(fā)資源和效率,企業(yè)將會找到實現(xiàn)運營輕松轉型所需的支持。 本文將探討一些關于物聯(lián)網連接和傳感器的解決方案、開發(fā)和部署工具
    的頭像 發(fā)表于 05-25 11:53 ?780次閱讀
    DigiKey 和 Würth Elektronik – <b class='flag-5'>簡化</b> IIoT

    摩爾線程發(fā)布Torch-MUSA v2.0.0版本 支持原生FP8和PyTorch 2.5.0

    本次升級的核心亮點, Torch-MUSA v2.0.0率先在國產GPU上實現(xiàn)了對FP8數(shù)據(jù)類型的完整支持 。FP8是當前AI計算的一種前沿低精度格式,支持原生
    的頭像 發(fā)表于 05-11 16:41 ?1239次閱讀

    AG32軟件包SDK更新:加入新例程(可實現(xiàn)至少15個UART串口)

    中,使用內置CPLD資源設計提供額外的串口。每個串口為內置串口的簡化版,串口個數(shù)可以自定義。例程中使用了10個串口,占用大約1.8K 的邏輯。加上AG32自帶的5個UART,可以實現(xiàn)15+的UART
    發(fā)表于 03-28 10:53

    使用OpenVINO? 2021.4將經過訓練的自定義PyTorch模型加載為IR格式時遇到錯誤怎么解決?

    使用 OpenVINO? 2021.4 將經過訓練的自定義 PyTorch 模型加載為 IR 格式時遇到錯誤: RuntimeError: [ GENERAL_ERROR ] Failed
    發(fā)表于 03-05 08:40

    如何在Arm Ethos-U85上使用ExecuTorch

    快速發(fā)展的機器學習領域,PyTorch 憑借其靈活性和全面的生態(tài)系統(tǒng),已成為模型開發(fā)的熱門框架。Arm 與 Meta 合作 ExecuTorch 中引入了對 Arm 平臺的支持,進一步簡化
    的頭像 發(fā)表于 02-14 14:23 ?1000次閱讀
    如何在Arm Ethos-U85上使用ExecuTorch

    操作指南:pytorch云服務器怎么設置?

    設置PyTorch云服務器需選擇云平臺,創(chuàng)建合適的GPU實例,安裝操作系統(tǒng)、Python及Anaconda,創(chuàng)建虛擬環(huán)境,根據(jù)CUDA版本安裝PyTorch,配置環(huán)境變量,最后驗證安裝。過程中需考慮
    的頭像 發(fā)表于 02-08 10:33 ?593次閱讀

    利用Arm Kleidi技術實現(xiàn)PyTorch優(yōu)化

    PyTorch 是一個廣泛應用的開源機器學習 (ML) 庫。近年來,Arm 與合作伙伴通力協(xié)作,持續(xù)改進 PyTorch 的推理性能。本文將詳細介紹如何利用 Arm Kleidi 技術提升 Arm
    的頭像 發(fā)表于 12-23 09:19 ?1593次閱讀
    利用Arm Kleidi技術<b class='flag-5'>實現(xiàn)</b><b class='flag-5'>PyTorch</b>優(yōu)化

    vLLM項目加入PyTorch生態(tài)系統(tǒng),引領LLM推理新紀元

    近日,vLLM項目宣布正式成為PyTorch生態(tài)系統(tǒng)的一部分,標志著該項目與PyTorch的合作進入了一個全新的階段。本文將從以下幾個方面進行介紹,特別提醒:安裝方案第四個部分,可選擇性閱讀
    的頭像 發(fā)表于 12-18 17:06 ?1557次閱讀
    vLLM項目加入<b class='flag-5'>PyTorch</b>生態(tài)系統(tǒng),引領LLM推理新紀元

    Arm KleidiAI助力提升PyTorch上LLM推理性能

    熱門的深度學習框架尤為突出,許多企業(yè)均會選擇其作為開發(fā) AI 應用的庫。通過部署 Arm Kleidi 技術,Arm 正在努力優(yōu)化 PyTorch,以加速基于 Arm 架構的處理器上運行 LLM 的性能。Arm 通過將 Kleidi 技術直接集成到
    的頭像 發(fā)表于 12-03 17:05 ?1921次閱讀
    Arm KleidiAI助力提升<b class='flag-5'>PyTorch</b>上LLM推理性能

    PyTorch 2.5.1: Bugs修復版發(fā)布

    ? 一,前言 深度學習框架的不斷迭代中,PyTorch 社區(qū)始終致力于提供更穩(wěn)定、更高效的工具。最近,PyTorch 2.5.1 版本正式發(fā)布,這個版本主要針對 2.5.0 中發(fā)現(xiàn)的問題進行了修復
    的頭像 發(fā)表于 12-03 16:11 ?1939次閱讀
    <b class='flag-5'>PyTorch</b> 2.5.1: Bugs修復版發(fā)布