chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

BERT是一種用于自然語言處理的先進(jìn)神經(jīng)網(wǎng)絡(luò)方法

倩倩 ? 來源:互聯(lián)網(wǎng)分析沙龍 ? 作者:互聯(lián)網(wǎng)分析沙龍 ? 2020-12-13 10:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在一篇新論文中,F(xiàn)rankle及其同事發(fā)現(xiàn)了潛伏在BERT中的此類子網(wǎng),BERT是一種用于自然語言處理(NLP)的先進(jìn)神經(jīng)網(wǎng)絡(luò)方法。作為人工智能的一個(gè)分支,NLP旨在通過預(yù)測(cè)文本生成或在線聊天機(jī)器人等應(yīng)用程序來解密和分析人類語言。在計(jì)算方面,BERT體積龐大,通常需要大多數(shù)用戶無法獲得的超級(jí)計(jì)算能力。從而可能使更多用戶在智能手機(jī)上開發(fā)有效的NLP工具。

弗蘭克勒說:“我們正在達(dá)到必須使這些模型更精簡,更高效的地步?!彼a(bǔ)充說,這一進(jìn)步有一天可能會(huì)“減少NLP的準(zhǔn)入門檻”。

麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室的邁克爾·卡賓小組的博士生Frankle是該研究的共同作者,該研究將于下個(gè)月在神經(jīng)信息處理系統(tǒng)會(huì)議上發(fā)表。德克薩斯大學(xué)奧斯汀分校的陳天龍是該論文的主要作者,其中包括得克薩斯州A&M的合作者Wang Zhangyang Wang,以及所有MIT-IBM Watson AI Lab的常石宇,劉思佳和張揚(yáng)。

您今天可能已經(jīng)與BERT網(wǎng)絡(luò)進(jìn)行了互動(dòng)。這是Google搜索引擎的基礎(chǔ)技術(shù)之一,自Google于2018年發(fā)布BERT以來,它一直引起研究人員的興奮。BERT是一種創(chuàng)建神經(jīng)網(wǎng)絡(luò)的方法-使用分層節(jié)點(diǎn)或“神經(jīng)元”的算法來學(xué)習(xí)執(zhí)行通過培訓(xùn)大量實(shí)例來完成一項(xiàng)任務(wù)。

BERT是通過反復(fù)嘗試填寫寫作段落中遺漏的單詞來進(jìn)行訓(xùn)練的,它的功能在于此初始訓(xùn)練數(shù)據(jù)集的龐大大小。然后,用戶可以將BERT的神經(jīng)網(wǎng)絡(luò)微調(diào)至特定任務(wù),例如構(gòu)建客戶服務(wù)聊天機(jī)器人。但是爭(zhēng)吵的BERT需要大量的處理能力。

弗蘭克爾說:“如今,標(biāo)準(zhǔn)的BERT模型-園林品種-具有3.4億個(gè)參數(shù),”他補(bǔ)充說,這個(gè)數(shù)字可以達(dá)到10億。對(duì)如此龐大的網(wǎng)絡(luò)進(jìn)行微調(diào)可能需要一臺(tái)超級(jí)計(jì)算機(jī)?!斑@簡直太貴了。這遠(yuǎn)遠(yuǎn)超出了您或我的計(jì)算能力?!?/p>

為了削減計(jì)算成本,Chen和他的同事試圖找出隱藏在BERT中的較小模型。他們通過迭代修剪整個(gè)BERT網(wǎng)絡(luò)的參數(shù)進(jìn)行了實(shí)驗(yàn),然后將新子網(wǎng)的性能與原始BERT模型的性能進(jìn)行了比較。他們對(duì)一系列NLP任務(wù)進(jìn)行了此比較,從回答問題到填充句子中的空白詞。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的個(gè)分支,它會(huì)教計(jì)算機(jī)如何理解口頭和書面形式的人類語言。自然語言
    的頭像 發(fā)表于 01-29 14:01 ?351次閱讀
    <b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>NLP的概念和工作原理

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    如今在機(jī)器學(xué)習(xí)的領(lǐng)域中,有許多方法可以用來解決特定的問題,例如房價(jià)預(yù)測(cè)、郵件分類、文件壓縮等。而與我們?nèi)粘I铌P(guān)系最密切的應(yīng)用莫過于計(jì)算機(jī)視覺(如學(xué)校門禁系統(tǒng))和自然語言處理(如Siri)。這些
    的頭像 發(fā)表于 12-17 15:05 ?317次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    Transformer如何讓自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語言處理里火起來。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)
    的頭像 發(fā)表于 11-19 18:17 ?2252次閱讀

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理
    的頭像 發(fā)表于 11-19 18:15 ?2071次閱讀
    自動(dòng)駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    云知聲論文入選自然語言處理頂會(huì)EMNLP 2025

    近日,自然語言處理(NLP)領(lǐng)域國際權(quán)威會(huì)議 ——2025 年計(jì)算語言學(xué)與自然語言處理國際會(huì)議(EMNLP 2025)公布論文錄用結(jié)果,云知
    的頭像 發(fā)表于 11-10 17:30 ?798次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會(huì)EMNLP 2025

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個(gè)功能,每個(gè)功能涵蓋特定
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于個(gè)文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的
    的頭像 發(fā)表于 09-28 10:03 ?1195次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    問題。因此,并行計(jì)算與加速技術(shù)在神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用中變得至關(guān)重要,它們能夠顯著提升神經(jīng)網(wǎng)絡(luò)的性能和效率,滿足實(shí)際應(yīng)用中對(duì)快速響應(yīng)和大規(guī)模數(shù)據(jù)處理的需求。神經(jīng)網(wǎng)絡(luò)并行
    的頭像 發(fā)表于 09-17 13:31 ?1120次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    小白學(xué)大模型:國外主流大模型匯總

    )領(lǐng)域。論文的核心是提出了一種名為Transformer的全新模型架構(gòu),它完全舍棄了以往序列模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNNs和卷積神經(jīng)網(wǎng)絡(luò)CNNs)中常用的循環(huán)和卷積結(jié)構(gòu)
    的頭像 發(fā)表于 08-27 14:06 ?943次閱讀
    小白學(xué)大模型:國外主流大模型匯總

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過對(duì)無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡單、快速
    發(fā)表于 06-16 21:54

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計(jì)數(shù)據(jù)怎么查看?

    無法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計(jì)數(shù)據(jù)
    發(fā)表于 03-06 07:10