chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布工具庫(kù) 可在GPU上建立更快、更高效、占內(nèi)存更少的神經(jīng)網(wǎng)絡(luò)

EdXK_AI_News ? 2018-01-27 00:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

OpenAI研究人員日前發(fā)布了一個(gè)工具庫(kù),該工具庫(kù)可以幫助研究人員在圖形處理器(graphics-processor-unit,GPU)上建立更快、更高效、占內(nèi)存更少的神經(jīng)網(wǎng)絡(luò)

OpenAI研究人員日前發(fā)布了一個(gè)工具庫(kù),可以幫助研究人員在圖形處理器上建立更快、更高效、占內(nèi)存更少的神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)由多層相連的節(jié)點(diǎn)構(gòu)成。這類(lèi)網(wǎng)絡(luò)的架構(gòu)根據(jù)數(shù)據(jù)和應(yīng)用變化很多,但是所有模型都受到它們?cè)趫D形處理器上運(yùn)行方式的限制。

以更少的計(jì)算能力訓(xùn)練更大模型的一種辦法是引入稀疏矩陣。如果一個(gè)矩陣?yán)锩嬗泻芏嗔悖蔷鸵暈橄∈杈仃?。陣列中的空元素可以在矩陣乘法中壓縮和跳過(guò),就在圖形處理器中占用的內(nèi)存更少。進(jìn)行運(yùn)算的計(jì)算成本與矩陣中非零條目的數(shù)量成比例,有了稀疏矩陣就意味著節(jié)省了多的計(jì)算能力用于構(gòu)建更廣或更深的網(wǎng)絡(luò),能訓(xùn)練更高效,進(jìn)行推斷的速度可提高十倍。

OpenAI發(fā)布工具庫(kù) 可在GPU上建立更快、更高效、占內(nèi)存更少的神經(jīng)網(wǎng)絡(luò)

研究人員指出,英偉達(dá)并不支持塊稀疏模型。所以,OpenAI的團(tuán)隊(duì)決定開(kāi)發(fā)核——將軟件匯集在硬件上運(yùn)行的微程序,優(yōu)化用于為更大的研究圈構(gòu)建塊稀疏網(wǎng)絡(luò)。

伊隆·馬斯克(Elon Musk)的人工智能研究部門(mén)的研究人員內(nèi)部使用這種程序訓(xùn)練長(zhǎng)的短時(shí)記憶網(wǎng)絡(luò),對(duì)亞馬遜網(wǎng)(Amazon)和互聯(lián)網(wǎng)電影資料庫(kù)(IMDB)的評(píng)論文本進(jìn)行情感分析。

“我們的稀疏模型將互聯(lián)網(wǎng)電影資料庫(kù)數(shù)據(jù)集文本水平的藝術(shù)狀態(tài)誤差從5.91%降低到5.01%。從我們以往的結(jié)果來(lái)看,這個(gè)提高很有前景,因?yàn)橹白詈玫慕Y(jié)果也只是在更短句子水平的數(shù)據(jù)集運(yùn)算?!監(jiān)penAI在博文中表示。

核心程序在英偉達(dá)的統(tǒng)一計(jì)算設(shè)備架構(gòu)(CUDA)運(yùn)算平臺(tái)編寫(xiě),OpenAI最近只開(kāi)發(fā)了TensorFlow的服務(wù)運(yùn)行,所以在不同框架下工作的研究人員要編寫(xiě)自己的服務(wù)運(yùn)行,它也只支持英偉達(dá)圖形處理器。OpenAI的技術(shù)人員表示:這確實(shí)可以擴(kuò)展到支持小型塊矩陣乘法的其他架構(gòu),包含了我知道的大多數(shù)架構(gòu),但是谷歌的TPU2不在其中。雖然結(jié)果很有前景,“但是由于這些核程序仍然很新,我們還沒(méi)有確定它們能在何時(shí)何處幫助“神經(jīng)網(wǎng)絡(luò)架構(gòu)”。實(shí)驗(yàn)中,我們提供了一些情景,它能幫助向模型增加稀疏。我們鼓勵(lì)研究圈幫助進(jìn)一步探索這個(gè)領(lǐng)域?!痹撗芯咳藛T表示。

英偉達(dá)知道了這項(xiàng)工作,正在等著代碼發(fā)布,以便為其提供更廣的支持,這名技術(shù)人員補(bǔ)充說(shuō)。OpenAI的工作與麻省理工學(xué)院研究人員開(kāi)發(fā)的軟件Taco相似,后者產(chǎn)生了自動(dòng)處理稀疏矩陣所需的代碼。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4827

    瀏覽量

    106803
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5099

    瀏覽量

    134468

原文標(biāo)題:OpenAI發(fā)布可加速GPU機(jī)器學(xué)習(xí)的核心工具庫(kù)

文章出處:【微信號(hào):AI_News,微信公眾號(hào):人工智能快報(bào)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NMSISI庫(kù)的使用

    NMSIS NN 軟件庫(kù)是一組高效神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫(xiě)數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過(guò) readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?707次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    MATLAB/SIMULINK工具對(duì)該方法進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果表明該方法在全程速度下效果良好。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ *附件:無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究.pdf
    發(fā)表于 06-25 13:06

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    發(fā)者能使用 NVIDIA GeForce RTX GPU 中的 AI Tensor Cores,在游戲的圖形渲染管線內(nèi)加速神經(jīng)網(wǎng)絡(luò)渲染。
    的頭像 發(fā)表于 04-07 11:33 ?871次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?1314次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率

    訓(xùn)練過(guò)程中發(fā)生震蕩,甚至無(wú)法收斂到最優(yōu)解;而過(guò)小的學(xué)習(xí)率則會(huì)使模型收斂速度緩慢,容易陷入局部最優(yōu)解。因此,正確設(shè)置和調(diào)整學(xué)習(xí)率對(duì)于訓(xùn)練高效、準(zhǔn)確的神經(jīng)網(wǎng)絡(luò)模型至關(guān)重要。 二、學(xué)習(xí)率優(yōu)化算法 梯度下降法及其變種 : 標(biāo)準(zhǔn)梯
    的頭像 發(fā)表于 02-12 15:51 ?1427次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?1593次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ),是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過(guò)計(jì)算每層
    的頭像 發(fā)表于 02-12 15:18 ?1279次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?1342次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過(guò)程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?1522次閱讀

    深度學(xué)習(xí)入門(mén):簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    神經(jīng)網(wǎng)絡(luò)。 首先,導(dǎo)入必要的庫(kù): 收起 python ? import numpy as np ? 定義激活函數(shù) Sigmoid: 收起 python ? def sigmoid(x): return 1
    的頭像 發(fā)表于 01-23 13:52 ?846次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?2256次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法