chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布工具庫 可在GPU上建立更快、更高效、占內(nèi)存更少的神經(jīng)網(wǎng)絡(luò)

EdXK_AI_News ? 2018-01-27 00:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

OpenAI研究人員日前發(fā)布了一個(gè)工具庫,該工具庫可以幫助研究人員在圖形處理器(graphics-processor-unit,GPU)上建立更快、更高效、占內(nèi)存更少的神經(jīng)網(wǎng)絡(luò)

OpenAI研究人員日前發(fā)布了一個(gè)工具庫,可以幫助研究人員在圖形處理器上建立更快、更高效、占內(nèi)存更少的神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)由多層相連的節(jié)點(diǎn)構(gòu)成。這類網(wǎng)絡(luò)的架構(gòu)根據(jù)數(shù)據(jù)和應(yīng)用變化很多,但是所有模型都受到它們?cè)趫D形處理器上運(yùn)行方式的限制。

以更少的計(jì)算能力訓(xùn)練更大模型的一種辦法是引入稀疏矩陣。如果一個(gè)矩陣?yán)锩嬗泻芏嗔?,那就視為稀疏矩陣。陣列中的空元素可以在矩陣乘法中壓縮和跳過,就在圖形處理器中占用的內(nèi)存更少。進(jìn)行運(yùn)算的計(jì)算成本與矩陣中非零條目的數(shù)量成比例,有了稀疏矩陣就意味著節(jié)省了多的計(jì)算能力用于構(gòu)建更廣或更深的網(wǎng)絡(luò),能訓(xùn)練更高效,進(jìn)行推斷的速度可提高十倍。

OpenAI發(fā)布工具庫 可在GPU上建立更快、更高效、占內(nèi)存更少的神經(jīng)網(wǎng)絡(luò)

研究人員指出,英偉達(dá)并不支持塊稀疏模型。所以,OpenAI的團(tuán)隊(duì)決定開發(fā)核——將軟件匯集在硬件上運(yùn)行的微程序,優(yōu)化用于為更大的研究圈構(gòu)建塊稀疏網(wǎng)絡(luò)。

伊隆·馬斯克(Elon Musk)的人工智能研究部門的研究人員內(nèi)部使用這種程序訓(xùn)練長的短時(shí)記憶網(wǎng)絡(luò),對(duì)亞馬遜網(wǎng)(Amazon)和互聯(lián)網(wǎng)電影資料庫(IMDB)的評(píng)論文本進(jìn)行情感分析。

“我們的稀疏模型將互聯(lián)網(wǎng)電影資料庫數(shù)據(jù)集文本水平的藝術(shù)狀態(tài)誤差從5.91%降低到5.01%。從我們以往的結(jié)果來看,這個(gè)提高很有前景,因?yàn)橹白詈玫慕Y(jié)果也只是在更短句子水平的數(shù)據(jù)集運(yùn)算。”O(jiān)penAI在博文中表示。

核心程序在英偉達(dá)的統(tǒng)一計(jì)算設(shè)備架構(gòu)(CUDA)運(yùn)算平臺(tái)編寫,OpenAI最近只開發(fā)了TensorFlow的服務(wù)運(yùn)行,所以在不同框架下工作的研究人員要編寫自己的服務(wù)運(yùn)行,它也只支持英偉達(dá)圖形處理器。OpenAI的技術(shù)人員表示:這確實(shí)可以擴(kuò)展到支持小型塊矩陣乘法的其他架構(gòu),包含了我知道的大多數(shù)架構(gòu),但是谷歌的TPU2不在其中。雖然結(jié)果很有前景,“但是由于這些核程序仍然很新,我們還沒有確定它們能在何時(shí)何處幫助“神經(jīng)網(wǎng)絡(luò)架構(gòu)”。實(shí)驗(yàn)中,我們提供了一些情景,它能幫助向模型增加稀疏。我們鼓勵(lì)研究圈幫助進(jìn)一步探索這個(gè)領(lǐng)域。”該研究人員表示。

英偉達(dá)知道了這項(xiàng)工作,正在等著代碼發(fā)布,以便為其提供更廣的支持,這名技術(shù)人員補(bǔ)充說。OpenAI的工作與麻省理工學(xué)院研究人員開發(fā)的軟件Taco相似,后者產(chǎn)生了自動(dòng)處理稀疏矩陣所需的代碼。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103620
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4948

    瀏覽量

    131244

原文標(biāo)題:OpenAI發(fā)布可加速GPU機(jī)器學(xué)習(xí)的核心工具庫

文章出處:【微信號(hào):AI_News,微信公眾號(hào):人工智能快報(bào)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    MATLAB/SIMULINK工具對(duì)該方法進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果表明該方法在全程速度下效果良好。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ *附件:無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究.pdf
    發(fā)表于 06-25 13:06

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?668次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?921次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ),是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過計(jì)算每層
    的頭像 發(fā)表于 02-12 15:18 ?768次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?861次閱讀

    深度學(xué)習(xí)入門:簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    神經(jīng)網(wǎng)絡(luò)。 首先,導(dǎo)入必要的: 收起 python ? import numpy as np ? 定義激活函數(shù) Sigmoid: 收起 python ? def sigmoid(x): return 1
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1190次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?671次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1872次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)的常見調(diào)參技巧

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡(jiǎn)稱RNN)是一種用于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型,它能夠捕捉時(shí)間序列中的動(dòng)態(tài)特征。然而,RNN的訓(xùn)練往往比傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)更具
    的頭像 發(fā)表于 11-15 10:13 ?757次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1128次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長期依賴問題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1631次閱讀

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    國產(chǎn)芯運(yùn)行TinyMaxi輕量級(jí)的神經(jīng)網(wǎng)絡(luò)推理-米爾基于芯馳D9國產(chǎn)商顯板

    本篇測(cè)評(píng)由優(yōu)秀測(cè)評(píng)者“短笛君”提供。本文將介紹基于米爾電子MYD-YD9360商顯板(米爾基于芯馳D9360國產(chǎn)開發(fā)板)的TinyMaxi輕量級(jí)的神經(jīng)網(wǎng)絡(luò)推理方案測(cè)試。 算力測(cè)試TinyMaix
    發(fā)表于 08-09 18:26

    FPGA在深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為其核心算法之一,在圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)模型
    的頭像 發(fā)表于 07-24 10:42 ?1206次閱讀