動態(tài)
-
發(fā)布了文章 2023-12-26 08:27
-
發(fā)布了文章 2023-12-22 08:27
-
發(fā)布了文章 2023-12-21 08:28
-
發(fā)布了文章 2023-12-20 08:28
后摩爾時代的Imagination公司,發(fā)展現(xiàn)狀與規(guī)劃談
來源:電子工程專輯去年我們采訪Imagination中國區(qū)高管時了解到,在被凱橋資本收購以后的幾年內(nèi)Imagination年度營收復(fù)合增長達(dá)到了33%;另外還提到諸如在汽車GPUIP市場保持領(lǐng)跑等相關(guān)數(shù)據(jù)。其實(shí)近幾年Imagination在產(chǎn)品宣傳上反倒是相對低調(diào)的——從媒體和終端用戶的角度來看,我們不是特別清楚Imagination公布的這些營收、市場份額1.6k瀏覽量 -
發(fā)布了文章 2023-12-16 08:28
-
發(fā)布了文章 2023-12-15 08:28
精選 25 個 RNN 問題
本文來源:MomodelAI循環(huán)神經(jīng)網(wǎng)絡(luò)是一類人工神經(jīng)網(wǎng)絡(luò),其中節(jié)點(diǎn)之間的連接可以創(chuàng)建一個循環(huán),允許某些節(jié)點(diǎn)的輸出影響對相同節(jié)點(diǎn)的后續(xù)輸入。涉及序列的任務(wù),如自然語言處理、語音識別和時間序列分析,非常適合RNN。與其他神經(jīng)網(wǎng)絡(luò)不同,RNN具有內(nèi)部存儲器,允許它們保留來自先前輸入的信息,并根據(jù)整個序列的上下文做出預(yù)測或決策。在本文中,我們將探討RNN的架構(gòu)、它1.1k瀏覽量 -
發(fā)布了文章 2023-12-14 08:28
-
發(fā)布了文章 2023-12-13 08:28
-
發(fā)布了文章 2023-12-07 12:38
深度學(xué)習(xí)如何訓(xùn)練出好的模型
算法工程、數(shù)據(jù)派THU深度學(xué)習(xí)在近年來得到了廣泛的應(yīng)用,從圖像識別、語音識別到自然語言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓(xùn)練出一個高效準(zhǔn)確的深度學(xué)習(xí)模型并不容易。不僅需要有高質(zhì)量的數(shù)據(jù)、合適的模型和足夠的計算資源,還需要根據(jù)任務(wù)和數(shù)據(jù)的特點(diǎn)進(jìn)行合理的超參數(shù)調(diào)整、數(shù)據(jù)增強(qiáng)和模型微調(diào)。在本文中,我們將會詳細(xì)介紹深度學(xué)習(xí)模型的訓(xùn)練流程,探討超參數(shù)設(shè)置、數(shù)據(jù)增強(qiáng)技1.7k瀏覽量 -
發(fā)布了文章 2023-12-06 08:27
GPU在深度學(xué)習(xí)中的應(yīng)用與優(yōu)勢
人工智能的飛速發(fā)展,深度學(xué)習(xí)作為其重要分支,正在推動著諸多領(lǐng)域的創(chuàng)新。在這個過程中,GPU扮演著不可或缺的角色。就像超級英雄電影中的主角一樣,GPU在深度學(xué)習(xí)中擁有舉足輕重的地位。那么,GPU在深度學(xué)習(xí)中究竟擔(dān)當(dāng)了什么樣的角色?又有哪些優(yōu)勢呢?一、GPU加速深度學(xué)習(xí)訓(xùn)練并行處理GPU的核心理念在于并行處理。在深度學(xué)習(xí)訓(xùn)練過程中,需要處理大量的數(shù)據(jù)。GPU通過2.1k瀏覽量