完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>
電子發(fā)燒友網(wǎng)技術(shù)文庫(kù)為您提供最新技術(shù)文章,最實(shí)用的電子技術(shù)文章,是您了解電子技術(shù)動(dòng)態(tài)的最佳平臺(tái)。
憑借出色的性能和功耗指標(biāo),賽靈思 FPGA 成為設(shè)計(jì)人員構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)的首選。新的軟件工具可簡(jiǎn)化實(shí)現(xiàn)工作。人工智能正在經(jīng)歷一場(chǎng)變革,這要得益于機(jī)器學(xué)習(xí)的快速進(jìn)步。在機(jī)器學(xué)習(xí)領(lǐng)域,人們正對(duì)一類名為“深度學(xué)習(xí)”算法產(chǎn)生濃厚的興趣,因?yàn)檫@類算法具有出色的大數(shù)據(jù)集性能。在深度學(xué)習(xí)中,機(jī)器可以在監(jiān)督或不受監(jiān)...
面對(duì)來(lái)自微軟、Facebook、谷歌和CMU的團(tuán)隊(duì)時(shí),中國(guó)面部識(shí)別初創(chuàng)企業(yè)Face++在3個(gè)計(jì)算機(jī)視覺挑戰(zhàn)中獲得了第一名。AAAI曾將2017年的年度會(huì)議推遲了一周,因?yàn)樗l(fā)現(xiàn)大會(huì)日期與中國(guó)的新年相吻合,而且來(lái)自中國(guó)和美國(guó)的研究人員論文數(shù)量幾乎相等。...
在深度學(xué)習(xí)領(lǐng)域,我們也有一個(gè)新興的 N 體問題。許多更先進(jìn)的系統(tǒng)現(xiàn)在正在處理多代理系統(tǒng)的問題。每個(gè)代理都可能有與全局目標(biāo)合作或競(jìng)爭(zhēng)的目標(biāo)(即目標(biāo)函數(shù))。在多代理深度學(xué)習(xí)系統(tǒng)中,甚至在模塊化的深度學(xué)習(xí)系統(tǒng)中,研究人員需要設(shè)計(jì)可擴(kuò)展的合作方法。...
LTR同樣是一個(gè)回歸問題。你手頭上有一系列評(píng)價(jià)數(shù)據(jù),來(lái)衡量一個(gè)文檔與某個(gè)查詢的相關(guān)度等級(jí)。我們的相關(guān)度等級(jí)取值從A到F,更常見的情況是取值從0(完全不相關(guān))到4(非常相關(guān))。...
深度學(xué)習(xí)與傳統(tǒng)的機(jī)器學(xué)習(xí)最主要的區(qū)別在于隨著數(shù)據(jù)規(guī)模的增加其性能也不斷增長(zhǎng)。當(dāng)數(shù)據(jù)很少時(shí),深度學(xué)習(xí)算法的性能并不好。這是因?yàn)樯疃葘W(xué)習(xí)算法需要大量的數(shù)據(jù)來(lái)完美地理解它。另一方面,在這種情況下,傳統(tǒng)的機(jī)器學(xué)習(xí)算法使用制定的規(guī)則,性能會(huì)比較好。...
由于語(yǔ)音分離已經(jīng)變成分類問題,所以語(yǔ)音分離也變得非常重要,已經(jīng)在信號(hào)處理領(lǐng)域被研究了幾十年,數(shù)據(jù)驅(qū)動(dòng)的方法在語(yǔ)音處理領(lǐng)域也得到了廣泛研究。...
深度神經(jīng)網(wǎng)絡(luò)(DNN)在圖像識(shí)別和語(yǔ)音識(shí)別等領(lǐng)域不遜于人類,但是DNN模型的訓(xùn)練需要專業(yè)人員方可進(jìn)行,與SparkML的整合也十分不易。...
網(wǎng)絡(luò)釣魚是今天最常見的攻擊媒介,而且非常成功。這種攻擊利用了個(gè)人對(duì)通信工具的熟悉,如社交媒體和電子郵件,通過附件或鏈接向不知情的收件人發(fā)送惡意內(nèi)容。這種攻擊的有效性依賴于攻擊者誤導(dǎo)最終用戶點(diǎn)擊或下載惡意有效載荷并在之后繞過內(nèi)部控制的能力。目前其不斷增加的破壞性和勒索軟件有效載荷使得這種攻擊更加嚴(yán)重。...
使用集成學(xué)習(xí)者的基礎(chǔ)在于這樣一個(gè)想法,即在同一個(gè)數(shù)據(jù)樣本中學(xué)習(xí)幾個(gè)基本的對(duì)象,并使用不同對(duì)象的結(jié)果的聯(lián)合來(lái)預(yù)測(cè)后續(xù)更改的加密機(jī)制。這個(gè)方法的數(shù)學(xué)基礎(chǔ)就是十八世紀(jì)早期制定的陪審團(tuán)審判定理。...
在人工神經(jīng)網(wǎng)絡(luò)(ANN)的監(jiān)督訓(xùn)練中,智能體通過樣本進(jìn)行學(xué)習(xí) [56], [86]。智能體需要做出決策(已知正確答案),之后,使用誤差函數(shù)確定智能體提供的答案和真正答案之間的區(qū)別;這將作為損失用于更新模型。在大數(shù)據(jù)集上進(jìn)行訓(xùn)練后,智能體應(yīng)該學(xué)習(xí)通用模型,使之在未見過的輸入上依然表現(xiàn)良好。...
算法對(duì)于內(nèi)存帶寬的需求通常使用「運(yùn)算強(qiáng)度 (operational intensity,或稱 arithmetic intensity)」這個(gè)量來(lái)表示,單位是 OPs/byte。這個(gè)量的意思是,在算法中平均每讀入單位數(shù)據(jù),能支持多少次運(yùn)算操作。運(yùn)算強(qiáng)度越大,則表示單位數(shù)據(jù)能支持更多次運(yùn)算,也就是說算...
深度神經(jīng)網(wǎng)絡(luò)里面門的權(quán)重也是 反向傳播訓(xùn)練出來(lái)的,也有漸變的這個(gè)性質(zhì),當(dāng)對(duì)于快速變化的刺激,有一定的滯后。從這個(gè)角度來(lái)說,人類神經(jīng)系統(tǒng)要更靈活一些,可以在很短的時(shí)間內(nèi)完成狀態(tài)的切換。...
未訓(xùn)練的神經(jīng)網(wǎng)絡(luò)通常會(huì)輸出約在-1到1范圍之間的值。如果你希望輸出其他范圍的值(例如RBG圖像以0-255范圍的字節(jié)存儲(chǔ))會(huì)出現(xiàn)一些問題。在開始訓(xùn)練時(shí),網(wǎng)絡(luò)會(huì)非常不穩(wěn)定,因?yàn)楸热缯f預(yù)期值是255,網(wǎng)絡(luò)產(chǎn)生的值是-1或1——這會(huì)被大多數(shù)用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的優(yōu)化算法認(rèn)為是嚴(yán)重的錯(cuò)誤。...
目前,Keras 官方版已經(jīng)支持谷歌的 TensorFlow、微軟的 CNTK、蒙特利爾大學(xué)的 Theano,此外,AWS 去年就宣布 Keras 將支持 Apache MXNet,上個(gè)月發(fā)布的 MXNet 0.11 就新增 Core ML 和 Keras v1.2 的支持。不過到目前為止 MXNe...
理解迭代,只需要知道乘法表或者一個(gè)計(jì)算器就可以了。迭代是 batch 需要完成一個(gè) epoch 的次數(shù)。記?。涸谝粋€(gè) epoch 中,batch 數(shù)和迭代數(shù)是相等...
要訓(xùn)練神經(jīng)網(wǎng)絡(luò),我們需要“訓(xùn)練數(shù)據(jù)集”。訓(xùn)練數(shù)據(jù)集是由對(duì)應(yīng)目標(biāo)z(期望輸出)的輸入信號(hào)(x_1和 x_2)組成。神經(jīng)網(wǎng)絡(luò)的訓(xùn)練是一個(gè)迭代過程。在每個(gè)迭代中,使用來(lái)自訓(xùn)練數(shù)據(jù)集的新數(shù)據(jù)修改網(wǎng)絡(luò)節(jié)點(diǎn)的加權(quán)系數(shù)。整個(gè)迭代由前向計(jì)算和反向傳播兩個(gè)過程組成。...
深度線性網(wǎng)絡(luò)通過反向傳播在 MNIST 數(shù)據(jù)集上訓(xùn)練時(shí),可獲取 94% 的訓(xùn)練準(zhǔn)確率和 92% 的測(cè)試準(zhǔn)確率(機(jī)器之心使用三層全連接網(wǎng)絡(luò)可獲得 98.51% 的測(cè)試準(zhǔn)確率)。相對(duì)而言,相同的線性網(wǎng)絡(luò)使用進(jìn)化策略訓(xùn)練可獲取大于 99% 的訓(xùn)練準(zhǔn)確率、96.7% 的測(cè)試準(zhǔn)確率,確保激活值足夠小而分布在 ...
為什么要引入隨機(jī)森林呢。我們知道,同一批數(shù)據(jù),我們只能產(chǎn)生一顆決策樹,這個(gè)變化就比較單一了,這就有了集成學(xué)習(xí)的概念。...
在SMO算法中,我們每次需要選取一對(duì)α來(lái)進(jìn)行優(yōu)化,通過啟發(fā)式的選取我們可以更高效的選取待優(yōu)化的變量使得目標(biāo)函數(shù)下降的最快。...
異常值有時(shí)候很重要,有時(shí)候又可以忽略不計(jì),視情況而定。以收入預(yù)測(cè)為例,有時(shí)候收入會(huì)突然出現(xiàn)很大的變動(dòng),觀察這種現(xiàn)象并了解其原因是很有幫助的。有時(shí)候異常值由某種誤差造成,那么這時(shí)可以放心地忽略它們,并將其從你的數(shù)據(jù)中刪除。...