chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)的原理解析

新機(jī)器視覺(jué) ? 來(lái)源:AI有道 ? 作者:Piotr Skalski ? 2021-02-17 13:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文采用圖像展示的方式幫助大家理解相關(guān)復(fù)雜的數(shù)學(xué)方程。聚焦于理解神經(jīng)網(wǎng)路如何工作,主要關(guān)注于CNNs的一些典型問(wèn)題:數(shù)字圖像的數(shù)據(jù)結(jié)構(gòu)、步幅卷積、連接剪枝和參數(shù)共享、卷積層反向傳播、池化層等。

原標(biāo)題:Gentle Dive into Math Behind Convolutional Neural Networks

自動(dòng)駕駛、智能醫(yī)療保健和自助零售這些領(lǐng)域直到最近還被認(rèn)為是不可能實(shí)現(xiàn)的,而計(jì)算機(jī)視覺(jué)已經(jīng)幫助我們達(dá)到了這些事情。如今,擁有自動(dòng)駕駛汽車或自動(dòng)雜貨店的夢(mèng)想聽起來(lái)不再那么遙不可及了。事實(shí)上,我們每天都在使用計(jì)算機(jī)視覺(jué)——當(dāng)我們用面部解鎖手機(jī)或在社交媒體上發(fā)照片前使用自動(dòng)修圖。卷積神經(jīng)網(wǎng)絡(luò)可能是這一巨大成功背后最關(guān)鍵的構(gòu)建模塊。這一次,我們將加深理解神經(jīng)網(wǎng)絡(luò)如何工作于CNNs。出于建議,這篇文章將包括相當(dāng)復(fù)雜的數(shù)學(xué)方程,如果你不習(xí)慣線性代數(shù)和微分,請(qǐng)不要?dú)怵H。我的目標(biāo)不是讓你們記住這些公式,而是讓你們對(duì)下面發(fā)生的事情有一個(gè)直觀的認(rèn)識(shí)。

附注:在這篇文章中,我主要關(guān)注CNNs的一些典型問(wèn)題。如果您正在尋找關(guān)于深度神經(jīng)網(wǎng)絡(luò)更基礎(chǔ)的信息,我建議您閱讀我在本系列文章中的其他文章(https://towardsdatascience.com/https-medium-com-piotr-skalski92-deep-dive-into-deep-networks-math-17660bc376ba)。與往常一樣,可以在我的GitHub上找到帶有可視化和注釋的完整源代碼,讓我們開始吧!

介紹

過(guò)去我們已經(jīng)知道被稱為緊密連接的神經(jīng)網(wǎng)絡(luò)。這些網(wǎng)絡(luò)的神經(jīng)元被分成若干組,形成連續(xù)的層。每一個(gè)這樣的神經(jīng)元都與相鄰層的每一個(gè)神經(jīng)元相連。下圖顯示了這種體系結(jié)構(gòu)的一個(gè)示例。

484b97e2-503c-11eb-8b86-12bb97331649.jpg

圖1. 密集連接的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

當(dāng)我們根據(jù)一組有限的人工設(shè)計(jì)的特征來(lái)解決分類問(wèn)題時(shí),這種方法很有效。例如,我們根據(jù)足球運(yùn)動(dòng)員在比賽期間的統(tǒng)計(jì)數(shù)據(jù)來(lái)預(yù)測(cè)他的位置。然而,當(dāng)處理照片時(shí),情況變得更加復(fù)雜。當(dāng)然,我們可以將每個(gè)像素的像素值作為單獨(dú)的特征,并將其作為輸入傳遞給我們的密集網(wǎng)絡(luò)。不幸的是,為了讓該網(wǎng)絡(luò)適用于一張?zhí)囟ǖ?a href="http://www.brongaenegriffin.com/v/tag/11230/" target="_blank">智能手機(jī)照片,我們的網(wǎng)絡(luò)必須包含數(shù)千萬(wàn)甚至數(shù)億個(gè)神經(jīng)元。另一方面,我們可以縮小我們的照片,但在這個(gè)過(guò)程中,我們會(huì)丟失一些有用的信息。我們立馬意識(shí)到傳統(tǒng)的策略對(duì)我們沒(méi)有任何作用,我們需要一個(gè)新的有效的方法,以充分利用盡可能多的數(shù)據(jù),但同時(shí)減少必要的計(jì)算和參數(shù)量。這就是CNNs發(fā)揮作用的時(shí)候了。

數(shù)字圖像的數(shù)據(jù)結(jié)構(gòu)

讓我們先花一些時(shí)間來(lái)解釋數(shù)字圖像是如何存儲(chǔ)的。你們大多數(shù)人可能知道它們實(shí)際上是由很多數(shù)字組成的矩陣。每一個(gè)這樣的數(shù)字對(duì)應(yīng)一個(gè)像素的亮度。在RGB模型中,彩色圖像實(shí)際上是由三個(gè)對(duì)應(yīng)于紅、綠、藍(lán)三種顏色通道的矩陣組成的。在黑白圖像中,我們只需要一個(gè)矩陣。每個(gè)矩陣都存儲(chǔ)0到255之間的值。這個(gè)范圍是存儲(chǔ)圖像信息的效率(256之內(nèi)的值正好可以用一個(gè)字節(jié)表達(dá))和人眼的敏感度(我們區(qū)分有限數(shù)量的相同顏色灰度值)之間的折衷。

486ffce0-503c-11eb-8b86-12bb97331649.png

圖2. 數(shù)字圖像的數(shù)據(jù)結(jié)構(gòu)

卷積

核卷積不僅用于神經(jīng)網(wǎng)絡(luò),而且是許多其他計(jì)算機(jī)視覺(jué)算法的關(guān)鍵一環(huán)。在這個(gè)過(guò)程中,我們采用一個(gè)形狀較小的矩陣(稱為核或濾波器),我們輸入圖像,并根據(jù)濾波器的值變換圖像。后續(xù)的特征map值根據(jù)下式來(lái)計(jì)算,其中輸入圖像用f表示,我們的kernel用h表示,結(jié)果矩陣的行和列的索引分別用m和n表示。

48a40fee-503c-11eb-8b86-12bb97331649.png圖片

48c35e26-503c-11eb-8b86-12bb97331649.gif

圖3. 核卷積的例子

將過(guò)濾器放置在選定的像素上之后,我們從kernel中提取每個(gè)相應(yīng)位置的值,并將它們與圖像中相應(yīng)的值成對(duì)相乘。最后,我們總結(jié)了所有內(nèi)容,并將結(jié)果放在輸出特性圖的對(duì)應(yīng)位置。上面我們可以看到這樣的操作在細(xì)節(jié)上是怎么實(shí)現(xiàn)的,但是更讓人關(guān)注的是,我們通過(guò)在一個(gè)完整的圖像上執(zhí)行核卷積可以實(shí)現(xiàn)什么應(yīng)用。圖4顯示了幾種不同濾波器的卷積結(jié)果。

48fe166a-503c-11eb-8b86-12bb97331649.jpg

圖4. 通過(guò)核卷積得到邊緣[原圖像:https://www.maxpixel.net/Idstein-Historic-Center-Truss-Facade-Germany-3748512]

有效卷積和相同卷積

如圖3所示,當(dāng)我們用3x3核對(duì)6x6的圖像進(jìn)行卷積時(shí),我們得到了4x4特征圖。這是因?yàn)橹挥?6個(gè)不同的位置可以讓我們把濾波器放在這個(gè)圖片里。因?yàn)槊看尉矸e操作,圖像都會(huì)縮小,所以我們只能做有限次數(shù)的卷積,直到圖像完全消失。更重要的是,如果我們觀察卷積核如何在圖像中移動(dòng),我們會(huì)發(fā)現(xiàn)位于圖像邊緣的像素的影響要比位于圖像中心的像素小得多。這樣我們就丟失了圖片中包含的一些信息。通過(guò)下圖,您可以知道像素的位置如何改變其對(duì)特征圖的影響。

49254762-503c-11eb-8b86-12bb97331649.gif

圖5. 像素位置的影響

為了解決這兩個(gè)問(wèn)題,我們可以用額外的邊框填充圖像。例如,如果我們使用1px填充,我們將照片的大小增加到8x8,那么與3x3濾波器卷積的輸出將是6x6。在實(shí)踐中,我們一般用0填充額外的填充區(qū)域。這取決于我們是否使用填充,我們要根據(jù)兩種卷積來(lái)判斷-有效卷積和相同卷積。這樣命名并不是很合適,所以為了清晰起見(jiàn):Valid表示我們僅使用原始圖像,Same表示我們同時(shí)也考慮原圖像的周圍邊框,這樣輸入和輸出的圖像大小是相同的。在第二種情況下,填充寬度應(yīng)該滿足以下方程,其中p為填充寬度和f是濾波器維度(一般為奇數(shù))。

4954003e-503c-11eb-8b86-12bb97331649.png

步幅卷積

4973c932-503c-11eb-8b86-12bb97331649.gif

圖6. 步幅卷積的例子

在前面的例子中,我們總是將卷積核每次移動(dòng)一個(gè)像素。但是,步幅也可以看作卷積層超參數(shù)之一。在圖6中,我們可以看到,如果我們使用更大的步幅,卷積看起來(lái)是什么樣的。在設(shè)計(jì)CNN架構(gòu)時(shí),如果希望感知區(qū)域的重疊更少,或者希望feature map的空間維度更小,我們可以決定增加步幅。輸出矩陣的尺寸——考慮到填充寬度和步幅——可以使用以下公式計(jì)算。

498d447a-503c-11eb-8b86-12bb97331649.png

過(guò)渡到三維

空間卷積是一個(gè)非常重要的概念,它不僅能讓我們處理彩色圖像,更重要的是在單層中應(yīng)用多個(gè)卷積核。第一個(gè)重要的原則是,過(guò)濾器和要應(yīng)用它的圖像必須具有相同通道數(shù)?;旧希@種方式與圖3中的示例非常相似,不過(guò)這次我們將三維空間中的值與卷積核對(duì)應(yīng)相乘。如果我們想在同一幅圖像上使用多個(gè)濾波器,我們分別對(duì)它們進(jìn)行卷積,將結(jié)果一個(gè)疊在一起,并將它們組合成一個(gè)整體。接收張量的維數(shù)(即我們的三維矩陣)滿足如下方程:n-圖像大小,f-濾波器大小,nc-圖像中通道數(shù),p-是否使用填充,s-使用的步幅,nf-濾波器個(gè)數(shù)。

49b40e34-503c-11eb-8b86-12bb97331649.png

49d33b24-503c-11eb-8b86-12bb97331649.png

圖7. 三維卷積

卷積層

現(xiàn)在是時(shí)候運(yùn)用我們今天所學(xué)的知識(shí)來(lái)構(gòu)建我們的CNN層了。我們的方法和我們?cè)诿芗B接的神經(jīng)網(wǎng)絡(luò)中使用的方法幾乎是一樣的,唯一的不同是這次我們將使用卷積而不是簡(jiǎn)單的矩陣乘法。正向傳播包括兩個(gè)步驟。第一步是計(jì)算中間值Z,這是利用輸入數(shù)據(jù)和上一層權(quán)重W張量(包括所有濾波器)獲得的卷積的結(jié)果,然后加上偏置b。第二步是將非線性激活函數(shù)的應(yīng)用到獲得的中間值上(我們的激活函數(shù)表示為g)。對(duì)矩陣方程感興趣的讀者可以在下面找到對(duì)應(yīng)的數(shù)學(xué)公式。如果您不清楚其中的操作細(xì)節(jié),我強(qiáng)烈推薦我的前一篇文章,在那篇文章中,我詳細(xì)討論了緊密連接的神經(jīng)網(wǎng)絡(luò)的原理。順便說(shuō)一下,在下圖中你可以看到一個(gè)簡(jiǎn)單的可視化,描述了方程中使用的張量的維數(shù)。

49fef3c2-503c-11eb-8b86-12bb97331649.png

圖8.張量維度

連接剪枝和參數(shù)共享

在文章的開頭,我提到密集連接的神經(jīng)網(wǎng)絡(luò)不擅長(zhǎng)處理圖像,這是因?yàn)樾枰獙W(xué)習(xí)大量的參數(shù)。既然我們已經(jīng)理解了卷積是什么,讓我們現(xiàn)在考慮一下它是如何優(yōu)化計(jì)算的。在下面的圖中,以稍微不同的方式顯示了二維卷積,以數(shù)字1-9標(biāo)記的神經(jīng)元組成了輸入層,并接受圖像像素亮度值,而A - D單元表示計(jì)算出的特征map元素。最后,I-IV是需要經(jīng)過(guò)學(xué)習(xí)的卷積核的值。

4a1fea8c-503c-11eb-8b86-12bb97331649.gif

圖9. 連接剪枝和參數(shù)共享

現(xiàn)在,讓我們關(guān)注卷積層的兩個(gè)非常重要的屬性。首先,你可以看到,并不是所有連續(xù)兩層的神經(jīng)元都相互連接。例如,神經(jīng)元1只影響A的值。其次,我們看到一些神經(jīng)元共享相同的權(quán)重。這兩個(gè)性質(zhì)都意味著我們需要學(xué)習(xí)的參數(shù)要少得多。順便說(shuō)一下,值得注意的是,濾波器中的一個(gè)值會(huì)影響特征map中的每個(gè)元素——這在反向傳播過(guò)程中非常重要。

卷積層反向傳播

任何嘗試過(guò)從頭編寫自己的神經(jīng)網(wǎng)絡(luò)代碼的人都知道,完成正向傳播還沒(méi)有完成整個(gè)算法流程的一半。真正的樂(lè)趣在于你想要進(jìn)行反向傳播得到時(shí)候。現(xiàn)在,我們不需要為反向傳播這個(gè)問(wèn)題所困擾,我們可以利用深度學(xué)習(xí)框架來(lái)實(shí)現(xiàn)這一部分,但是我覺(jué)得了解底層是有價(jià)值的。就像在密集連接的神經(jīng)網(wǎng)絡(luò)中,我們的目標(biāo)是計(jì)算導(dǎo)數(shù),然后用它們來(lái)更新我們的參數(shù)值,這個(gè)過(guò)程叫做梯度下降。

在我們的計(jì)算中需要用到鏈?zhǔn)椒▌t——我在前面的文章中提到過(guò)。我們想評(píng)估參數(shù)的變化對(duì)最終特征map的影響,以及之后對(duì)最終結(jié)果的影響。在我們開始討論細(xì)節(jié)之前,讓我們就對(duì)使用的數(shù)學(xué)符號(hào)進(jìn)行統(tǒng)一——為了讓過(guò)程更加簡(jiǎn)化,我將放棄偏導(dǎo)的完整符號(hào),而使用如下所示的更簡(jiǎn)短的符號(hào)來(lái)表達(dá)。但記住,當(dāng)我用這個(gè)符號(hào)時(shí),我總是指的是損失函數(shù)的偏導(dǎo)數(shù)。

4a4362c8-503c-11eb-8b86-12bb97331649.png

4a5f3aca-503c-11eb-8b86-12bb97331649.png

圖10. 單卷積層的輸入和輸出的正向和反向傳播

我們的任務(wù)是計(jì)算dW[l]和db[l]——它們是與當(dāng)前層參數(shù)相關(guān)的導(dǎo)數(shù),以及dA[l -1]的值——它們將被傳遞到上一層。如圖10所示,我們接收dA[l]作為輸入。當(dāng)然,張量dW和W、db和b以及dA和A的維數(shù)是相同的。第一步是通過(guò)對(duì)輸入張量的激活函數(shù)求導(dǎo)得到中間值dZ[l]。根據(jù)鏈?zhǔn)椒▌t,后面將使用這個(gè)操作得到的結(jié)果。

4a7c9ba6-503c-11eb-8b86-12bb97331649.png

現(xiàn)在,我們需要處理卷積本身的反向傳播,為了實(shí)現(xiàn)這個(gè)目的,我們將使用一個(gè)矩陣運(yùn)算,稱為全卷積,如下圖所示。注意,在這個(gè)過(guò)程中,對(duì)于我們使用卷積核,之前我們將其旋轉(zhuǎn)了180度。這個(gè)操作可以用下面的公式來(lái)描述,其中濾波器用W表示,dZ[m,n]是一個(gè)標(biāo)量,屬于上一層偏導(dǎo)數(shù)。

4ab1bcb4-503c-11eb-8b86-12bb97331649.png

4ad22abc-503c-11eb-8b86-12bb97331649.gif

圖11. 全卷積

池化層

除了卷積層,CNNs還經(jīng)常使用所謂的池化層。池化層主要用于減小張量的大小和加速計(jì)算。這種網(wǎng)絡(luò)層很簡(jiǎn)單——我們需要將圖像分割成不同的區(qū)域,然后對(duì)每個(gè)部分執(zhí)行一些操作。例如,對(duì)于最大值池化層,我們從每個(gè)區(qū)域中選擇一個(gè)最大值,并將其放在輸出中相應(yīng)的位置。在卷積層的情況下,我們有兩個(gè)超參數(shù)——濾波器大小和步長(zhǎng)。最后一個(gè)比較重要的一點(diǎn)是,如果要為多通道圖像進(jìn)行池化操作,則應(yīng)該分別對(duì)每個(gè)通道進(jìn)行池化。

4b27cd0a-503c-11eb-8b86-12bb97331649.gif

圖12. 最大值池化的例子

池化層反向傳播

在本文中,我們將只討論最大值池化的反向傳播,但是我們將學(xué)習(xí)的規(guī)則只需要稍加調(diào)整就可以適用于所有類型的池化層。由于在這種類型的層中,我們沒(méi)有任何必須更新的參數(shù),所以我們的任務(wù)只是適當(dāng)?shù)胤植继荻?。正如我們所記得的,在最大值池化的正向傳播中,我們從每個(gè)區(qū)域中選擇最大值,并將它們傳輸?shù)较乱粚印R虼?,很明顯,在反向傳播過(guò)程中,梯度不應(yīng)該影響矩陣中沒(méi)有包含在正向傳播中的元素。實(shí)際上,這是通過(guò)創(chuàng)建一個(gè)掩碼來(lái)實(shí)現(xiàn)的,該掩碼可以記住第一階段中使用的值的位置,稍后我們可以使用該掩碼來(lái)傳播梯度。

4b388e60-503c-11eb-8b86-12bb97331649.gif

圖13. 最大值池化的反向傳播

結(jié)論

恭喜你能來(lái)這里。非常感謝您花時(shí)間閱讀本文。如果你喜歡這個(gè)帖子,您可以考慮向你的朋友,或者兩個(gè)或五個(gè)朋友分享。如果你注意到任何錯(cuò)誤的思維方式,公式,動(dòng)畫或代碼,請(qǐng)讓我知道。

原文標(biāo)題:圖解:卷積神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)原理解析

文章出處:【微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4825

    瀏覽量

    106757
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    18922

原文標(biāo)題:圖解:卷積神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)原理解析

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一種專門用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見(jiàn),因?yàn)閳D像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?1819次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。一旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)測(cè)。要使用生成的模型進(jìn)行推理,可以按照以下步驟進(jìn)行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來(lái)需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對(duì)第一層卷積+池化的部署進(jìn)行說(shuō)明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對(duì)于權(quán)重
    發(fā)表于 10-20 08:00

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?878次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟<b class='flag-5'>解析</b>

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?1287次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性 學(xué)習(xí)率決定了模型參數(shù)在每次迭代時(shí)更新的幅度。過(guò)大的學(xué)習(xí)率可能導(dǎo)致模型在
    的頭像 發(fā)表于 02-12 15:51 ?1409次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?1537次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?1263次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?1330次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    所擬合的數(shù)學(xué)模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設(shè)計(jì)的。然而,數(shù)據(jù)科學(xué)中常用的神經(jīng)網(wǎng)絡(luò)作為大腦模型已經(jīng)過(guò)時(shí),現(xiàn)在它們只是能夠在某些應(yīng)用中提供最先進(jìn)性能的機(jī)器學(xué)習(xí)模型。近年來(lái),由于
    的頭像 發(fā)表于 01-09 10:24 ?2226次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法