chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:人工智能遇見磐創(chuàng) ? 2020-05-05 08:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),是自動(dòng)駕駛汽車、人臉識(shí)別系統(tǒng)等計(jì)算機(jī)視覺應(yīng)用的基礎(chǔ),其中基本的矩陣乘法運(yùn)算被卷積運(yùn)算取代。它們專門處理具有網(wǎng)格狀拓?fù)浣Y(jié)構(gòu)的數(shù)據(jù)。例如,時(shí)間序列數(shù)據(jù)和圖像數(shù)據(jù)可以看作是一個(gè)二維像素網(wǎng)格。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

歷史

卷積神經(jīng)網(wǎng)絡(luò)最初是由福島核電站在1980年引入的,當(dāng)時(shí)名為Neocognitron。它的靈感來自于Hubel和Weisel提出的神經(jīng)系統(tǒng)的層次模型。但由于其復(fù)雜的無監(jiān)督學(xué)習(xí)算法,即無監(jiān)督學(xué)習(xí),該模型并不受歡迎。1989年,Yann LeCun利用反向傳播和Neocognitron的概念提出了一種名為L(zhǎng)eNet的架構(gòu),該架構(gòu)被美國和歐洲用于手寫的郵政編碼識(shí)別。郵政服務(wù)。Yann LeCun進(jìn)一步研究了這個(gè)項(xiàng)目,最終在1998年發(fā)布了LeNet-5——第一個(gè)引入了我們今天在CNN仍然使用的一些基本概念的現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)。他還發(fā)布了MNIST手寫數(shù)字?jǐn)?shù)據(jù)集,這可能是機(jī)器學(xué)習(xí)中最著名的基準(zhǔn)數(shù)據(jù)集。在20世紀(jì)90年代,計(jì)算機(jī)視覺領(lǐng)域轉(zhuǎn)移了它的焦點(diǎn),許多研究人員停止了對(duì)CNN架構(gòu)的研究。神經(jīng)網(wǎng)絡(luò)的研究經(jīng)歷了一個(gè)寒冷的冬天,直到2012年,多倫多大學(xué)的一組研究人員在著名的ImageNet挑戰(zhàn)賽中進(jìn)入了一個(gè)基于CNN的模型(AlexNet),最終以16.4%的錯(cuò)誤率贏得了比賽。此后,卷積神經(jīng)網(wǎng)絡(luò)不斷向前發(fā)展,基于CNN的體系結(jié)構(gòu)不斷贏得ImageNet, 2015年,基于卷積神經(jīng)網(wǎng)絡(luò)的體系結(jié)構(gòu)ResNet的誤差率超過人類水平的5.1%,誤差率為3.57%。

卷積的誤稱

在CNN中廣泛使用的卷積運(yùn)算是用詞不當(dāng)?shù)?。?yán)格地說,所使用的操作是相關(guān),而不是卷積。這兩個(gè)操作符都有一點(diǎn)不同,我們將分別討論它們,以理解它們之間的區(qū)別。

互相關(guān)

相關(guān)是在圖像上移動(dòng)濾波掩碼(通常稱為核)并計(jì)算每個(gè)位置的乘積和的過程。相關(guān)是濾波器位移的函數(shù)。換句話說,相關(guān)的第一個(gè)值對(duì)應(yīng)濾波器的零位移,第二個(gè)值對(duì)應(yīng)一個(gè)位移,以此類推。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

數(shù)學(xué)公式:

圖3給出了使用F濾波器與圖像I的一維互相關(guān)運(yùn)算的數(shù)學(xué)公式。假設(shè)F具有奇數(shù)個(gè)元素會(huì)很方便,因此我們可以假設(shè)F隨其中心移動(dòng)。我們說F有2N+1的元素,這些索引從-N到N,F(0)是中心元素。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

類似地,我們可以將這個(gè)概念擴(kuò)展到下圖所示的2d情況。基本思想是一樣的,除了圖像和濾波器現(xiàn)在是2D。我們可以假設(shè)我們的濾波器有奇數(shù)個(gè)元素,所以它由一個(gè)(2N+1)x(2N+1)矩陣表示。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

二維的相關(guān)運(yùn)算非常簡(jiǎn)單。我們只是取一個(gè)給定大小的濾波器,然后把它放在與濾波器大小相同的圖像的一個(gè)局部區(qū)域上。我們繼續(xù)這個(gè)操作,在整個(gè)圖像中移動(dòng)相同的濾波器。這也幫助我們實(shí)現(xiàn)了兩個(gè)非常受歡迎的屬性:

平移不變性:我們的視覺系統(tǒng)應(yīng)該感知、響應(yīng)或檢測(cè)相同的物體,而不管它出現(xiàn)在圖像的什么地方。

局部性:我們的視覺系統(tǒng)聚焦于局部區(qū)域,而不考慮圖像的其他部分發(fā)生了什么。

互相關(guān)函數(shù)具有一個(gè)特性,當(dāng)它應(yīng)用于離散的單位脈沖(一個(gè)二維矩陣,其中只有一個(gè)1,其他都是0)時(shí),得到的結(jié)果是濾波器的副本,但旋轉(zhuǎn)了180度。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積:

卷積運(yùn)算與互相關(guān)運(yùn)算非常相似,但有細(xì)微的區(qū)別。在卷積運(yùn)算中,首先將核翻轉(zhuǎn)180度,然后應(yīng)用于圖像。卷積的基本性質(zhì)是將一個(gè)核與一個(gè)離散的單位脈沖進(jìn)行卷積,在脈沖的位置上得到一個(gè)核的拷貝。

我們?cè)诨ハ嚓P(guān)部分看到,一個(gè)互相關(guān)操作產(chǎn)生一個(gè)脈沖的拷貝,但是旋轉(zhuǎn)了180度。因此,如果我們預(yù)先旋轉(zhuǎn)濾波器并執(zhí)行相同的乘積滑動(dòng)和運(yùn)算,我們應(yīng)該能夠得到期望的結(jié)果。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

數(shù)學(xué)公式:利用核函數(shù)F對(duì)圖像I進(jìn)行的卷積運(yùn)算由一維的公式給出。卷積就像相關(guān)一樣,只是我們?cè)诨ハ嚓P(guān)之前先把濾波器翻轉(zhuǎn)一下

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

在二維卷積的情況下,我們水平和垂直翻轉(zhuǎn)濾波器。這可以寫成:

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積運(yùn)算同樣遵循平移不變性和局部性的性質(zhì)。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

注意:盡管這兩個(gè)操作稍有不同,但是所使用的核是否對(duì)稱并不重要。

結(jié)論:

在這篇文章中,我們簡(jiǎn)要討論了卷積神經(jīng)網(wǎng)絡(luò)的歷史和一些特性。我們討論了卷積這個(gè)錯(cuò)誤的說法,即在各種文本中經(jīng)常提到的卷積運(yùn)算其實(shí)是互相關(guān)運(yùn)算。這種差別很細(xì)微,但卻很有用,每個(gè)進(jìn)入、練習(xí)或經(jīng)驗(yàn)豐富的計(jì)算機(jī)視覺領(lǐng)域的人都應(yīng)該知道。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因?yàn)閳D像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?1815次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問題。當(dāng)x&gt;0 時(shí),梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSISI庫的使用

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個(gè)模型非常巨大。所以要想實(shí)現(xiàn)輕量級(jí)的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN神經(jīng)網(wǎng)絡(luò)是通過權(quán)值共享的方式,利用
    發(fā)表于 10-28 08:02

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。一旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)測(cè)。要使用生成的模型進(jìn)行推理,可以按照以下步驟進(jìn)行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對(duì)第一層卷積+池化的部署進(jìn)行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對(duì)于權(quán)重
    發(fā)表于 10-20 08:00

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    MAX78000采用超低功耗卷積神經(jīng)網(wǎng)絡(luò)加速度計(jì)的人工智能微控制器技術(shù)手冊(cè)

    的Maxim超低功耗微控制器相結(jié)合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時(shí)功耗僅為微焦耳級(jí)。
    的頭像 發(fā)表于 05-08 11:42 ?707次閱讀
    MAX78000采用超低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速度計(jì)的人工智能微控制器技術(shù)手冊(cè)

    MAX78002帶有低功耗卷積神經(jīng)網(wǎng)絡(luò)加速器的人工智能微控制器技術(shù)手冊(cè)

    的Maxim超低功耗微控制器相結(jié)合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時(shí)功耗僅為微焦耳級(jí)。
    的頭像 發(fā)表于 05-08 10:16 ?588次閱讀
    MAX78002帶有低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速器的人工智能微控制器技術(shù)手冊(cè)

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個(gè)方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得CNN在圖像
    的頭像 發(fā)表于 04-07 09:15 ?630次閱讀
    自動(dòng)駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析

    如何使用MATLAB實(shí)現(xiàn)一維時(shí)間卷積網(wǎng)絡(luò)

    本文對(duì)一維卷積操作進(jìn)行介紹,包括一維擴(kuò)展卷積和一維因果卷積,以及 MATLAB 對(duì)一維卷積的支持情況。在最后通過一個(gè)實(shí)例演示如何在 MATLAB 中將一維
    的頭像 發(fā)表于 03-07 09:15 ?1648次閱讀
    如何使用MATLAB實(shí)現(xiàn)一維時(shí)間<b class='flag-5'>卷積</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?1284次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?2224次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法