chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:人工智能遇見磐創(chuàng) ? 2020-05-05 08:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),是自動駕駛汽車、人臉識別系統(tǒng)等計算機視覺應(yīng)用的基礎(chǔ),其中基本的矩陣乘法運算被卷積運算取代。它們專門處理具有網(wǎng)格狀拓?fù)浣Y(jié)構(gòu)的數(shù)據(jù)。例如,時間序列數(shù)據(jù)和圖像數(shù)據(jù)可以看作是一個二維像素網(wǎng)格。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

歷史

卷積神經(jīng)網(wǎng)絡(luò)最初是由福島核電站在1980年引入的,當(dāng)時名為Neocognitron。它的靈感來自于Hubel和Weisel提出的神經(jīng)系統(tǒng)的層次模型。但由于其復(fù)雜的無監(jiān)督學(xué)習(xí)算法,即無監(jiān)督學(xué)習(xí),該模型并不受歡迎。1989年,Yann LeCun利用反向傳播和Neocognitron的概念提出了一種名為LeNet的架構(gòu),該架構(gòu)被美國和歐洲用于手寫的郵政編碼識別。郵政服務(wù)。Yann LeCun進一步研究了這個項目,最終在1998年發(fā)布了LeNet-5——第一個引入了我們今天在CNN仍然使用的一些基本概念的現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)。他還發(fā)布了MNIST手寫數(shù)字?jǐn)?shù)據(jù)集,這可能是機器學(xué)習(xí)中最著名的基準(zhǔn)數(shù)據(jù)集。在20世紀(jì)90年代,計算機視覺領(lǐng)域轉(zhuǎn)移了它的焦點,許多研究人員停止了對CNN架構(gòu)的研究。神經(jīng)網(wǎng)絡(luò)的研究經(jīng)歷了一個寒冷的冬天,直到2012年,多倫多大學(xué)的一組研究人員在著名的ImageNet挑戰(zhàn)賽中進入了一個基于CNN的模型(AlexNet),最終以16.4%的錯誤率贏得了比賽。此后,卷積神經(jīng)網(wǎng)絡(luò)不斷向前發(fā)展,基于CNN的體系結(jié)構(gòu)不斷贏得ImageNet, 2015年,基于卷積神經(jīng)網(wǎng)絡(luò)的體系結(jié)構(gòu)ResNet的誤差率超過人類水平的5.1%,誤差率為3.57%。

卷積的誤稱

在CNN中廣泛使用的卷積運算是用詞不當(dāng)?shù)?。?yán)格地說,所使用的操作是相關(guān),而不是卷積。這兩個操作符都有一點不同,我們將分別討論它們,以理解它們之間的區(qū)別。

互相關(guān)

相關(guān)是在圖像上移動濾波掩碼(通常稱為核)并計算每個位置的乘積和的過程。相關(guān)是濾波器位移的函數(shù)。換句話說,相關(guān)的第一個值對應(yīng)濾波器的零位移,第二個值對應(yīng)一個位移,以此類推。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

數(shù)學(xué)公式:

圖3給出了使用F濾波器與圖像I的一維互相關(guān)運算的數(shù)學(xué)公式。假設(shè)F具有奇數(shù)個元素會很方便,因此我們可以假設(shè)F隨其中心移動。我們說F有2N+1的元素,這些索引從-N到N,F(0)是中心元素。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

類似地,我們可以將這個概念擴展到下圖所示的2d情況。基本思想是一樣的,除了圖像和濾波器現(xiàn)在是2D。我們可以假設(shè)我們的濾波器有奇數(shù)個元素,所以它由一個(2N+1)x(2N+1)矩陣表示。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

二維的相關(guān)運算非常簡單。我們只是取一個給定大小的濾波器,然后把它放在與濾波器大小相同的圖像的一個局部區(qū)域上。我們繼續(xù)這個操作,在整個圖像中移動相同的濾波器。這也幫助我們實現(xiàn)了兩個非常受歡迎的屬性:

平移不變性:我們的視覺系統(tǒng)應(yīng)該感知、響應(yīng)或檢測相同的物體,而不管它出現(xiàn)在圖像的什么地方。

局部性:我們的視覺系統(tǒng)聚焦于局部區(qū)域,而不考慮圖像的其他部分發(fā)生了什么。

互相關(guān)函數(shù)具有一個特性,當(dāng)它應(yīng)用于離散的單位脈沖(一個二維矩陣,其中只有一個1,其他都是0)時,得到的結(jié)果是濾波器的副本,但旋轉(zhuǎn)了180度。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積:

卷積運算與互相關(guān)運算非常相似,但有細(xì)微的區(qū)別。在卷積運算中,首先將核翻轉(zhuǎn)180度,然后應(yīng)用于圖像。卷積的基本性質(zhì)是將一個核與一個離散的單位脈沖進行卷積,在脈沖的位置上得到一個核的拷貝。

我們在互相關(guān)部分看到,一個互相關(guān)操作產(chǎn)生一個脈沖的拷貝,但是旋轉(zhuǎn)了180度。因此,如果我們預(yù)先旋轉(zhuǎn)濾波器并執(zhí)行相同的乘積滑動和運算,我們應(yīng)該能夠得到期望的結(jié)果。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

數(shù)學(xué)公式:利用核函數(shù)F對圖像I進行的卷積運算由一維的公式給出。卷積就像相關(guān)一樣,只是我們在互相關(guān)之前先把濾波器翻轉(zhuǎn)一下

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

在二維卷積的情況下,我們水平和垂直翻轉(zhuǎn)濾波器。這可以寫成:

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積運算同樣遵循平移不變性和局部性的性質(zhì)。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

注意:盡管這兩個操作稍有不同,但是所使用的核是否對稱并不重要。

結(jié)論:

在這篇文章中,我們簡要討論了卷積神經(jīng)網(wǎng)絡(luò)的歷史和一些特性。我們討論了卷積這個錯誤的說法,即在各種文本中經(jīng)常提到的卷積運算其實是互相關(guān)運算。這種差別很細(xì)微,但卻很有用,每個進入、練習(xí)或經(jīng)驗豐富的計算機視覺領(lǐng)域的人都應(yīng)該知道。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?1995次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當(dāng)x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSISI庫的使用

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個模型非常巨大。所以要想實現(xiàn)輕量級的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN神經(jīng)網(wǎng)絡(luò)是通過權(quán)值共享的方式,利用
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設(shè)計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓(xùn)練并保存,就可以用于對新圖像進行推理和預(yù)測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對第一層卷積+池化的部署進行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重數(shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對于權(quán)重
    發(fā)表于 10-20 08:00

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    MAX78000采用超低功耗卷積神經(jīng)網(wǎng)絡(luò)加速度計的人工智能微控制器技術(shù)手冊

    的Maxim超低功耗微控制器相結(jié)合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時功耗僅為微焦耳級。
    的頭像 發(fā)表于 05-08 11:42 ?853次閱讀
    MAX78000采用超低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速度計的人工智能微控制器技術(shù)手冊

    MAX78002帶有低功耗卷積神經(jīng)網(wǎng)絡(luò)加速器的人工智能微控制器技術(shù)手冊

    的Maxim超低功耗微控制器相結(jié)合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時功耗僅為微焦耳級。
    的頭像 發(fā)表于 05-08 10:16 ?705次閱讀
    MAX78002帶有低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速器的人工智能微控制器技術(shù)手冊

    自動駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得CNN在圖像
    的頭像 發(fā)表于 04-07 09:15 ?780次閱讀
    自動駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點分析

    如何使用MATLAB實現(xiàn)一維時間卷積網(wǎng)絡(luò)

    本文對一維卷積操作進行介紹,包括一維擴展卷積和一維因果卷積,以及 MATLAB 對一維卷積的支持情況。在最后通過一個實例演示如何在 MATLAB 中將一維
    的頭像 發(fā)表于 03-07 09:15 ?1927次閱讀
    如何使用MATLAB實現(xiàn)一維時間<b class='flag-5'>卷積</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?1543次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?1605次閱讀