chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:人工智能遇見磐創(chuàng) ? 2020-05-05 08:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),是自動駕駛汽車、人臉識別系統(tǒng)等計算機視覺應(yīng)用的基礎(chǔ),其中基本的矩陣乘法運算被卷積運算取代。它們專門處理具有網(wǎng)格狀拓?fù)浣Y(jié)構(gòu)的數(shù)據(jù)。例如,時間序列數(shù)據(jù)和圖像數(shù)據(jù)可以看作是一個二維像素網(wǎng)格。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

歷史

卷積神經(jīng)網(wǎng)絡(luò)最初是由福島核電站在1980年引入的,當(dāng)時名為Neocognitron。它的靈感來自于Hubel和Weisel提出的神經(jīng)系統(tǒng)的層次模型。但由于其復(fù)雜的無監(jiān)督學(xué)習(xí)算法,即無監(jiān)督學(xué)習(xí),該模型并不受歡迎。1989年,Yann LeCun利用反向傳播和Neocognitron的概念提出了一種名為LeNet的架構(gòu),該架構(gòu)被美國和歐洲用于手寫的郵政編碼識別。郵政服務(wù)。Yann LeCun進一步研究了這個項目,最終在1998年發(fā)布了LeNet-5——第一個引入了我們今天在CNN仍然使用的一些基本概念的現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)。他還發(fā)布了MNIST手寫數(shù)字?jǐn)?shù)據(jù)集,這可能是機器學(xué)習(xí)中最著名的基準(zhǔn)數(shù)據(jù)集。在20世紀(jì)90年代,計算機視覺領(lǐng)域轉(zhuǎn)移了它的焦點,許多研究人員停止了對CNN架構(gòu)的研究。神經(jīng)網(wǎng)絡(luò)的研究經(jīng)歷了一個寒冷的冬天,直到2012年,多倫多大學(xué)的一組研究人員在著名的ImageNet挑戰(zhàn)賽中進入了一個基于CNN的模型(AlexNet),最終以16.4%的錯誤率贏得了比賽。此后,卷積神經(jīng)網(wǎng)絡(luò)不斷向前發(fā)展,基于CNN的體系結(jié)構(gòu)不斷贏得ImageNet, 2015年,基于卷積神經(jīng)網(wǎng)絡(luò)的體系結(jié)構(gòu)ResNet的誤差率超過人類水平的5.1%,誤差率為3.57%。

卷積的誤稱

在CNN中廣泛使用的卷積運算是用詞不當(dāng)?shù)?。?yán)格地說,所使用的操作是相關(guān),而不是卷積。這兩個操作符都有一點不同,我們將分別討論它們,以理解它們之間的區(qū)別。

互相關(guān)

相關(guān)是在圖像上移動濾波掩碼(通常稱為核)并計算每個位置的乘積和的過程。相關(guān)是濾波器位移的函數(shù)。換句話說,相關(guān)的第一個值對應(yīng)濾波器的零位移,第二個值對應(yīng)一個位移,以此類推。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

數(shù)學(xué)公式:

圖3給出了使用F濾波器與圖像I的一維互相關(guān)運算的數(shù)學(xué)公式。假設(shè)F具有奇數(shù)個元素會很方便,因此我們可以假設(shè)F隨其中心移動。我們說F有2N+1的元素,這些索引從-N到N,F(0)是中心元素。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

類似地,我們可以將這個概念擴展到下圖所示的2d情況?;舅枷胧且粯拥?,除了圖像和濾波器現(xiàn)在是2D。我們可以假設(shè)我們的濾波器有奇數(shù)個元素,所以它由一個(2N+1)x(2N+1)矩陣表示。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

二維的相關(guān)運算非常簡單。我們只是取一個給定大小的濾波器,然后把它放在與濾波器大小相同的圖像的一個局部區(qū)域上。我們繼續(xù)這個操作,在整個圖像中移動相同的濾波器。這也幫助我們實現(xiàn)了兩個非常受歡迎的屬性:

平移不變性:我們的視覺系統(tǒng)應(yīng)該感知、響應(yīng)或檢測相同的物體,而不管它出現(xiàn)在圖像的什么地方。

局部性:我們的視覺系統(tǒng)聚焦于局部區(qū)域,而不考慮圖像的其他部分發(fā)生了什么。

互相關(guān)函數(shù)具有一個特性,當(dāng)它應(yīng)用于離散的單位脈沖(一個二維矩陣,其中只有一個1,其他都是0)時,得到的結(jié)果是濾波器的副本,但旋轉(zhuǎn)了180度。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積:

卷積運算與互相關(guān)運算非常相似,但有細(xì)微的區(qū)別。在卷積運算中,首先將核翻轉(zhuǎn)180度,然后應(yīng)用于圖像。卷積的基本性質(zhì)是將一個核與一個離散的單位脈沖進行卷積,在脈沖的位置上得到一個核的拷貝。

我們在互相關(guān)部分看到,一個互相關(guān)操作產(chǎn)生一個脈沖的拷貝,但是旋轉(zhuǎn)了180度。因此,如果我們預(yù)先旋轉(zhuǎn)濾波器并執(zhí)行相同的乘積滑動和運算,我們應(yīng)該能夠得到期望的結(jié)果。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

數(shù)學(xué)公式:利用核函數(shù)F對圖像I進行的卷積運算由一維的公式給出。卷積就像相關(guān)一樣,只是我們在互相關(guān)之前先把濾波器翻轉(zhuǎn)一下

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

在二維卷積的情況下,我們水平和垂直翻轉(zhuǎn)濾波器。這可以寫成:

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

卷積運算同樣遵循平移不變性和局部性的性質(zhì)。

卷積神經(jīng)網(wǎng)絡(luò)的卷積到底是什么

注意:盡管這兩個操作稍有不同,但是所使用的核是否對稱并不重要。

結(jié)論:

在這篇文章中,我們簡要討論了卷積神經(jīng)網(wǎng)絡(luò)的歷史和一些特性。我們討論了卷積這個錯誤的說法,即在各種文本中經(jīng)常提到的卷積運算其實是互相關(guān)運算。這種差別很細(xì)微,但卻很有用,每個進入、練習(xí)或經(jīng)驗豐富的計算機視覺領(lǐng)域的人都應(yīng)該知道。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    自動駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得CNN在圖像
    的頭像 發(fā)表于 04-07 09:15 ?364次閱讀
    自動駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點分析

    如何使用MATLAB實現(xiàn)一維時間卷積網(wǎng)絡(luò)

    本文對一維卷積操作進行介紹,包括一維擴展卷積和一維因果卷積,以及 MATLAB 對一維卷積的支持情況。在最后通過一個實例演示如何在 MATLAB 中將一維
    的頭像 發(fā)表于 03-07 09:15 ?1086次閱讀
    如何使用MATLAB實現(xiàn)一維時間<b class='flag-5'>卷積</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?673次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運而生,為研究人員和開發(fā)者提供了強大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?672次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個復(fù)雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù)
    的頭像 發(fā)表于 11-15 15:10 ?1214次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進行圖像分類是一個涉及多個步驟的過程。 1. 問題定義 確定目標(biāo) :明確你想要分類的圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及數(shù)據(jù)的類型
    的頭像 發(fā)表于 11-15 15:01 ?850次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強大的模型,在圖像識別和語音處理等領(lǐng)域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?807次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1879次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個領(lǐng)域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?847次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks
    的頭像 發(fā)表于 11-15 14:47 ?1785次閱讀

    基于差分卷積神經(jīng)網(wǎng)絡(luò)的低照度車牌圖像增強網(wǎng)絡(luò)

    車牌識別作為現(xiàn)代化智能交通系統(tǒng)中重要的環(huán)節(jié),對提升路網(wǎng)效率以及緩解城市交通壓力等問題具有重要的社會意義,然而弱光照車牌圖像識別仍然具有重大的挑戰(zhàn)。構(gòu)建了一個基于差分卷積神經(jīng)網(wǎng)絡(luò)的弱光照車牌圖像增強
    的頭像 發(fā)表于 11-11 10:29 ?798次閱讀
    基于差分<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的低照度車牌圖像增強<b class='flag-5'>網(wǎng)絡(luò)</b>

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    可以不局限于已知的訓(xùn)練圖像開展識別。該神經(jīng)網(wǎng)絡(luò)需要映射到MCU中。 5、AI的模式識別內(nèi)部到底是什么? AI的神經(jīng)元網(wǎng)絡(luò)類似于人腦的生物神經(jīng)元網(wǎng)絡(luò)。一個
    發(fā)表于 10-24 13:56

    【飛凌嵌入式OK3576-C開發(fā)板體驗】RKNN神經(jīng)網(wǎng)絡(luò)-車牌識別

    LPRNet基于深層神經(jīng)網(wǎng)絡(luò)設(shè)計,通過輕量級的卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)車牌識別。它采用端到端的訓(xùn)練方式,不依賴字符分割,能夠直接處理整張車牌圖像,并輸出最終的字符序列。這種設(shè)計提高了識別的實時性和準(zhǔn)確性
    發(fā)表于 10-10 16:40

    SD NAND芯片的測評與使用 基于卷積神經(jīng)網(wǎng)絡(luò)的數(shù)字識別

    目錄 前言: 簡介: 對照: 測試: 使用: 照片存儲: 基于卷積神經(jīng)網(wǎng)絡(luò)的數(shù)字識別: ———————————————— 前言: 感謝深圳雷龍公司寄送的樣品,其中包括兩張2代的4gbit
    的頭像 發(fā)表于 07-24 18:08 ?1800次閱讀