chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡的主要兩個特征

汽車玩家 ? 來源:CSDN ? 作者:dulingwen ? 2020-05-04 18:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(CNN)是一種目前計算機視覺領域廣泛使用的深度學習網(wǎng)絡,與傳統(tǒng)的人工神經(jīng)網(wǎng)絡結構不同,它包含有非常特殊的卷積層和降采樣層(有些文章和書籍里又稱之為池化層、匯合層),其中卷積層和前一層采用局部連接和權值共享的方式進行連接,從而大大降低了參數(shù)數(shù)量。降采樣層可以大幅降低輸入維度,從而降低網(wǎng)絡復雜度,使網(wǎng)絡具有更高的魯棒性,同時能夠有效的防止過擬合。由于以上設計,卷積網(wǎng)絡主要用來識別縮放,位移以及其他形式扭曲不變的二維圖形,并且可以直接以原始圖片作為輸入,而無需進行復雜的預處理工作。

卷積神經(jīng)網(wǎng)絡的結構

常見的卷積網(wǎng)絡前面幾層是卷積層和降采樣層交替出現(xiàn)的,然后跟著一定數(shù)量的全連接層。如圖所示,這是著名的LeNet-5卷積神經(jīng)網(wǎng)絡,在上世紀90年代,它被大量應用于手寫數(shù)字的識別。這個網(wǎng)絡一共含有7層(不包含輸入層),輸入是32*32的圖片,C1是卷積層,它含有6個特征圖,每一個的尺寸為28*28,卷積核的尺寸為5*5, S2是一個降采樣層,將輸入由28*28降維成14*14,同樣,C3是一個卷積層,S4為一個降采樣層,后面全部為全連接層。

局部連接與權值共享

卷積層最主要的兩個特征就是局部連接和權值共享,有些地方又叫做稀疏連接和參數(shù)共享,總之都是一個意思。所謂局部連接,就是卷積層的節(jié)點僅僅和其前一層的部分節(jié)點相連接,只用來學習局部特征。局部感知結構的構思理念來源于動物視覺的皮層結構,其指的是動物視覺的神經(jīng)元在感知外界物體的過程中起作用的只有一部分神經(jīng)元。在計算機視覺中,圖像中的某一塊區(qū)域中,像素之間的相關性與像素之間的距離同樣相關,距離較近的像素間相關性強,距離較遠則相關性就比較弱,由此可見局部相關性理論也適用于計算機視覺的圖像處理領域。因此,局部感知采用部分神經(jīng)元接受圖像信息,再通過綜合全部的圖像信息達到增強圖像信息的目的。從下圖中我們可以看到,第n+1層的每個節(jié)點只與第n層的3個節(jié)點相連接,而非與前一層全部5個神經(jīng)元節(jié)點相連,這樣原本需要5*3=15個權值參數(shù),現(xiàn)在只需要3*3=9個權值參數(shù),減少了40%的參數(shù)量,同樣,第n+2層與第n+1層之間也用同樣的連接方式。這種局部連接的方式大幅減少了參數(shù)數(shù)量,加快了學習速率,同時也在一定程度上減少了過擬合的可能。

局部連接

卷積層的另一大特征是權值共享,比如一個3*3的卷積核,共9個參數(shù),它會和輸入圖片的不同區(qū)域作卷積,來檢測相同的特征。而只有不同的卷積核才會對應不同的權值參數(shù),來檢測不同的特征。如下圖所示,通過權值共享的方法,這里一共只有3組不同的權值,如果只用了局部連接的方法,共需要3*4=12個權值參數(shù),而加上了權值共享的方法后,現(xiàn)在僅僅需要3個權值,更進一步地減少參數(shù)數(shù)量。

權值共享

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡的比較

    BP神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡在多個方面存在顯著差異,以下是對者的比較: 一、結構特點 BP神經(jīng)網(wǎng)絡 : BP
    的頭像 發(fā)表于 02-12 15:53 ?1038次閱讀

    BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    自學習能力 : BP神經(jīng)網(wǎng)絡能夠通過訓練數(shù)據(jù)自動調(diào)整網(wǎng)絡參數(shù),實現(xiàn)對輸入數(shù)據(jù)的分類、回歸等任務,無需人工進行復雜的特征工程。 泛化能力強 : BP神經(jīng)網(wǎng)絡通過訓練數(shù)據(jù)學習到的
    的頭像 發(fā)表于 02-12 15:36 ?1274次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關系

    ),是一種多層前饋神經(jīng)網(wǎng)絡,它通過反向傳播算法進行訓練。BP神經(jīng)網(wǎng)絡由輸入層、一或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡權重,目的是最小化
    的頭像 發(fā)表于 02-12 15:15 ?1182次閱讀

    BP神經(jīng)網(wǎng)絡的基本原理

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個核心過程。以下是關于BP神經(jīng)網(wǎng)絡基本原理的介紹: 一、網(wǎng)絡結構 BP
    的頭像 發(fā)表于 02-12 15:13 ?1304次閱讀

    BP神經(jīng)網(wǎng)絡在圖像識別中的應用

    傳播神經(jīng)網(wǎng)絡(Back Propagation Neural Network),是一種多層前饋神經(jīng)網(wǎng)絡,主要通過反向傳播算法進行學習。它通常包括輸入層、一或多個隱藏層和輸出層。BP
    的頭像 發(fā)表于 02-12 15:12 ?988次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡 ? 人工神經(jīng)網(wǎng)絡模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1788次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構方法

    卷積神經(jīng)網(wǎng)絡的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡因其在圖像和視頻處理任務中的卓越性能而廣受歡迎。隨著深度學習技術的快速發(fā)展,多種實現(xiàn)工具和框架應運而生,為研究人員和開發(fā)者提供了強大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?934次閱讀

    卷積神經(jīng)網(wǎng)絡的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡因其在處理具有空間層次結構的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設置。參數(shù)調(diào)整是一復雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡
    的頭像 發(fā)表于 11-15 15:10 ?1644次閱讀

    卷積神經(jīng)網(wǎng)絡在自然語言處理中的應用

    卷積神經(jīng)網(wǎng)絡的基本原理 卷積神經(jīng)網(wǎng)絡是一種前饋神經(jīng)網(wǎng)絡,它通過卷積層來提取輸入數(shù)據(jù)的
    的頭像 發(fā)表于 11-15 14:58 ?1057次閱讀

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    在深度學習領域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡種常
    的頭像 發(fā)表于 11-15 14:53 ?2249次閱讀

    深度學習中的卷積神經(jīng)網(wǎng)絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡作為深度學習的一分支,因其在圖像處理任務中的卓越性能而受到廣泛關注。 卷積
    的頭像 發(fā)表于 11-15 14:52 ?1071次閱讀

    卷積神經(jīng)網(wǎng)絡的基本原理與算法

    ),是深度學習的代表算法之一。 一、基本原理 卷積運算 卷積運算是卷積神經(jīng)網(wǎng)絡的核心,用于提取圖像中的局部特征。 定義
    的頭像 發(fā)表于 11-15 14:47 ?2198次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡的區(qū)別

    神經(jīng)網(wǎng)絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發(fā)展,神經(jīng)網(wǎng)絡的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1799次閱讀

    LSTM神經(jīng)網(wǎng)絡的結構與工作機制

    的結構與工作機制的介紹: 一、LSTM神經(jīng)網(wǎng)絡的結構 LSTM神經(jīng)網(wǎng)絡的結構主要包括以下幾個部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡的核心,負責在整個序列
    的頭像 發(fā)表于 11-13 10:05 ?1985次閱讀

    關于卷積神經(jīng)網(wǎng)絡,這些概念你厘清了么~

    這個小型網(wǎng)絡,用于描述網(wǎng)絡的方程中也具有32偏置和32權重。 CIFAR神經(jīng)網(wǎng)絡是一種廣泛用于圖像識別的CNN。它
    發(fā)表于 10-24 13:56