chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

分享一下卷積神經(jīng)網(wǎng)絡(luò)的代碼實(shí)戰(zhàn)

冬至子 ? 來源:matlab學(xué)習(xí)之家 ? 作者:matlab學(xué)習(xí)之家 ? 2023-06-02 16:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1、相關(guān)理論

CNN 模型為深度學(xué)習(xí)模型,其具有局部連接、權(quán) 值共享和空間相關(guān)等特性,以及強(qiáng)魯棒性和容錯(cuò)能力,適用于提取深層數(shù)據(jù)特征。經(jīng)典的 CNN 模型結(jié)構(gòu)包含輸入層、隱含層、全連接層和輸出層。卷積神經(jīng)網(wǎng)絡(luò)的模型如下圖所示。

圖片

2、數(shù)據(jù)集的準(zhǔn)備

以手寫數(shù)據(jù)集為例,搭建卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類識(shí)別。數(shù)據(jù)集下載地址: ,下面為部分?jǐn)?shù)據(jù)集圖片展示。

圖片

3、數(shù)據(jù)集的讀取與劃分

將下載好的數(shù)據(jù)集保存好,digitDatasetPath 填寫數(shù)據(jù)集的保存路徑即可。每一類隨機(jī)選擇750張圖片作為測(cè)試數(shù)據(jù),其他的作為訓(xùn)練數(shù)據(jù)。

%%數(shù)據(jù)集的讀取
digitDatasetPath = 'D:\\MTALAB2019\\手寫數(shù)據(jù)集\\DigitDataset';
imds = imageDatastore(digitDatasetPath, ...
    'IncludeSubfolders',true,'LabelSource','foldernames');
%%數(shù)據(jù)集的劃分
numTrainFiles = 750;
[imdsTrain,imdsValidation] = splitEachLabel(imds,numTrainFiles,'randomize');

4、卷積神經(jīng)網(wǎng)絡(luò)的搭建

layers = [
    imageInputLayer([28 28 1])  %%輸入層
    %%卷積層
    convolution2dLayer(3,8,'Padding','same')  
    batchNormalizationLayer
    reluLayer
    %%池化層
    maxPooling2dLayer(2,'Stride',2)
    %%卷積層
    convolution2dLayer(3,16,'Padding','same')
    batchNormalizationLayer
    reluLayer
    %%池化層
    maxPooling2dLayer(2,'Stride',2)
    %%卷積層
    convolution2dLayer(3,32,'Padding','same')
    batchNormalizationLayer
    reluLayer
    %全連接層
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer];

網(wǎng)絡(luò)搭建好了,就需要對(duì)網(wǎng)絡(luò)的參數(shù)進(jìn)行設(shè)置,相關(guān)參數(shù)代碼如下:

options = trainingOptions('sgdm', ...
    'InitialLearnRate',0.01, ...
    'MaxEpochs',10, ...
    'Shuffle','every-epoch', ...
    'ValidationData',imdsValidation, ...
    'ValidationFrequency',30, ...
    'Verbose',false, ...
    'Plots','training-progress');

** 5、訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)**

net = trainNetwork(imdsTrain,layers,options);

** 訓(xùn)練結(jié)果如下 **

圖片

6、測(cè)試與運(yùn)行結(jié)果

YPred = classify(net,imdsValidation);
YValidation = imdsValidation.Labels;
accuracy = sum(YPred == YValidation)/numel(YValidation)

accuracy = 0.9868

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    什么是圖卷積神經(jīng)網(wǎng)絡(luò)?

    卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 08-20 12:05

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)是什么

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)
    發(fā)表于 05-05 18:12

    卷積神經(jīng)網(wǎng)絡(luò)卷積的處理過程

    。本文就以卷積神經(jīng)網(wǎng)絡(luò)為例談?wù)勗趺磥磉M(jìn)步優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)使用的memory。文章(
    發(fā)表于 12-23 06:16

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用轉(zhuǎn)載****地址:http://fcst.ceaj.org/CN/abstract/abstract2521.shtml深度學(xué)習(xí)是機(jī)器學(xué)習(xí)和人工智能研究的最新趨勢(shì),作為個(gè)
    發(fā)表于 08-02 10:39

    人工智能之卷積神經(jīng)網(wǎng)絡(luò)

    人工智能機(jī)器學(xué)習(xí)有關(guān)算法內(nèi)容,人工智能之機(jī)器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點(diǎn)探討一下卷積神經(jīng)網(wǎng)絡(luò)(CNN)算法。 前言: 人工智能 機(jī)器學(xué)習(xí)有關(guān)算法內(nèi)容,請(qǐng)參見公眾號(hào)
    的頭像 發(fā)表于 06-18 10:15 ?5438次閱讀

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識(shí)。就目前而言,神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法的核心,我們所熟知的很多深度學(xué)習(xí)算法的背后其實(shí)都
    的頭像 發(fā)表于 02-23 09:14 ?4360次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)python代碼

    卷積神經(jīng)網(wǎng)絡(luò)python代碼 ; 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是
    的頭像 發(fā)表于 08-21 16:41 ?1317次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)發(fā)展 卷積神經(jīng)網(wǎng)絡(luò)三大特點(diǎn)

    中最重要的神經(jīng)網(wǎng)絡(luò)。它是種由多個(gè)卷積層和池化層(也可稱為采樣層)組成的神經(jīng)網(wǎng)絡(luò)。CNN
    的頭像 發(fā)表于 08-21 16:49 ?3139次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)層級(jí)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解

    卷積神經(jīng)網(wǎng)絡(luò)層級(jí)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 08-21 16:49 ?9876次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法 卷積神經(jīng)網(wǎng)絡(luò)涉及的關(guān)鍵技術(shù)
    的頭像 發(fā)表于 08-21 16:49 ?2345次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法是機(jī)器算法嗎

    神經(jīng)網(wǎng)絡(luò)的原理 先介紹一下卷積神經(jīng)網(wǎng)絡(luò)的原理。卷積神經(jīng)網(wǎng)絡(luò)中的核心結(jié)構(gòu)是卷積層。
    的頭像 發(fā)表于 08-21 16:49 ?1121次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法代碼matlab

    卷積神經(jīng)網(wǎng)絡(luò)算法代碼matlab 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是
    的頭像 發(fā)表于 08-21 16:50 ?1530次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建

    份詳實(shí)、細(xì)致的指導(dǎo)。 、什么是卷積神經(jīng)網(wǎng)絡(luò) 在講述如何搭建卷積神經(jīng)網(wǎng)絡(luò)之前,我們需要先了解一下
    的頭像 發(fā)表于 08-21 17:11 ?1289次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 cnn卷積神經(jīng)網(wǎng)絡(luò)代碼

    cnn卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 cnn卷積神經(jīng)網(wǎng)絡(luò)代碼 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 08-21 17:16 ?3309次閱讀