曰本美女∴一区二区特级A级黄色大片, 国产亚洲精品美女久久久久久2025, 页岩实心砖-高密市宏伟建材有限公司, 午夜小视频在线观看欧美日韩手机在线,国产人妻奶水一区二区,国产玉足,妺妺窝人体色WWW网站孕妇,色综合天天综合网中文伊,成人在线麻豆网观看

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

新機(jī)器視覺 ? 來源:稀土掘金 ? 2023-02-23 09:14 ? 次閱讀

01 什么是神經(jīng)網(wǎng)絡(luò)?

在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識(shí)。就目前而言,神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法的核心,我們所熟知的很多深度學(xué)習(xí)算法的背后其實(shí)都是神經(jīng)網(wǎng)絡(luò)。

神經(jīng)網(wǎng)絡(luò)由節(jié)點(diǎn)層組成,通常包含一個(gè)輸入層、一個(gè)或多個(gè)隱藏層和一個(gè)輸出層,我們所說的幾層神經(jīng)網(wǎng)絡(luò)通常指的是隱藏層的個(gè)數(shù),因?yàn)檩斎雽雍洼敵鰧油ǔJ枪潭ǖ?。?jié)點(diǎn)之間相互連接并具有相關(guān)的權(quán)重和閾值。

如果節(jié)點(diǎn)的輸出高于指定的閾值,則激活該節(jié)點(diǎn)并將數(shù)據(jù)發(fā)送到網(wǎng)絡(luò)的下一層。否則,沒有數(shù)據(jù)被傳遞到網(wǎng)絡(luò)的下一層。關(guān)于節(jié)點(diǎn)激活的過程有沒有覺得非常相似?沒錯(cuò),這其實(shí)就是生物的神經(jīng)元產(chǎn)生神經(jīng)沖動(dòng)的過程的模擬

8af6068e-b30b-11ed-bfe3-dac502259ad0.jpg

神經(jīng)網(wǎng)絡(luò)類型多樣,適用于不同的應(yīng)用場景。例如,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)通常用于自然語言處理和語音識(shí)別,而卷積神經(jīng)網(wǎng)絡(luò)(ConvNets或CNN)則常用于分類和計(jì)算機(jī)視覺任務(wù)。

在CNN產(chǎn)生之前,識(shí)別圖像中的對(duì)象需要手動(dòng)的特征提取方法?,F(xiàn)在,卷積神經(jīng)網(wǎng)絡(luò)為圖像分類和對(duì)象識(shí)別任務(wù)提供了一種更具可擴(kuò)展性的方法,它利用線性代數(shù)的原理,特別是矩陣乘法,來識(shí)別圖像中的模式。

但是,CNN的計(jì)算要求很高,通常需要圖形處理單元 (GPU) 來訓(xùn)練模型,否則訓(xùn)練速度很慢。

02

什么是卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)是一種基于卷積計(jì)算的前饋神經(jīng)網(wǎng)絡(luò)。與普通的神經(jīng)網(wǎng)絡(luò)相比,它具有局部連接、權(quán)值共享等優(yōu)點(diǎn),使其學(xué)習(xí)的參數(shù)量大幅降低,且網(wǎng)絡(luò)的收斂速度也更快。

同時(shí),卷積運(yùn)算能更好地提取圖像的特征。卷積神經(jīng)網(wǎng)絡(luò)的基本組件有卷積層、池化層和全連接層。卷積層是卷積網(wǎng)絡(luò)的第一層,其后可以跟著其他卷積層或池化層,最后一層是全連接層。越往后的層識(shí)別圖像越大的部分,較早的層專注于簡單的特征,例如顏色和邊緣。

隨著圖像數(shù)據(jù)在CNN的各層中前進(jìn),它開始識(shí)別物體的較大元素或形狀,直到最終識(shí)別出預(yù)期的物體。

8b7ca9f0-b30b-11ed-bfe3-dac502259ad0.jpg

下面將簡單介紹這幾種基本組件的相關(guān)原理和作用。

卷積層

卷積層是CNN的核心組件,其作用是提取樣本的特征。它由三個(gè)部分組成,即輸入數(shù)據(jù)、過濾器和特征圖。在計(jì)算機(jī)內(nèi)部,圖像以像素矩陣的形式存儲(chǔ)。若輸入數(shù)據(jù)是一個(gè)RGB圖像,則由 3D 像素矩陣組成,這意味著輸入將具有三個(gè)維度——高度、寬度和深度。

過濾器,也叫卷積核、特征檢測器,其本質(zhì)是一個(gè)二維(2-D)權(quán)重矩陣,它將在圖像的感受野中移動(dòng),檢查特征是否存在。

卷積核的大小不一,但通常是一個(gè) 3x3 的矩陣,這也決定了感受野的大小。不同卷積核提取的圖像特征也不同。

從輸入圖像的像素矩陣的左上角開始,卷積核的權(quán)重矩陣與像素矩陣的對(duì)應(yīng)區(qū)域進(jìn)行點(diǎn)積運(yùn)算,然后移動(dòng)卷積核,重復(fù)該過程,直到卷積核掃過整個(gè)圖像。這個(gè)過程就叫做卷積。卷積運(yùn)算的最終輸出就稱為特征圖、激活圖或卷積特征。

8bda0eec-b30b-11ed-bfe3-dac502259ad0.jpg

如上圖所示,特征圖中的每個(gè)輸出值不必連接到輸入圖像中的每個(gè)像素值,它只需要連接到應(yīng)用過濾器的感受野。由于輸出數(shù)組不需要直接映射到每個(gè)輸入值,卷積層(以及池化層)通常被稱為“部分連接”層。

這種特性也被描述為局部連接。當(dāng)卷積核在圖像上移動(dòng)時(shí),其權(quán)重是保持不變的,這被稱為權(quán)值共享。一些參數(shù),如權(quán)重值,是在訓(xùn)練過程中通過反向傳播和梯度下降的過程進(jìn)行調(diào)整的。在開始訓(xùn)練神經(jīng)網(wǎng)絡(luò)之前,需要設(shè)置三個(gè)影響輸出體積大小的超參數(shù):

過濾器的數(shù)量:影響輸出的深度。例如,三個(gè)不同的過濾器將產(chǎn)生三個(gè)不同的特征圖,從而產(chǎn)生三個(gè)深度。

步長(Stride):卷積核在輸入矩陣上移動(dòng)的距離或像素?cái)?shù)。雖然大于等于 2 的步長很少見,但較大的步長會(huì)產(chǎn)生較小的輸出。

零填充(Zero-padding):通常在當(dāng)過濾器不適合輸入圖像時(shí)使用。這會(huì)將輸入矩陣之外的所有元素設(shè)置為零,從而產(chǎn)生更大或相同大小的輸出。有三種類型的填充:

Valid padding:這也稱為無填充。在這種情況下,如果維度不對(duì)齊,則丟棄最后一個(gè)卷積。

Same padding:此填充確保輸出層與輸入層具有相同的大小。

Full padding:這種類型的填充通過在輸入的邊界添加零來增加輸出的大小。

在每次卷積操作之后,CNN的特征圖經(jīng)過激活函數(shù)(Sigmoid、ReLU、Leaky ReLU等)的變換,從而對(duì)輸出做非線性的映射,以提升網(wǎng)絡(luò)的表達(dá)能力。

8c118c8c-b30b-11ed-bfe3-dac502259ad0.jpg

當(dāng)CNN 有多個(gè)卷積層時(shí),后面的層可以看到前面層的感受野內(nèi)的像素。例如,假設(shè)我們正在嘗試確定圖像是否包含自行車。

我們可以把自行車視為零件的總和,即由車架、車把、車輪、踏板等組成。自行車的每個(gè)單獨(dú)部分在神經(jīng)網(wǎng)絡(luò)中構(gòu)成了一個(gè)較低級(jí)別的模式,各部分的組合則代表了一個(gè)更高級(jí)別的模式,這就在 CNN 中創(chuàng)建了一個(gè)特征層次結(jié)構(gòu)。

8c581f58-b30b-11ed-bfe3-dac502259ad0.jpg

池化層

為了減少特征圖的參數(shù)量,提高計(jì)算速度,增大感受野,我們通常在卷積層之后加入池化層(也稱降采樣層)。池化能提高模型的容錯(cuò)能力,因?yàn)樗茉诓粨p失重要信息的前提下進(jìn)行特征降維。

這種降維的過程一方面使得模型更加關(guān)注全局特征而非局部特征,另一方面具有一定的防止過擬合的作用。池化的具體實(shí)現(xiàn)是將感受域中的值經(jīng)過聚合函數(shù)后得到的結(jié)果作為輸出。池化有兩種主要的類型:

最大池化(Max pooling):當(dāng)過濾器在輸入中移動(dòng)時(shí),它會(huì)選擇具有最大值的像素發(fā)送到輸出數(shù)組。與平均池化相比,這種方法的使用頻率更高。

平均池化(Average pooling):當(dāng)過濾器在輸入中移動(dòng)時(shí),它會(huì)計(jì)算感受域內(nèi)的平均值以發(fā)送到輸出數(shù)組。

8cc3a0ac-b30b-11ed-bfe3-dac502259ad0.jpg

全連接層

全連接層通常位于網(wǎng)絡(luò)的末端,其結(jié)構(gòu)正如其名。如前所述,輸入圖像的像素值在部分連接層中并不直接連接到輸出層。但是,在全連接層中,輸出層中的每個(gè)節(jié)點(diǎn)都直接連接到前一層中的節(jié)點(diǎn),特征圖在這里被展開成一維向量。

該層根據(jù)通過前幾層提取的特征及其不同的過濾器執(zhí)行分類任務(wù)。雖然卷積層和池化層傾向于使用ReLu函數(shù),但 FC 層通常用Softmax激活函數(shù)對(duì)輸入進(jìn)行適當(dāng)分類,產(chǎn)生[0, 1]之間的概率值。自定義卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行手寫數(shù)字識(shí)別

導(dǎo)包

import time
import numpy as np
import torch
import torch.nn.functional as F
from torchvision import datasets
from torchvision import transforms
from torch.utils.data import DataLoader


if torch.cuda.is_available():
    torch.backends.cudnn.deterministic = True

設(shè)置參數(shù) & 加載數(shù)據(jù)集

##########################
### SETTINGS
##########################


# Device
device = torch.device("cuda:3" if torch.cuda.is_available() else "cpu")


# Hyperparameters
random_seed = 1
learning_rate = 0.05
num_epochs = 10
batch_size = 128


# Architecture
num_classes = 10


##########################
### MNIST DATASET
##########################


# Note transforms.ToTensor() scales input images
# to 0-1 range
train_dataset = datasets.MNIST(root='data', 
                               train=True, 
                               transform=transforms.ToTensor(),
                               download=True)


test_dataset = datasets.MNIST(root='data', 
                              train=False, 
                              transform=transforms.ToTensor())




train_loader = DataLoader(dataset=train_dataset, 
                          batch_size=batch_size, 
                          shuffle=True)


test_loader = DataLoader(dataset=test_dataset, 
                         batch_size=batch_size, 
                         shuffle=False)


# Checking the dataset
for images, labels in train_loader:  
    print('Image batch dimensions:', images.shape)
    print('Image label dimensions:', labels.shape)
    break

模型定義

##########################
### MODEL
##########################


class ConvNet(torch.nn.Module):


    def __init__(self, num_classes):
        super(ConvNet, self).__init__()
        
        # calculate same padding:
        # (w - k + 2*p)/s + 1 = o
        # => p = (s(o-1) - w + k)/2
        
        # 28x28x1 => 28x28x8
        self.conv_1 = torch.nn.Conv2d(in_channels=1,
                                      out_channels=8,
                                      kernel_size=(3, 3),
                                      stride=(1, 1),
                                      padding=1) # (1(28-1) - 28 + 3) / 2 = 1
        # 28x28x8 => 14x14x8
        self.pool_1 = torch.nn.MaxPool2d(kernel_size=(2, 2),
                                         stride=(2, 2),
                                         padding=0) # (2(14-1) - 28 + 2) = 0
        # 14x14x8 => 14x14x16
        self.conv_2 = torch.nn.Conv2d(in_channels=8,
                                      out_channels=16,
                                      kernel_size=(3, 3),
                                      stride=(1, 1),
                                      padding=1) # (1(14-1) - 14 + 3) / 2 = 1                 
        # 14x14x16 => 7x7x16                             
        self.pool_2 = torch.nn.MaxPool2d(kernel_size=(2, 2),
                                         stride=(2, 2),
                                         padding=0) # (2(7-1) - 14 + 2) = 0


        self.linear_1 = torch.nn.Linear(7*7*16, num_classes)


        for m in self.modules():
            if isinstance(m, torch.nn.Conv2d) or isinstance(m, torch.nn.Linear):
                m.weight.data.normal_(0.0, 0.01)
                m.bias.data.zero_()
                if m.bias is not None:
                    m.bias.detach().zero_()
        
        
    def forward(self, x):
        out = self.conv_1(x)
        out = F.relu(out)
        out = self.pool_1(out)


        out = self.conv_2(out)
        out = F.relu(out)
        out = self.pool_2(out)
        
        logits = self.linear_1(out.view(-1, 7*7*16))
        probas = F.softmax(logits, dim=1)
        return logits, probas


    
torch.manual_seed(random_seed)
model = ConvNet(num_classes=num_classes)


model = model.to(device)


optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

模型訓(xùn)練

def compute_accuracy(model, data_loader):
    correct_pred, num_examples = 0, 0
    for features, targets in data_loader:
        features = features.to(device)
        targets = targets.to(device)
        logits, probas = model(features)
        _, predicted_labels = torch.max(probas, 1)
        num_examples += targets.size(0)
        correct_pred += (predicted_labels == targets).sum()
    return correct_pred.float()/num_examples * 100
    


start_time = time.time()    
for epoch in range(num_epochs):
    model = model.train()
    for batch_idx, (features, targets) in enumerate(train_loader):
        
        features = features.to(device)
        targets = targets.to(device)


        ### FORWARD AND BACK PROP
        logits, probas = model(features)
        cost = F.cross_entropy(logits, targets)
        optimizer.zero_grad()
        
        cost.backward()
        
        ### UPDATE MODEL PARAMETERS
        optimizer.step()
        
        ### LOGGING
        if not batch_idx % 50:
            print ('Epoch: %03d/%03d | Batch %03d/%03d | Cost: %.4f' 
                   %(epoch+1, num_epochs, batch_idx, 
                     len(train_loader), cost))
    
    model = model.eval()
    print('Epoch: %03d/%03d training accuracy: %.2f%%' % (
          epoch+1, num_epochs, 
          compute_accuracy(model, train_loader)))


    print('Time elapsed: %.2f min' % ((time.time() - start_time)/60))
    
print('Total Training Time: %.2f min' % ((time.time() - start_time)/60))


模型評(píng)估

with torch.set_grad_enabled(False): # save memory during inference
    print('Test accuracy: %.2f%%' % (compute_accuracy(model, test_loader)))


輸出如下

Test accuracy: 97.97%






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    803

    瀏覽量

    59495
  • 過濾器
    +關(guān)注

    關(guān)注

    1

    文章

    436

    瀏覽量

    20118
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    369

    瀏覽量

    12148
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    7043

原文標(biāo)題:看完這篇我就不信還有人不懂卷積神經(jīng)網(wǎng)絡(luò)!

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    什么是卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)對(duì)人工智能和機(jī)器學(xué)習(xí)的意義

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來越多地支持以前無法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了卷積神經(jīng)網(wǎng)絡(luò)(CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從復(fù)雜數(shù)據(jù)中提取特征的強(qiáng)大工具,例如識(shí)別音頻信號(hào)或圖像信號(hào)中的復(fù)雜模式就是其應(yīng)用之一。
    發(fā)表于 09-05 10:23 ?1955次閱讀

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    處理技術(shù)也可以通過深度學(xué)習(xí)來獲得更優(yōu)異的效果,比如去噪、超分辨率和跟蹤算法等。為了跟上時(shí)代的步伐,必須對(duì)深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)技術(shù)有所學(xué)習(xí)和研究。本文將介紹深度學(xué)習(xí)技術(shù)、神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 01-11 10:51 ?2603次閱讀
    詳解深度學(xué)習(xí)、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    全連接神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
    發(fā)表于 06-06 14:21

    循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)注意力文本生成變換器編碼器序列表征

    序列表征循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)注意力文本生成變換器編碼器自注意力解碼器自注意力殘差的重要性圖像生成概率圖像生成結(jié)合注意力和局部性音樂變換器音樂的原始表征音樂的語言模型音樂生成示例音樂中的自相
    的頭像 發(fā)表于 07-19 14:40 ?3435次閱讀
    循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>注意力文本生成變換器編碼器序列表征

    卷積神經(jīng)網(wǎng)絡(luò)原理:卷積神經(jīng)網(wǎng)絡(luò)模型和卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)原理:卷積神經(jīng)網(wǎng)絡(luò)模型和卷積神經(jīng)網(wǎng)絡(luò)算法 卷積
    的頭像 發(fā)表于 08-17 16:30 ?1729次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來處理什么

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來處理什么 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Ne
    的頭像 發(fā)表于 08-21 16:41 ?5331次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法是機(jī)器算法嗎

    卷積神經(jīng)網(wǎng)絡(luò)算法是機(jī)器算法嗎? 卷積神經(jīng)網(wǎng)絡(luò)算法是機(jī)器算法的一種,它通常被用于圖像、語音、文本等數(shù)據(jù)的處理和分類。隨著深度學(xué)習(xí)的興起,卷積
    的頭像 發(fā)表于 08-21 16:49 ?1000次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)是什么?卷積神經(jīng)網(wǎng)絡(luò)的工作原理和應(yīng)用

      卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),主要用于圖像和視頻的識(shí)別、分類和預(yù)測,是計(jì)算機(jī)視覺領(lǐng)域中應(yīng)用最廣泛的深度學(xué)習(xí)算法之一。該
    發(fā)表于 08-21 17:03 ?2661次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建 卷積神經(jīng)網(wǎng)絡(luò)模型是一種深度學(xué)習(xí)算法。它已經(jīng)成為了計(jì)算機(jī)視覺和自然語言處理等各種領(lǐng)域的主流算法,具有很大的應(yīng)用前景。本篇文章將詳細(xì)介紹
    的頭像 發(fā)表于 08-21 17:11 ?1155次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型和常見算法

    卷積神經(jīng)網(wǎng)絡(luò)是一種運(yùn)用卷積和池化等技術(shù)處理圖像、視頻等數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)的工作原理類似
    發(fā)表于 08-22 18:25 ?2220次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋
    的頭像 發(fā)表于 07-02 16:47 ?1054次閱讀

    bp神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:12 ?2242次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1821次閱讀

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?2115次閱讀

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?397次閱讀