chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一篇文章搞定CNN轉(zhuǎn)置卷積

汽車玩家 ? 來源:CSDN ? 作者:lanadeus ? 2020-01-31 17:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在CNN中,轉(zhuǎn)置卷積是一種上采樣(up-sampling)的方法。如果你對轉(zhuǎn)置卷積感到困惑,那么就來讀讀這篇文章吧。

上采樣的需要

在我們使用神經(jīng)網(wǎng)絡(luò)的過程中,我們經(jīng)常需要上采樣(up-sampling)來提高低分辨率圖片的分辨率。

上采樣有諸多方法,舉例如下。
最近鄰插值(Nearest neighbor interpolation)
雙線性插值(Bi-linear interpolation)
雙立方插值(Bi-cubic interpolation)

但是,上述的方法都需要插值操作,而這些插值的操作都充滿了人為設(shè)計和特征工程的氣息,而且也沒有網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)的余地。

為何需要轉(zhuǎn)置卷積

如果我們想要網(wǎng)絡(luò)去學(xué)出一種最優(yōu)的上采樣方法,我們可以使用轉(zhuǎn)置卷積。它與基于插值的方法不同,它有可以學(xué)習(xí)的參數(shù)。

若是想理解轉(zhuǎn)置卷積這個概念,可以看看它是如何運(yùn)用于在一些有名的論文和項目中的。

DCGAN的生成器(generator)接受一些隨機(jī)采樣的值作為輸入來生成出完整的圖片。它的語義分割(semantic segmentation)就使用了卷積層來提取編碼器(encoder)中的特征,接著,它把原圖存儲在解碼器(decoder)中以確定原圖中的每個像素的類別歸屬。

轉(zhuǎn)置卷積也被稱作: “分?jǐn)?shù)步長卷積(Fractionally-strided convolution)”和”反卷積(Deconvolution)”.

我們在這篇文章里面只使用轉(zhuǎn)置卷積這個名字,其他文章可能會用到其他名字. 這些名字指的都是同樣的東西.

卷積操作

我們先通過一個簡單的例子來看看卷積是怎么工作的.

假設(shè)我們有一個4x4的input矩陣, 并對它使用核(kernel)為3x3,沒有填充(padding),步長(stride)為1的卷積操作. 結(jié)果是一個2x2的矩陣,如下圖所示.

(譯者注: stride,kernel,padding等詞以下記為英文)

卷積操作的本質(zhì)其實就是在input矩陣和kernel矩陣之間做逐元素(element-wise)的乘法然后求和. 因為我們的stride為1,不使用padding,所以我們只能在4個位置上進(jìn)行操作.

一篇文章搞定CNN轉(zhuǎn)置卷積

要點(diǎn):卷積操作其實就是input值和output值的位置性關(guān)系(positional connectivity).

例如,在input矩陣的左上角的值會影響output矩陣的左上角的值.

更進(jìn)一步,3x3的核建立了input矩陣中的9個值和output矩陣中的1個值的關(guān)系.

“卷積操作建立了多對一的關(guān)系”. 在閱讀下文時,請讀者務(wù)必時刻牢記這個概念.

卷積的逆向操作

現(xiàn)在,考慮一下我們?nèi)绾螕Q一個計算方向. 也就是說,我們想要建立在一個矩陣中的1個值和另外一個矩陣中的9個值的關(guān)系.這就是像在進(jìn)行卷積的逆向操作,這就是轉(zhuǎn)置卷積的核心思想.

(譯者注:從信息論的角度看,卷積是不可逆的.所以這里說的并不是從output矩陣和kernel矩陣計算出原始的input矩陣.而是計算出一個保持了位置性關(guān)系的矩陣.)

一篇文章搞定CNN轉(zhuǎn)置卷積

但是,我們?nèi)绾芜M(jìn)行這種逆向操作呢?

為了討論這種操作,我們先要定義一下卷積矩陣和卷積矩陣的轉(zhuǎn)置.

卷積矩陣

我們可以將卷積操作寫成一個矩陣. 其實這就是重新排列一下kernel矩陣, 使得我們通過一次矩陣乘法就能計算出卷積操作后的矩陣.

一篇文章搞定CNN轉(zhuǎn)置卷積

我們將3x3的kernel重排為4x16的矩陣,如下:

一篇文章搞定CNN轉(zhuǎn)置卷積

這就是卷積矩陣. 每一行都定義了一次卷積操作. 如果你還看不透這一點(diǎn), 可以看看下面的圖. 卷積矩陣的每一行都相當(dāng)于經(jīng)過了重排的kernel矩陣,只是在不同的位置上有zero padding罷了.

一篇文章搞定CNN轉(zhuǎn)置卷積

為了實現(xiàn)矩陣乘法,我們需要將尺寸為4x4的input矩陣壓扁(flatten)成一個尺寸為16x1的列向量(column vector).

一篇文章搞定CNN轉(zhuǎn)置卷積

然后,我們對4x16的卷積矩陣和1x16的input矩陣(就是16維的列向量,只是看成一個矩陣)進(jìn)行矩陣乘法.

一篇文章搞定CNN轉(zhuǎn)置卷積

尺寸為4x1的output矩陣可以重排為2x2的矩陣.這正和我們之前得到的結(jié)果一致.

一篇文章搞定CNN轉(zhuǎn)置卷積

一句話,一個卷積矩陣其實就是kernel權(quán)重的重排,一個卷積操作可以被寫成一個卷積矩陣.

即便這樣又如何呢?

我想說的是: 使用這個卷積矩陣,你可以把16(4x4的矩陣)個值映射為4(2x2的矩陣)個值. 反過來做這個操作,你就可以把4(2x2的矩陣)個值映射為16(4x4的矩陣)辣.

蒙了?

繼續(xù)讀.

轉(zhuǎn)置過后的卷積矩陣

我們想把4(2x2的矩陣)個值映射為16(4x4的矩陣)個值。但是,還有一件事!我們需要維護(hù)1對9的關(guān)系。

假設(shè)我們轉(zhuǎn)置一下卷積矩陣C(4x16),得到C.T(16x4)。我們可以將C.T(16x4)和一個列向量(4x1)以矩陣乘法相乘,得到尺寸為16x1的output矩陣。轉(zhuǎn)置之后的矩陣建立了1個值對9個值的關(guān)系。

一篇文章搞定CNN轉(zhuǎn)置卷積

output矩陣可以被重排為4x4的.

一篇文章搞定CNN轉(zhuǎn)置卷積

我們已經(jīng)上采樣了一個小矩陣(2x2),得到了一個大矩陣(4x4)。轉(zhuǎn)置卷積依然維護(hù)著1對9的關(guān)系:因為權(quán)重就是這么排的。

注意:用來進(jìn)行轉(zhuǎn)置卷積的權(quán)重矩陣不一定來自于(come from)原卷積矩陣。重點(diǎn)是權(quán)重矩陣的形狀和轉(zhuǎn)置后的卷積矩陣相同。

總結(jié)

轉(zhuǎn)置卷積和普通卷積有相同的本質(zhì):建立了一些值之間的關(guān)系。只不過,轉(zhuǎn)置卷積所建立的這個關(guān)系與普通卷積所建立的關(guān)系,方向相反。

我們可以使用轉(zhuǎn)置卷積來進(jìn)行上采樣。并且,轉(zhuǎn)置卷積中的權(quán)重是可以被學(xué)習(xí)的。因此,我們沒有必要搞什么插值方法來做上采樣。

盡管它被稱作轉(zhuǎn)置卷積,但是這并不意味著我們是拿一個已有的卷積矩陣的轉(zhuǎn)置來作為權(quán)重矩陣的來進(jìn)行轉(zhuǎn)置卷積操作的. 和普通卷積相比,intput和output的關(guān)系被反向處理(轉(zhuǎn)置卷積是1對多,而不是普通的多對1),才是轉(zhuǎn)置卷積的本質(zhì)。

正因如此,嚴(yán)格來說轉(zhuǎn)置卷積其實并不算卷積。但是我們可以把input矩陣中的某些位置填上0并進(jìn)行普通卷積來獲得和轉(zhuǎn)置卷積相同的output矩陣。你可以發(fā)現(xiàn)有一大把文章說明如何使用這種方法實現(xiàn)轉(zhuǎn)置卷積。然而,因為需要在卷積操作之前,往input中填上許多的0,這種方法其實有點(diǎn)效率問題.

警告:轉(zhuǎn)置卷積會在生成的圖像中造成棋盤效應(yīng)(checkerboard artifacts)。本文推薦在使用轉(zhuǎn)置卷積進(jìn)行上采樣操作之后再過一個普通的卷積來減輕此類問題。如果你主要關(guān)心如何生成沒有棋盤效應(yīng)的圖像,需要讀一讀paper。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4827

    瀏覽量

    106797
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23249
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    CNN卷積

    `前言卷積神經(jīng)網(wǎng)絡(luò)在深度學(xué)習(xí)領(lǐng)域是個很重要的概念,是入門深度學(xué)習(xí)必須搞懂的內(nèi)容。CNN圖像識別的關(guān)鍵——卷積當(dāng)我們給定個"X&
    發(fā)表于 10-17 10:15

    卷積神經(jīng)網(wǎng)絡(luò)CNN介紹

    【深度學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)CNN
    發(fā)表于 06-14 18:55

    卷積神經(jīng)網(wǎng)絡(luò)CNN圖解

    之前在網(wǎng)上搜索了好多好多關(guān)于CNN的文章,由于網(wǎng)絡(luò)上的文章很多斷章取義或者描述不清晰,看了很多youtobe上面的教學(xué)視頻還是沒有弄懂,最后經(jīng)過痛苦漫長的煎熬之后對于神經(jīng)網(wǎng)絡(luò)和卷積有了粗淺的了解
    發(fā)表于 11-16 13:18 ?5.9w次閱讀
    <b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>CNN</b>圖解

    卷積神經(jīng)網(wǎng)絡(luò)CNN架構(gòu)分析-LeNet

    對于神經(jīng)網(wǎng)絡(luò)和卷積有了粗淺的了解,關(guān)于CNN 卷積神經(jīng)網(wǎng)絡(luò),需要總結(jié)深入的知識有很多:人工神經(jīng)網(wǎng)絡(luò) ANN卷積神經(jīng)網(wǎng)絡(luò)CNN
    發(fā)表于 11-16 13:28 ?3077次閱讀
    <b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>CNN</b>架構(gòu)分析-LeNet

    卷積神經(jīng)網(wǎng)絡(luò)CNN架構(gòu)分析 - LeNet

    。 于是在這里記錄下所學(xué)到的知識,關(guān)于CNN 卷積神經(jīng)網(wǎng)絡(luò),需要總結(jié)深入的知識有很多: 人工神經(jīng)網(wǎng)絡(luò) ANN 卷積神經(jīng)網(wǎng)絡(luò) CNN 卷積神經(jīng)
    發(fā)表于 10-02 07:41 ?912次閱讀

    深度解析什么是轉(zhuǎn)卷積

    這篇文章對轉(zhuǎn)卷積(反卷積)有著很好的解釋,這里將其翻譯為中文,以饗國人。
    的頭像 發(fā)表于 09-03 09:39 ?6144次閱讀

    深入理解深度學(xué)習(xí)中的反(轉(zhuǎn))卷積

    本文首發(fā)于 GiantPandaCV :深入理解神經(jīng)網(wǎng)絡(luò)中的反(轉(zhuǎn))卷積作者:梁德澎本文主要是把之前在知乎上的回答:反卷積和上采樣+卷積
    發(fā)表于 02-07 11:17 ?0次下載
    深入理解深度學(xué)習(xí)中的反(<b class='flag-5'>轉(zhuǎn)</b><b class='flag-5'>置</b>)<b class='flag-5'>卷積</b>

    PyTorch教程14.10之轉(zhuǎn)卷積

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程14.10之轉(zhuǎn)卷積.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 11:11 ?0次下載
    PyTorch教程14.10之<b class='flag-5'>轉(zhuǎn)</b><b class='flag-5'>置</b><b class='flag-5'>卷積</b>

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,
    的頭像 發(fā)表于 08-21 16:41 ?4218次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)原理 cnn卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn)是什么

    cnn卷積神經(jīng)網(wǎng)絡(luò)原理 cnn卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn)是什么? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,
    的頭像 發(fā)表于 08-21 17:15 ?2403次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)算法 cnn卷積神經(jīng)網(wǎng)絡(luò)模型

    cnn卷積神經(jīng)網(wǎng)絡(luò)算法 cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)(CNN)是
    的頭像 發(fā)表于 08-21 17:15 ?2914次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)matlab代碼

    cnn卷積神經(jīng)網(wǎng)絡(luò)matlab代碼? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是深度學(xué)習(xí)中種常用
    的頭像 發(fā)表于 08-21 17:15 ?2023次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)簡介 cnn卷積神經(jīng)網(wǎng)絡(luò)代碼

    cnn卷積神經(jīng)網(wǎng)絡(luò)簡介 cnn卷積神經(jīng)網(wǎng)絡(luò)代碼 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱
    的頭像 發(fā)表于 08-21 17:16 ?3724次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。 CNN的基本概念 1.1
    的頭像 發(fā)表于 07-02 15:24 ?1658次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測、語義分割等領(lǐng)域。本文將詳細(xì)介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見網(wǎng)絡(luò)架構(gòu)以及實際應(yīng)用案例。
    的頭像 發(fā)表于 07-03 09:28 ?1968次閱讀