chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從AlexNet到ResNet的網(wǎng)絡(luò)架構(gòu)進步

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-06-30 10:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:考慮到原作者寫的“面向新手的CNN入門指南(二)”沒有太多實質(zhì)性的計算內(nèi)容,而是直接推薦論文建議讀者閱讀,因此論智決定跳過這一部分,直接總結(jié)過去幾年中計算機視覺和卷積神經(jīng)網(wǎng)絡(luò)領(lǐng)域的一些重大發(fā)展。本文主要介紹了從AlexNet到ResNet的網(wǎng)絡(luò)架構(gòu)進步,對原文提到的包括GAN在內(nèi)的一些有趣的論文不做具體翻譯。

AlexNet(2012)

雖然許多人會認為Yann LeCun在1989年和1998年發(fā)表的論文是CNN的開山之作,但真正讓它廣泛地為人所知并進入科研領(lǐng)域的確實是這篇論文:ImageNet Classification with Deep Convolutional Neural Networks。截至目前,它的引用次數(shù)已經(jīng)高達23324。

2012年,來自多倫多大學的Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton創(chuàng)建了一個“大而深的卷積神經(jīng)網(wǎng)絡(luò)”,一舉贏得ILSVRC(ImageNet大規(guī)模視覺識別挑戰(zhàn))。對于不熟悉計算機視覺領(lǐng)域的人來說,ImageNet大賽在CV界的地位可以類比體育界的奧運會,每年來自世界各地的團隊會在大賽中競相角逐,看誰擁有能用于分類、檢測等任務(wù)的最佳CV模型。

就在那一年,CNN的Top-5錯誤率穩(wěn)定在15.4%,而原比賽記錄是26.2%,這是一個令整個行業(yè)都為之震驚的進步。可以肯定地說,從那之后,CNN在競賽中已經(jīng)成為一個家喻戶曉的名字。

在論文中,Hinton等人提出了一種名為AlexNet的新型網(wǎng)絡(luò)架構(gòu)。和當時的已有CNN相比,AlexNet布局精簡,由5個卷積層、最大池化層、dropout層和3個全連接的層組成,可以對1000種目標進行分類。

AlexNet整體架構(gòu)

提要

在ImageNet數(shù)據(jù)上訓練網(wǎng)絡(luò),其中包含超過22000個類別的超過1500萬張注釋圖像。

把ReLu作為激活函數(shù)(可以縮短訓練用時,因為ReLU比傳統(tǒng)tanh函數(shù)快幾倍)。

使用了圖片轉(zhuǎn)換、水平翻轉(zhuǎn)和改變顏色通道等圖像增強技術(shù)。

加入Dropout層以解決過擬合問題。

用批量隨機梯度下降訓練模型,并手動調(diào)試了momentum和權(quán)重衰減率的值。

在兩臺GTX 580 GPU上訓練5-6天。

評價

Krizhevsky、Sutskever和Hinton在2012年提出的AlexNet稱得上是計算機視覺領(lǐng)域的一次狂歡,這是CNN模型首次在ImageNet數(shù)據(jù)集上表現(xiàn)出驚人的性能,他們也為以后的研究貢獻了大量技巧,其中圖像增強技術(shù)和dropout層一直被沿用至今??偠灾@篇論文真正展現(xiàn)了CNN的優(yōu)勢,并在競賽中創(chuàng)造了破紀錄的成績。

ZF Net(2013)

自從2012年AlexNet在競賽中成功“超神”后,參加ILSVRC 2013的CNN模型數(shù)量大幅提升,其中紐約大學的Matthew Zeiler和Rob Fergus憑借ZF Net成為了競賽的最終獲勝者。ZF Net的Top-5錯誤率只有11.2%,雖然從結(jié)構(gòu)上看它和AlexNet大體差不多,但它提出了一些關(guān)于提升性能的關(guān)鍵想法,而且比賽結(jié)果確實也比AlexNet提高了不少。

而ZF Net的成功之處不限于此,Matthew Zeiler和Rob Fergus寫了一篇非常出色的論文:Visualizing and Understanding Convolutional Neural Networks。他們詳細介紹了CNN背后的許多原理,并用可視化的方式說明了filter和權(quán)重所發(fā)揮的作用。

在論文中,他們首先討論了一個觀點,即CNN的崛起離不開大型數(shù)據(jù)集的建立和計算機算力的大幅提升。他們也指出研究人員對模型內(nèi)部機制知之甚少的嚴峻現(xiàn)狀,并認為如果研究人員對CNN缺乏洞察力,那他們其實是在本著“開發(fā)更好的模型的愿景去試錯和不斷失敗”。

的確,比起2013年,現(xiàn)在我們對CNN了解得更深了,但不可否認的是許多行業(yè)內(nèi)的人到現(xiàn)在還對它一知半解。所以像Zeiler和Fergus這樣的工作還是很有意義的,這篇論文稍微修改了AlexNet模型的細節(jié),并用可視化的方式揭示了許多有趣的問題。

ZF Net整體架構(gòu)

提要

除了一些小修改,大體和AlexNet相同。

AlexNet在1500萬張圖片上進行訓練,而ZF Net只用了130萬張圖片。

ZF Net沒有在第一層用11× 11的filter,而是把尺寸改成了7×7并減少步長。這么做的原因是在卷積層中,用更小的filter有利于保留更多原始像素信息,而保留大量信息對第一個卷積層來說尤為重要。

隨著網(wǎng)絡(luò)不斷發(fā)展,filter的數(shù)量也逐漸增加了。

把ReLU作為激活函數(shù),把交叉熵損失作為損失函數(shù),并用批量隨機梯度下降訓練模型。

在GTX 580 GPU上訓練了12天。

開發(fā)了一種名為Deconvolutional Network的可視化技術(shù),有助于檢查不同特征激活與輸入像素值的關(guān)系。之所以稱它“Deconvenet”(反卷積),是因為它將特征映射回像素空間(與卷積層正好相反)。

DeConvNet

DeConvNet背后的基本思想是在訓練好的CNN的每一層后,在某個位置附加一個“反卷積”(DeConvNet)的操作,它有一個通道能把提取到的特征反過來映射回圖像像素。

往CNN里輸入一張圖像,然后在每一層的計算激活,這是我們熟知的前向傳遞?,F(xiàn)在,假設(shè)我們想檢查第四個卷積層中某個特征的激活情況,我們可以先把其他所有激活設(shè)置為0,只把目標特征映射作為DeConvNet的輸入。DeConvNet和CNN共享filter,所以只要網(wǎng)絡(luò)確實都訓練好了,這些特征映射就能通過一系列反池化(unpooling)、整流(rectify)和反濾波重新還原為原始輸入圖像的像素值。

它的出發(fā)點是研究圖像中能激活特征映射的結(jié)構(gòu)類型。讓我們看看第一層和第二層的可視化。

第一層和第二層的可視化:很容易看出對于給定filter,哪部分激活得最強

正如面向新手的CNN入門指南(一)中介紹的,CNN的第一層始終是一個低層次特征檢測器,它在上圖中只能檢測到簡單的邊緣和顏色,而第二個卷積層明顯比上一個捕捉到了更多特征。趁熱打鐵,我們來看第3、4、5層。

第三層、第四層和第五層的可視化

這些層檢測到了更多更高層次的特征,如狗臉和鮮花。需要注意的一點是,第一個卷積層后通常都有一個池化層對圖像做下采樣,它的作用是在保留更多的細節(jié)特征的前提下減少冗余,比如把32×32×3轉(zhuǎn)成16×16×3。所以第二個卷積層的filter在原始圖像中“看”到的范圍其實是更廣了。

評價

ZF Net不僅是2013年ImageNet大賽的冠軍,它還提供了有關(guān)CNN的大量可視化原理解釋,為后期研究貢獻了提高性能的多種路徑。這些可視化方法既能被用于解釋CNN的內(nèi)部工作原理,又提供了改進網(wǎng)絡(luò)架構(gòu)的諸多見解,這樣的貢獻使它成為一篇當之無愧的優(yōu)秀論文。

VGG Net(2014)

簡單而深入,這是VGG Net給所有人的普遍印象。和AlexNet、ZF Net不同,VGG Net并不是ILSVRC 2014的獲勝者,但這并不妨礙它在11.2%的基礎(chǔ)上進一步把Top-5錯誤率降低到7.3%。

VGG是牛津大學的Oxford Visual Geometry Group的名稱縮寫。2014年,牛津大學的Karen Simonyan和Andrew Zisserman創(chuàng)建了一個19層的CNN,它的每一層都使用大小為3×3、pad=1、stride=1的filter,同時網(wǎng)絡(luò)的池化核也不再是3×3,而是2×2、stride=2。憑借這個新型架構(gòu),牛津大學當年在ImageNet大賽上斬獲分類第二、定位任務(wù)第一的佳績。

6種不同的VGG Net架構(gòu),其中D性能最好

提要

不同于AlexNet的11×11和ZF Net的7×7,VGG Net把卷積核全部替換成了3×3,因為作者發(fā)現(xiàn)2個3×3filter的感受野和1個5×5filter的相同。這樣做的好處是既能保持較小的filter尺寸,又能模擬更大的filter的性能。此外,它也減少了參數(shù)數(shù)量,允許使用更多的激活函數(shù)——多了兩個卷積意味著能多用兩次ReLU。

3個3×3filter的堆疊所獲得的感受野相當于一個7×7的filter。

隨著網(wǎng)絡(luò)層數(shù)遞增,feature map的寬度高度會逐漸減?。ň矸e層和池化層的結(jié)果),但由于filter數(shù)量增加,它的深度會不斷加深。

VGG Net在圖像分類和目標定位這兩個任務(wù)上表現(xiàn)得尤為出色。

用Caffe構(gòu)建模型。

數(shù)據(jù)增強技術(shù):Scale Jittering。

在每個卷積層后把ReLU作為激活函數(shù),并用批量隨機梯度下降訓練模型。

在4塊Nvidia Titan Black GPU上訓練了兩到三周。

評價

VGG Net是最有影響力的論文之一,因為它論證了卷積神經(jīng)網(wǎng)絡(luò)必須依靠足夠深的深度才能使視覺數(shù)據(jù)的分層表示發(fā)揮作用的觀點。

GoogLeNet(2015)

在GoogLeNet出現(xiàn)之前,上述這些架構(gòu)在提升CNN性能上的做法就是加深、拓寬神經(jīng)網(wǎng)絡(luò),為了防止過擬合,他們還要盡可能減少參數(shù)數(shù)量。但Google顯然不吃這一套,在ILSVRC 2014上,它往一堆CNN中丟了一個Inception,以6.7%的Top-5錯誤率成了最后贏家。

據(jù)不完全統(tǒng)計,這應(yīng)該是第一個真正不再繼續(xù)往CNN里懟卷積層和池化層的成熟架構(gòu)。此外,作者還強調(diào)新模型已經(jīng)針對內(nèi)存和計算量做了優(yōu)化,讓研究人員開始注意到加深網(wǎng)絡(luò)帶來的各種硬件上的不良影響。

GoogLeNet整體架構(gòu)

Inception

當?shù)谝淮慰吹紾oogLeNet的整體架構(gòu)時,我們一眼就能發(fā)現(xiàn)這是一個按順序進行的神經(jīng)網(wǎng)絡(luò)。當然,其中也有不少并行網(wǎng)絡(luò)。

上圖的這個模塊被稱為Inception,下面是它的具體構(gòu)成:

Inception模塊全貌

圖片底部的綠色框是輸入,最上面的綠色框是輸出。如果是一個傳統(tǒng)的CNN,它在每一層只能執(zhí)行一個操作,比如池化和卷積(還要選filter大?。?,但Inception模塊允許網(wǎng)絡(luò)以并行的方式同時完成所有操作——這也正是作者“naive”的地方。

Naive版Inception

上圖其實是作者的最初想法,但為什么這個Naive版的Inception不起作用?如圖所示,隨著層數(shù)的加深,feature map中特征的空間集中度會下降,這就需要更多5×5的filter,相應(yīng)的網(wǎng)絡(luò)也需要更多的參數(shù)。因此作者在3×3和5×5的filter前加了一個1×1的filter,它可以幫助降維。假設(shè)我們有一個100×100×60的輸入,這時20個1×1的卷積核就能把它降維到100×100×20,無論后面的filter是3×3還是5×5,它們輸入的數(shù)組就遠沒有原始數(shù)據(jù)那么高維了。

換句話說,這也可以被看做是在對特征做池化,因為它的直接結(jié)果是減小特征深度,和最大池化層減小feature map的寬度和高度類似。

那么這樣的結(jié)構(gòu)真的有效嗎?GoogLeNet(Inception v1)包含一個Network In Network層、一個中等大小的filter、一個大型的filter和一個池化操作。Network In Network層可以從圖像中提取非常精細的紋理細節(jié)信息;而5×5的filter能覆蓋大范圍的感受野,也能從中提取大量信息。通過聯(lián)合操作,研究人員能控制輸入的尺寸并防止過擬合。更重要的是,每個卷積層后都跟有ReLU,它能提高網(wǎng)絡(luò)的非線性。

簡而言之,這個架構(gòu)能在減小輸入空間的同時防止過擬合,并兼顧內(nèi)存占用和計算量的節(jié)約。

提要

在整個架構(gòu)中用了9個Inception模塊,總共超過100層!

沒有使用全連接層,而是用了平均池化,把大小從7×7×1024降到了1×1×1024,減少了大量參數(shù)。

使用的參數(shù)量是AlexNet的十二分之一。

在測試過程中對同一張圖像進行多次裁剪,輸入網(wǎng)絡(luò)用softmax計算平均值后再給出結(jié)果。

沿用R-CNN的思路檢測模型。

Inception模塊的后期更新。

用“一些高端GPU”訓練了一周。

評價

GoogLeNet是第一個不按尋常套路堆疊層次的模型,而對于Inception模塊,作者也表示創(chuàng)造層次結(jié)構(gòu)可以提高CNN的性能和計算效率。

ResNet(2015)

8層、19層、22層,之后數(shù)年,CNN在深度這條路上越走越遠。想象一個普通的CNN,我們把它的層數(shù)翻倍,然后再加幾個層次,這已經(jīng)很深了,但很可惜,它還是遠遠比不上微軟亞洲研究院何凱明團隊于2015年年底提出的ResNet。

ResNet是一個深度達152層的新型CNN架構(gòu),除了在層數(shù)上打破了原有的記錄,它在分類、檢測和定位任務(wù)上也成績斐然,以3.6%的錯誤率贏得了2015年的ILSVRC。這是一個令人驚嘆的成果,因為目前人類依靠自身認知能力和專業(yè)水平所達到的平均成績一直徘徊在5%-10%。

殘差塊(Residual Block)

ResNet的核心是殘差塊,而殘差塊背后的思路是當向網(wǎng)絡(luò)中輸入一個x后,x會經(jīng)歷一系列卷積—ReLU—卷積,我們把這過程中發(fā)生的的計算看做函數(shù)F(x),再加上輸入的x,實際上網(wǎng)絡(luò)要學會的函數(shù)應(yīng)該是H(x)=F(x)+x。

對于以往的CNN,當訓練完成后,H(x)應(yīng)該恰好等于F(x)。但何凱明團隊認為像這樣直接求H(x)太過困難,既然H(x)=F(x)+x,那不如就從它的的殘差形式F(x)+x開始進行優(yōu)化。如下圖所示,通過加入一個identity mapping(恒等映射),殘差塊對原始輸入x做了一些細微的調(diào)整,這樣做的直接結(jié)果就是ResNet的優(yōu)化過程比普通CNN更簡單。

殘差塊

殘差塊能發(fā)揮作用的另一個原始是在反向傳播的反向傳遞過程中,因為H(x)=F(x)+x中包含加法運算,所以它們可以分配梯度,梯度傳播更加順暢。

提要

“超深!”——Yann LeCun。

152層……

僅在通過網(wǎng)絡(luò)的前兩層后,輸入的空間就從224×224被壓縮到了56×56。

何凱明團隊嘗試過建立一個1202層的CNN,但可能是因為過擬合,模型準確率較低。

用8塊GPU訓練了兩到三周。

評價

3.6%的錯誤率,這個數(shù)字本身就能說明不少問題。雖然距離提出已經(jīng)過去了2年多,但到目前為止,ResNet還是最好的CNN之一。同時它也開創(chuàng)了殘差塊這種偉大的做法。

福利:殘差塊里的殘差塊(好像有點暈)

基于CNN的其他網(wǎng)絡(luò)

這些CNN的目的是解決目標檢測的問題。給定一個圖像,我們希望模型能夠在所有對象上繪制出檢測框,它一般分為兩步:一是用CNN從圖像區(qū)域中檢測出特征,二是利用分類器預(yù)測當前區(qū)域包含目標特征的置信度(圖像分類)。

R-CNN-2013

Fast R-CNN-2015

Faster R-CNN-2015

能夠確定圖像中包含特定對象是一回事,但確定它具體在哪一位置就是另一回事了。從R-CNN到Fast R-CNN再到Faster R-CNN,如今的物體檢測技術(shù)正趨于完善。

生成對抗網(wǎng)絡(luò)(2014)

這是被Yann LeCun譽為下一個重大發(fā)展的神經(jīng)網(wǎng)絡(luò)。它包含兩部分:一個生成模型和一個判別模型。其中判別模型的任務(wù)是確定輸入圖像的真實性:它是來自數(shù)據(jù)集的自然圖像,還是其他渠道生成的偽圖像。而生成模型的任務(wù)是通過判別模型的判定結(jié)果一遍遍提升自我,生成能愚弄對方的偽圖像。

如今圍繞GAN的研究有很多,但因為不是很成熟,許多人會建議新人不要盲目去深入嘗試。但正如Yan Le Leun在他的Quora文章中所說的那樣,GAN的判別模型其實已經(jīng)意識到了數(shù)據(jù)的內(nèi)部表示,它了解真實圖像和生成圖像之間的差異,因此把它作為CNN的特征提取器也未嘗不可。如果不放手實踐,可能你將錯失許多學習成長的樂趣。

生成圖像注釋(2014)

如果把CNN和RNN結(jié)合在一起,我們會得到什么?反正肯定不是R-CNN :laughing: 。Andrej Karpathy和李飛飛在這篇論文里向我們展示了一個很有趣的成果,即用CNN和雙向RNN生成不同圖像區(qū)域內(nèi)的自然語言注釋。

具體內(nèi)容我們這里不做詳談。它的貢獻在于將計算機視覺和自然語言處理等領(lǐng)域結(jié)合起來,為構(gòu)建跨領(lǐng)域任務(wù)模型打開了一扇新的大門。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4831

    瀏覽量

    107223
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47539
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5594

    瀏覽量

    124142

原文標題:面向新手的CNN入門指南(二)——必讀的十篇深度學習論文

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    深度學習與圖神經(jīng)網(wǎng)絡(luò)學習分享:CNN經(jīng)典網(wǎng)絡(luò)之-ResNet

    深度學習與圖神經(jīng)網(wǎng)絡(luò)學習分享:CNN 經(jīng)典網(wǎng)絡(luò)之-ResNet resnet 又叫深度殘差網(wǎng)絡(luò) 圖像識別準確率很高,主要作者是國人哦 深度
    的頭像 發(fā)表于 10-12 09:54 ?1664次閱讀
    深度學習與圖神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>學習分享:CNN經(jīng)典<b class='flag-5'>網(wǎng)絡(luò)</b>之-<b class='flag-5'>ResNet</b>

    一種利用光電容積描記(PPG)信號和深度學習模型對高血壓分類的新方法

    學習方法來對高血壓的四個階段進行分類。這里采用的分類方法是:AlexnetResnet -50、VGG-16和新的模型:AvgPool_VGG-16。使用這些算法時要考慮數(shù)據(jù)集的數(shù)量和多樣性。所
    發(fā)表于 05-11 20:01

    語言進步到編程

    語言進步到編程
    發(fā)表于 08-03 08:40

    語言進步到編程

    語言進步到編程
    發(fā)表于 01-25 11:00

    AlexNetMobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

    AlexNetMobileNetAlexnetAlexNet是首次把卷積神經(jīng)網(wǎng)絡(luò)引入計算機視覺領(lǐng)域并取得突破性成績的模型。AlexNet有Alex Krizhevsky、llya S
    發(fā)表于 05-08 15:57

    一文讀懂物體分類AI算法:LeNet-5 AlexNet VGG Inception ResNet MobileNet

    2012年一炮走紅,深度學習重新燃起了一片熱情。Lenet5第一次使用卷積開始,經(jīng)歷了AlexNet VGG Inception ResNet等各種模型,錯誤率也一再降低。ResNet
    發(fā)表于 06-07 17:26

    【CANN訓練營第三季】基于Caffe ResNet-50網(wǎng)絡(luò)實現(xiàn)圖片分類

    【CANN訓練營第三季】基于Caffe ResNet-50網(wǎng)絡(luò)實現(xiàn)圖片分類
    發(fā)表于 12-19 22:34

    使用計算庫在Raspberry PI和HiKey 960上分析AlexNet

    夠更容易配置和優(yōu)化 Am 處理器運行的軟件。 AlexNet 是一個 Arm Computer 庫中為 Raspberry Pi 設(shè)計的神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)( CNN) ,
    發(fā)表于 08-29 08:05

    形象的理解深度網(wǎng)絡(luò)架構(gòu)?

    ▍VGG VGG網(wǎng)絡(luò)2012年早期的 AlexNet 網(wǎng)絡(luò)一樣,遵循著現(xiàn)有卷積網(wǎng)絡(luò)的典型布局:在最終的全連接分類層(fully-con
    發(fā)表于 09-22 17:05 ?0次下載
    形象的理解深度<b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>架構(gòu)</b>?

    AlexNet對cifar-10數(shù)據(jù)進行分類

    AlexNet在圖像分類中是一個比較重要的網(wǎng)絡(luò),在學習的過程中不僅要學會寫網(wǎng)絡(luò)結(jié)構(gòu),知道每一層的結(jié)構(gòu),更重要的是得知道為什么要這樣設(shè)計,這樣設(shè)計有什么好處。
    的頭像 發(fā)表于 06-06 14:18 ?2.2w次閱讀
    用<b class='flag-5'>AlexNet</b>對cifar-10數(shù)據(jù)進行分類

    卷積神經(jīng)網(wǎng)絡(luò)的特點,優(yōu)缺點,數(shù)據(jù)處理等詳細資料免費下載

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN),CNN可以有效的降低反饋神經(jīng)網(wǎng)絡(luò)(傳統(tǒng)神經(jīng)網(wǎng)絡(luò))的復(fù)雜性,常見的CNN結(jié)構(gòu)有LeNet-5、AlexNet
    發(fā)表于 08-09 17:36 ?52次下載
    卷積神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的特點,優(yōu)缺點,數(shù)據(jù)處理等詳細資料免費下載

    網(wǎng)絡(luò)架構(gòu)ResNet訓練時間有什么影響

    目前為止,我們使用的都是固定網(wǎng)絡(luò)架構(gòu),即在CIFAR10上用單個GPU最快的DAWNBench記錄,經(jīng)過簡單改變,我們將網(wǎng)絡(luò)達到94%精度的時間341秒縮短至154秒。今天,我們要研
    的頭像 發(fā)表于 11-17 11:23 ?6097次閱讀

    基于改進U-Net網(wǎng)絡(luò)建立HU-ResNet模型

    針對混凝土結(jié)構(gòu)表觀裂縫檢測準確率低、細節(jié)信息丟失及精度不髙等問題,提出一種利用HU-RεsNet卷積神經(jīng)網(wǎng)絡(luò)的混凝土表觀裂縫檢測方法?;诟倪MU-Net網(wǎng)絡(luò)建立HU- Resnet模型,采用經(jīng)
    發(fā)表于 03-17 10:12 ?12次下載
    基于改進U-Net<b class='flag-5'>網(wǎng)絡(luò)</b>建立HU-<b class='flag-5'>ResNet</b>模型

    PyTorch教程8.1之深度卷積神經(jīng)網(wǎng)絡(luò)(AlexNet)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程8.1之深度卷積神經(jīng)網(wǎng)絡(luò)(AlexNet).pdf》資料免費下載
    發(fā)表于 06-05 10:09 ?0次下載
    PyTorch教程8.1之深度卷積神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>(<b class='flag-5'>AlexNet</b>)

    PyTorch教程8.6之殘差網(wǎng)絡(luò)(ResNet)和ResNeXt

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程8.6之殘差網(wǎng)絡(luò)(ResNet)和ResNeXt.pdf》資料免費下載
    發(fā)表于 06-05 10:08 ?0次下載
    PyTorch教程8.6之殘差<b class='flag-5'>網(wǎng)絡(luò)</b>(<b class='flag-5'>ResNet</b>)和ResNeXt