chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ResNet原始結果無法復現(xiàn)?大神何愷明受到了質疑

DPVg_AI_era ? 來源:lp ? 2019-04-19 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ResNet原始結果無法復現(xiàn)?大神何愷明的經(jīng)典之作受到了網(wǎng)友質疑,不過何愷明本人現(xiàn)身解答之后,讓真理越辯越明。

大神何愷明受到了質疑。

今天,Reddit上一位用戶對何愷明的ResNet提出質疑,他認為:

何愷明2015年的原始殘差網(wǎng)絡的結果沒有被復現(xiàn),甚至何愷明本人也沒有。

網(wǎng)友稱,他沒有發(fā)現(xiàn)任何一篇論文復現(xiàn)了原始ResNet網(wǎng)絡的結果,或與原始殘差網(wǎng)絡論文的結果進行比較,并且所有的論文報告的數(shù)字都比原始論文的更差。

論文中報告的top1錯誤率的結果如下:

ResNet-50 @ 20.74

resnet - 101 @ 19.87

resnet - 152 @ 19.38

何愷明等人在2015年提出ResNet之后,ResNet很快成為計算機視覺最流行的架構之一,這篇論文已經(jīng)被引用了超過20000次。

不過,網(wǎng)友稱,DenseNet(https://arxiv.org/abs/1608.06993,3000+引用)和WideResNets(https://arxiv.org/abs/1605.07146,~1000引用)都沒有使用這個結果。甚至在何愷明最近的一篇論文中,也沒有使用這個結果。

按理說,何愷明這篇論文應該是這個領域被引用最多的論文之一,原始ResNet的結果真的沒有被復現(xiàn)出來嗎?在繼續(xù)討論之前,讓我們先來回顧一下ResNet的思想,以及它之所以強大的原因。

重新審視ResNet:計算機視覺最流行的架構之一

2015年,ResNet大大吸引了人們的眼球。實際上,早在ILSVRC2012分類競賽中,AlexNet取得勝利,深度殘差網(wǎng)絡(deepResidualNetwork)就成為過去幾年中計算機視覺和深度學習領域最具突破性的工作。ResNet使得訓練深達數(shù)百甚至數(shù)千層的網(wǎng)絡成為可能,而且性能仍然優(yōu)異。

由于其表征能力強,ResNet在圖像分類任務之外的許多計算機視覺應用上也取得了巨大的性能提升,例如對象檢測和人臉識別。

自2015年以來,許多研究對ResNet架構進行了調整和改進。其中最著名的一些ResNet變體包括:

何愷明等人提出的ResNeXt

康奈爾大學、清華大學和Facebook聯(lián)合提出的DenseNet

谷歌MobileNet

孫劍團隊ShuffleNet

顏水成團隊的雙通道網(wǎng)絡DPN

最近南開大學、牛津大學等提出的 Res2Net

……

那么ResNet 的核心思想是什么呢?

根據(jù)泛逼近定理(universalapproximationtheorem),如果給定足夠的容量,一個單層的前饋網(wǎng)絡就足以表示任何函數(shù)。但是,這個層可能是非常大的,而且網(wǎng)絡容易過擬合數(shù)據(jù)。因此,研究界有一個共同的趨勢,就是網(wǎng)絡架構需要更深。

從AlexNet的提出以來,state-of-theart的CNN架構都是越來越深。雖然AlexNet只有5層卷積層,但后來的VGG網(wǎng)絡和GoogLeNet分別有19層和22層。

但是,如果只是簡單地將層堆疊在一起,增加網(wǎng)絡的深度并不會起太大作用。這是由于難搞的梯度消失(vanishinggradient)問題,深層的網(wǎng)絡很難訓練。因為梯度反向傳播到前一層,重復相乘可能使梯度無窮小。結果就是,隨著網(wǎng)絡的層數(shù)更深,其性能趨于飽和,甚至開始迅速下降。

網(wǎng)絡深度增加導致性能下降

在ResNet之前,已經(jīng)出現(xiàn)好幾種處理梯度消失問題的方法,例如,2015年C.Szegedy等人提出的GoogLeNet在中間層增加一個輔助損失(auxiliaryloss)作為額外的監(jiān)督,但遺憾的是,沒有一個方法能夠真正解決這個問題。

ResNet的核心思想是引入一個“恒等捷徑連接”(identityshortcutconnection),直接跳過一層或多層,如下圖所示:

一個殘差塊

何愷明等人于2015年發(fā)表的論文《用于圖像識別的深度殘差學習》(DeepResidualLearningforImageRecognition)中,認為堆疊的層不應該降低網(wǎng)絡的性能,因為我們可以簡單地在當前網(wǎng)絡上堆疊identity映射(層不處理任何事情),并且所得到的架構性能不變。這表明,較深的模型所產生的訓練誤差不應比較淺的模型的誤差更高。作者假設讓堆疊的層擬合一個殘差映射(residualmapping)要比讓它們直接擬合所需的底層映射更容易。上面的殘差塊(residualblock)顯然仍讓它做到這點。

ResNet 的架構

那么這次質疑“不能復現(xiàn)”的結果是什么呢?討論點集中在原始論文中的表3和表4:

表3:ImageNet驗證集上10-crop測試的錯誤率

表4:ImageNet驗證集上sigle-model的錯誤率結果

由于其結果優(yōu)異,ResNet迅速成為各種計算機視覺任務最流行的架構之一。

新智元昨天發(fā)表的文章《對 ResNet 本質的一些思考》,對ResNet做了較深入的探討。作者表示:

不得不贊嘆KaimingHe的天才,ResNet這東西,描述起來固然簡單,但是對它的理解每深一層,就會愈發(fā)發(fā)現(xiàn)它的精妙及優(yōu)雅,從數(shù)學上解釋起來非常簡潔,非常令人信服,而且直切傳統(tǒng)痛點。

ResNet本質上就干了一件事:降低數(shù)據(jù)中信息的冗余度。

具體說來,就是對非冗余信息采用了線性激活(通過skipconnection獲得無冗余的identity部分),然后對冗余信息采用了非線性激活(通過ReLU對identity之外的其余部分進行信息提取/過濾,提取出的有用信息即是殘差)。

其中,提取 identity 這一步,就是 ResNet 思想的核心。

何愷明回應ResNet結果不能復現(xiàn)

再回到文章開頭的討論:原始ResNet的結果真的無法復現(xiàn)嗎?

針對網(wǎng)友的質疑,不少人在帖子下回復,可以總結為兩個方面:

ImageNet有多種測試策略,后來的論文在復現(xiàn)ImageNet時采用的是當時流行的策略,而非ResNet原始論文的策略;

后來的論文在訓練時采用了一些與原始論文不同的優(yōu)化技巧,使得結果甚至比原始ResNet 論文的結果更好

何愷明本人也第一時間作出回復:

ImageNet上有幾種測試策略:(i)single-scale,single-crop測試;(ii)single-scale,multi-crop或fully-convolutional測試;(iii)multi-scale,multi-crop或fully-convolutional測試;(iv)多個模型集成。

在這些設置下,這篇論文的ResNet-50模型的top-1錯誤率為:(i)24.7%(1-crop,如我的GitHubrepo所展示),(ii)22.85%(10-crop,論文中的表3),(iii)20.74%(full-conv,multi-scale,論文中的Table4)。論文中使用的(ii)和(iii)的描述見第3.4節(jié)。

當時是2015年,(ii)和(iii)是最流行的評估設置。策略(ii)是AlexNet的默認值(10-crop),(ii)和(iii)是OverFeat、VGG和GoogleNet中常用的設置。Single-crop測試在當時并不常用。

2015/2016年后,Single-crop測試開始流行。這在一定程度上是因為社區(qū)已經(jīng)變成一個對網(wǎng)絡精度的差異很感興趣的環(huán)境(因此single-crop足以提供這些差異)。

ResNet是近年來被復現(xiàn)得最多的架構之一。在我的GitHubrepo中發(fā)布的ResNet-50模型是第一次訓練的ResNet-50,盡管如此,它仍然十分強大,并且在今天的許多計算機視覺任務中仍然是預訓練的骨干。我認為,ResNet的可復現(xiàn)性經(jīng)受住了時間的考驗。

Reddit用戶ajmooch指出:

你忘記了測試時數(shù)據(jù)增強(test-timeaugmentation,TTA)。表4中的數(shù)字來自于不同scales的multi-crop的平均預測(以計算時間為代價優(yōu)化精度),而其他論文中的數(shù)字是single-crop的。

表3列出了10-crop測試的數(shù)據(jù)。表4的數(shù)字更好,所以它肯定不是singlecrop的數(shù)字。我的猜測是n-crop,可能還包括其他增強,比如翻轉圖像。

這個帖子讀起來有點像指責,我不喜歡。ResNet因為在ImageNet測試集上表現(xiàn)出色而著名,而ImageNet測試集隱藏在服務器上,他們沒有辦法在那里處理這些數(shù)字。ResNet是我能想到的被復現(xiàn)最多的架構之一。它顯然是合理的。在開始批評別人之前,我們應該先了解我們在批評什么。

谷歌大腦工程師hardmaru也回復道:

在何愷明加入FAIR之前,F(xiàn)AIRTorch-7團隊獨立復現(xiàn)了ResNet:https://github.com/facebook/fb.resnet.torch

經(jīng)過訓練的ResNet18、34、50、101、152和200模型,可供下載。我們包括了使用自定義數(shù)據(jù)集,對圖像進行分類并獲得模型的top5預測,以及使用預訓練的模型提取圖像特征的說明。

他們的結果如下表:

經(jīng)過訓練的模型比原始ResNet模型獲得了更好的錯誤率。

但是,考慮到:

這個實現(xiàn)與ResNet論文在以下幾個方面有所不同:

規(guī)模擴大(Scaleaugmentation):我們使用了GooLeNet中的的規(guī)模和長寬比,而不是ResNet論文中的scaleaugmentation。我們發(fā)現(xiàn)這樣的驗證錯誤更好。

顏色增強(Coloraugmentation):除了在ResNet論文中使用的AlexNet風格的顏色增強外,我們還使用了AndrewHoward提出的的亮度失真(photometricdistortions)。

權重衰減(Weightdecay):我們將權重衰減應用于所有權重和偏差,而不僅僅是卷積層的權重。

Stridedconvolution:當使用瓶頸架構時,我們在3x3卷積中使用stride2,而不是在第一個1x1卷積。

何愷明的GitHub有Caffe模型訓練的原始版本和更新版本的resnet,而且報告的也不同:

(https://github.com/KaimingHe/deep-residual-networks/blob/master/README.md)

也許他的GitHub報告中的方法與論文不一致,但為了可重復性而不使用相同的方法也有點奇怪。

也許arxiv或repo應該使用一致的數(shù)字進行更新,或者更好的是,使用多次獨立運行的平均值。

但是隨著SOTA的改進和該領域的發(fā)展,其他人花費資源來產生舊的結果的動機就更少了。人們寧愿使用他們的資源來復現(xiàn)當前的SOTA或嘗試其他新想法。

許多人引用它是因為它的概念本身,而不是為了報告排行榜分數(shù)。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 梯度
    +關注

    關注

    0

    文章

    30

    瀏覽量

    10494
  • 計算機視覺
    +關注

    關注

    9

    文章

    1708

    瀏覽量

    46770
  • resnet
    +關注

    關注

    0

    文章

    13

    瀏覽量

    3319

原文標題:經(jīng)典ResNet結果不能復現(xiàn)?何愷明回應:它經(jīng)受住了時間的考驗

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于RV1126開發(fā)板的resnet50訓練部署教程

    本教程基于圖像分類算法ResNet50的訓練和部署到EASY-EAI-Nano(RV1126)進行說明
    的頭像 發(fā)表于 04-18 15:07 ?454次閱讀
    基于RV1126開發(fā)板的<b class='flag-5'>resnet</b>50訓練部署教程

    IGBT模塊的反向恢復現(xiàn)

    IGBT模塊的反向恢復現(xiàn)象是指在IGBT關斷時,其內部集成的續(xù)流二極管(FWD)從正向導通狀態(tài)轉變?yōu)榉聪蚪刂範顟B(tài)過程中出現(xiàn)的一些特定物理現(xiàn)象和電氣特性變化。
    的頭像 發(fā)表于 03-13 14:39 ?1644次閱讀
    IGBT模塊的反向恢<b class='flag-5'>復現(xiàn)</b>象

    德賽電池榮膺仲高新區(qū)三項榮譽

    近日,仲高新區(qū)舉行高質量發(fā)展大會暨優(yōu)秀企業(yè)授牌活動,旨在表彰2024年度為仲高新區(qū)經(jīng)濟發(fā)展作出杰出貢獻的優(yōu)秀企業(yè),激勵更多企業(yè)創(chuàng)新發(fā)展,共同推動區(qū)域經(jīng)濟的繁榮與進步。區(qū)領導、園區(qū)、鎮(zhèn)(街道)領導、區(qū)直相關部門領導以及各企業(yè)代表齊聚一堂,共同見證這一榮耀時刻。
    的頭像 發(fā)表于 02-12 09:27 ?478次閱讀

    振弦式應變計的安裝對測量結果影響?如何避免安裝誤差?

    結果具有決定性影響。應變計應安裝在能夠準確反映被測結構應變情況的關鍵部位。如果安裝位置選擇不當,例如未處于應力集中區(qū)或未與被測結構物軸線重合,將導致測量數(shù)據(jù)無法
    的頭像 發(fā)表于 02-07 15:16 ?495次閱讀
    振弦式應變計的安裝對測量<b class='flag-5'>結果</b>有<b class='flag-5'>何</b>影響?如何避免安裝誤差?

    惠州隆利榮獲2024年仲高新區(qū)優(yōu)秀企業(yè)經(jīng)濟突出貢獻獎

    近日,在仲高新區(qū)高質量發(fā)展大會暨優(yōu)秀企業(yè)授牌活動中,公司全資子公司惠州市隆利科技發(fā)展有限公司,榮獲2024年仲高新區(qū)優(yōu)秀企業(yè)經(jīng)濟突出貢獻獎。
    的頭像 發(fā)表于 02-07 11:30 ?669次閱讀

    調試ADS1256,到了讀轉換結果的時候結果總是為0,為什么?

    最近一直在調試ADS1256,目前讀寫寄存器沒有問題,但是到了讀轉換結果的時候 結果總是為0,我做的是單端測量,AINp選的通道3,AINn選的是AINCOM 但總是讀不出結果來,哪
    發(fā)表于 01-09 08:12

    傳感器的響應時間對測量結果影響?

    傳感器 的響應時間對測量結果有以下幾方面的影響:測量準確性 快速變化信號測量失真:當測量對象的物理量變化較快時,如果 傳感器 響應時間過長,就無法及時跟上變化,導致測量結果與實際值存在偏差。例如
    的頭像 發(fā)表于 11-29 09:24 ?1220次閱讀
    傳感器的響應時間對測量<b class='flag-5'>結果</b>有<b class='flag-5'>何</b>影響?

    ADS1259工作一段時間后轉換結果飽和怎么解決?

    時,當增加到92%左右,ADS1259就會輸出一個飽和值,這個時候reset單片機沒有任何效果,只有重新掉電再上電,ADS1259的輸出結果又恢復正常。 反復試驗,很容易復現(xiàn)這個現(xiàn)象。 實在是想不明白,求大神指教
    發(fā)表于 11-22 07:38

    ADS8689 REFIO、PEFCAP引腳的輸出電流能力大概在多少?

    在數(shù)據(jù)手冊中提到REFIO、PEFCAP引腳不可以直接驅動負載,受到了輸出電流的限制,想請問一下,該引腳的輸出電流能力大概在多少。
    發(fā)表于 11-19 06:37

    基于改進ResNet50網(wǎng)絡的自動駕駛場景天氣識別算法

    ResNet50網(wǎng)絡4組模塊內加入SE模塊,以便更好地擬合通道間復雜的魯棒性?;谧詣玉{駛汽車路測圖像數(shù)據(jù)對所提算法進行Python編程實現(xiàn),結果表明:SE模塊的加入能夠增加算法的魯棒性和準確性,提高了自動駕駛的天氣識別精度。
    的頭像 發(fā)表于 11-09 11:14 ?1349次閱讀
    基于改進<b class='flag-5'>ResNet</b>50網(wǎng)絡的自動駕駛場景天氣識別算法

    用IO模擬I2C時序讀寫ADC3101寄存器,果無論寫入什么值還是讀默認的值都顯示255,為什么?

    根據(jù)手冊時序 用IO模擬I2C時序 讀寫ADC3101寄存器 手冊時序如下圖 最后結果無論寫入什么值 還是讀默認的值都顯示255,求解答
    發(fā)表于 10-22 06:05

    果無線充發(fā)射端接收端磁吸組件——輕松充電,享受便捷生活

    果無線充發(fā)射端接收端磁吸組件——輕松充電,享受便捷生活
    的頭像 發(fā)表于 10-08 09:29 ?700次閱讀

    使用TLV320AIC3100芯片搭建的電路,錄音時無法采樣到手機播放的音頻原始音量怎么解決?

    我這邊使用TLV320AIC3100芯片搭建的電路,錄音時無法采樣到手機播放的音頻原始音量,其他聲音是能正常采樣到,芯片驅動未做錄音等限制,電路參考的推薦電路使用,需要怎么調整或者設計底層來實現(xiàn)手機播放的音量能正常錄入到主控系統(tǒng)中,謝謝
    發(fā)表于 09-27 08:32

    SIM卡座二合一的設計受到了廣大用戶的青睞

    SIM卡座二合一連接器設計以其節(jié)省空間、便捷切換、增強安全性、支持多樣化網(wǎng)絡制式、促進技術創(chuàng)新以及環(huán)保節(jié)能等諸多優(yōu)勢,成為了當前智能手機市場的一大亮點。它不僅提升了用戶體驗,還推動了移動通信產業(yè)的持續(xù)發(fā)展。其中SIM卡座二合一的設計便是近年來備受矚目的創(chuàng)新之一。這種設計不僅優(yōu)化了手機內部空間結構,還帶來了諸多使用上的優(yōu)勢,同時能極大地提升了用戶體驗。
    的頭像 發(fā)表于 09-18 17:22 ?896次閱讀
    SIM卡座二合一的設計<b class='flag-5'>受到了</b>廣大用戶的青睞

    LM6703照著datasheet里面撘了一個電路,設定Rf為300放大10倍結果無論怎樣都只放大2倍左右,為什么?

    照著datasheet里面撘了一個電路,設定Rf為300放大10倍結果無論怎樣都只放大2倍左右,另外改了Rf為900歐一樣沒有改變只有兩倍,SD管腳我是懸空的。
    發(fā)表于 09-06 08:26