chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

經(jīng)典圖像分類算法AlexNet介紹

新機(jī)器視覺 ? 來源:智能計算系統(tǒng) ? 作者:智能計算系統(tǒng) ? 2022-04-06 14:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本期開小灶Heyro將帶領(lǐng)大家進(jìn)入下一趟旅程——基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法講解,從而幫助大家了解在卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)下衍生出的被用于圖像分類的經(jīng)典算法。

在了解圖像分類算法以前,我們先來了解“何為圖像分類”。

圖像分類的核心是從給定的分類集合中給圖像分配一個標(biāo)簽的任務(wù)。簡言之,我們需要對一個輸入圖像進(jìn)行分析后返回一個對應(yīng)的分類標(biāo)簽,標(biāo)簽來自預(yù)先定義的可能類別集。圖像分類的任務(wù)即為正確給出輸入圖像的類別或輸出不同類別的概率。例如,我們先假設(shè)一個含有可能類別的類別集:

Categories = {cat, dog, fox}

然后,我們向分類系統(tǒng)提供一張狐貍?cè)膱D片。

經(jīng)過分類系統(tǒng)的處理,最終輸出可以是單一標(biāo)簽dog,也可以是基于概率的多個標(biāo)簽,例如cat:1%, dog:94%,fox:5% 。

計算機(jī)并不能像人類一樣快速通過視覺系統(tǒng)識別出圖像信息的語義。對于計算機(jī)而言,RGB圖像是由一個個像素數(shù)值構(gòu)成的高維矩陣(張量)。計算機(jī)識別圖像的任務(wù)即尋找一個函數(shù)關(guān)系,該函數(shù)可將高維矩陣信息映射到一個具體的類別標(biāo)簽中。利用計算機(jī)實(shí)現(xiàn)圖像分類目的過程隨即衍生出圖像分類算法。

圖像分類算法的起源——神經(jīng)認(rèn)知機(jī)

傳統(tǒng)的圖像識別模型一般包括:底層特征學(xué)習(xí)>特征編碼>空間約束>分類器設(shè)計>模型融合等幾個流程。

2012年Alex Krizhevsky提出的CNN(卷積神經(jīng)網(wǎng)絡(luò))模型在ImageNet大規(guī)模視覺識別比賽(ILSVRC)中脫穎而出,其效果大大超越了傳統(tǒng)的圖像識別方法,該模型被稱為AlexNet。

基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法起源最早可追溯到日本學(xué)者福島邦彥提出的neocognition(神經(jīng)認(rèn)知機(jī))神經(jīng)網(wǎng)絡(luò)模型。

福島邦彥于1978年至1984年研制了用于手寫字母識別的多層自組織神經(jīng)網(wǎng)絡(luò)——認(rèn)知機(jī)。福島邦彥在認(rèn)知機(jī)中引入了最大值檢出等概念。簡言之,當(dāng)網(wǎng)格中某種神經(jīng)元損壞時,該神經(jīng)元立即可由其他神經(jīng)元來代替。由此一來,認(rèn)知機(jī)就具有較好的容錯能力。

但是,認(rèn)知機(jī)的網(wǎng)絡(luò)較為復(fù)雜,它對輸入的大小變換及平移、旋轉(zhuǎn)等變化并不敏感。雖然它能夠識別復(fù)雜的文字,但卻需要大量的處理單元和連接,這使得其硬件實(shí)現(xiàn)較為困難。

而福島邦彥在1980年提出的“神經(jīng)認(rèn)知機(jī)”神經(jīng)網(wǎng)絡(luò)模型卻能夠很好地應(yīng)對以上問題。

該模型借鑒了生物的視覺神經(jīng)系統(tǒng)。它對模式信號的識別優(yōu)于認(rèn)知機(jī)。無論輸入信號發(fā)生變換、失真,抑或被改變大小等,神經(jīng)認(rèn)知機(jī)都能對輸入信號進(jìn)行處理。但是,該模型被提出后一直未受到較大關(guān)注,直至AlexNet在ILSVRC中大獲全勝,卷積神經(jīng)網(wǎng)絡(luò)的潛力才為業(yè)界所認(rèn)知。

深度學(xué)習(xí)算法

自AlexNet之后,深度學(xué)習(xí)的發(fā)展極為迅速,網(wǎng)絡(luò)深度也在不斷地快速增長,隨后出現(xiàn)了VGG(19層)、GoogleNet(22層)、ResNet(152層),以及SENet(252層)等深度學(xué)習(xí)算法。

隨著模型深度和結(jié)構(gòu)設(shè)計的發(fā)展,ImageNet分類的Top-5錯誤率也越來越低。在ImageNet上1000種物體的分類中,ResNet的Top-5錯誤率僅為3.57%。在同樣的數(shù)據(jù)集上,人眼的識別錯誤率約為5.1%,換言之,目前深度學(xué)習(xí)模型的識別能力已經(jīng)超過了人眼。

在卷積神經(jīng)網(wǎng)絡(luò)的歷史上,比較有里程碑意義的算法包括AlexNet、VGG、Inception (GoogleNet是Inception系列中的一員),以及ResNet。

在本期開小灶中,我們將首先為大家介紹經(jīng)典圖像分類算法AlexNet。

AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)

作為G. Hinton代表作的AlexNet是深度學(xué)習(xí)領(lǐng)域最重要的成果之一。下面讓我們一起從左到右依次認(rèn)識這個結(jié)構(gòu)。

在AlexNet網(wǎng)絡(luò)結(jié)構(gòu)(如下圖所示)中,輸入為一個224×224大小的RGB圖像。

經(jīng)典圖像分類算法AlexNet介紹

AlexNet網(wǎng)絡(luò)結(jié)構(gòu)

第一層卷積,用48個11×11×3的卷積核計算出48個55×55大小的特征圖,用另外48個11×11×3的卷積核計算出另外48個55×55大小的特征圖,這兩個分支的卷積步長都是4,通過卷積把圖像的大小從224′224減小為55×55。第一層卷積之后,進(jìn)行局部響應(yīng)歸一化 (LRN) 以及步長為2、池化窗口為3×3的最大池化,池化輸出的特征圖大小為27×27。

第二層卷積,用兩組各128個5×5×48的卷積核對兩組輸入的特征圖分別進(jìn)行卷積處理,輸出兩組各128個27×27的特征圖。第二層卷積之后,做局部響應(yīng)歸一化和步長為2、池化窗口為3×3的最大池化,池化輸出的特征圖大小為13×13。

第三層卷積,將兩組特征圖合為一組。采用192個3×3×256的卷積核對所有輸入特征圖做卷積運(yùn)算,再用另外192個3×3×256的卷積核對所有輸入特征圖做卷積運(yùn)算,輸出兩組各192個13×13的特征圖。

第四層卷積,對兩組輸入特征圖分別用192個3×3×192的卷積核做卷積運(yùn)算。

第五層卷積,對兩組輸入特征圖分別用128個3×3×192的卷積核做卷積運(yùn)算。第五層卷積之后,做步長為2、池化窗口為3×3的最大池化,池化輸出的特征圖大小為6×6。

第六層和第七層的全連接層都有兩組神經(jīng)元(每組2048個神經(jīng)元)。

第八層的全連接層輸出1000種特征并送到softmax中,softmax輸出分類的概率。

AlexNet 技術(shù)創(chuàng)新點(diǎn)

相較于傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)而言,AlexNet的技術(shù)創(chuàng)新體現(xiàn)在四個方面。

其一為Dropout(隨機(jī)失活)。Dropout于2012年由G. Hinton等人提出。該方法通過隨機(jī)舍棄部分隱層節(jié)點(diǎn)來緩解過擬合。目前,Dropout已經(jīng)成為深度學(xué)習(xí)訓(xùn)練常用的技巧之一。

使用Dropout進(jìn)行模型訓(xùn)練的過程為:a. 以一定概率隨機(jī)舍棄部分隱層神經(jīng)元,即將這些神經(jīng)元的輸出設(shè)置為0;b.一小批訓(xùn)練樣本經(jīng)過正向傳播后,在反向傳播更新權(quán)重時不更新其中與被舍棄神經(jīng)元相連的權(quán)重;c. 恢復(fù)被刪除神經(jīng)元,并輸入另一小批訓(xùn)練樣本;d. 重復(fù)步驟a ~ c ,直到處理完所有訓(xùn)練樣本。

其二為LRN(局部響應(yīng)歸一化)。LRN對同一層的多個輸入特征圖在每個位置上做局部歸一化,從而提升高響應(yīng)特征并抑制低響應(yīng)特征。LRN的輸入是卷積層輸出特征圖經(jīng)過ReLU激活函數(shù)后的輸出。但近年來業(yè)界發(fā)現(xiàn)LRN層作用有限,因此目前使用LRN的研究并不多。

其三是Max Pooling(最大池化)。最大池化可以避免特征被平均池化模糊,從而提高特征的魯棒性。在AlexNet之前,很多研究用平均池化;從AlexNet開始,業(yè)界公認(rèn)最大池化的效果比較好。

其四是ReLU激活函數(shù)。在AlexNet之前,常用的激活函數(shù)是sigmoid和tanh。而ReLU函數(shù)很簡單,我們在之前的開小灶中為大家講解過ReLU激活函數(shù)的特征,即輸入小于0時輸出0,輸入大于0時輸出等于輸入??此品浅:唵蔚腞eLU函數(shù)卻在訓(xùn)練時帶來了非常好的效果,這是業(yè)界在AlexNet之前未曾料想到的。AlexNet在卷積層和全連接層的輸出均使用ReLU激活函數(shù),從而有效提高訓(xùn)練時的收斂速度。

AlexNet通過把看似平凡的技術(shù)組合起來取得了驚人的顯著效果。

正是由于AlexNet采用了深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練思路,并輔以ReLU函數(shù)、Dropout及數(shù)據(jù)擴(kuò)充等操作,使得圖像識別真正走向了與深度學(xué)習(xí)結(jié)合發(fā)展的方向。

原文標(biāo)題:基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法講解

文章出處:【微信公眾號:機(jī)器視覺智能檢測】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4819

    瀏覽量

    106066
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4739

    瀏覽量

    96724

原文標(biāo)題:基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法講解

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于FPGA的CLAHE圖像增強(qiáng)算法設(shè)計

    CLAHE圖像增強(qiáng)算法又稱為對比度有限的自適應(yīng)直方圖均衡算法,其算法原理是通過有限的調(diào)整圖像局部對比度來增強(qiáng)有效信號和抑制噪聲信號。
    的頭像 發(fā)表于 10-15 10:14 ?105次閱讀
    基于FPGA的CLAHE<b class='flag-5'>圖像</b>增強(qiáng)<b class='flag-5'>算法</b>設(shè)計

    在友晶LabCloud平臺上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是通過使用多個卷積層來從輸入數(shù)據(jù)中提取特征,最后通過分類層做決策來識別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?742次閱讀
    在友晶LabCloud平臺上使用PipeCNN實(shí)現(xiàn)ImageNet<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>

    基于RV1126開發(fā)板實(shí)現(xiàn)自學(xué)習(xí)圖像分類方案

    在RV1126開發(fā)板上實(shí)現(xiàn)自學(xué)習(xí):在識別前對物體圖片進(jìn)行模型學(xué)習(xí),訓(xùn)練完成后通過算法分類得出圖像的模型ID。 方案設(shè)計邏輯流程圖,方案代碼分為分為兩個業(yè)務(wù)流程,主體代碼負(fù)責(zé)抓取、合成
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)自學(xué)習(xí)<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>方案

    PID控制算法的C語言實(shí)現(xiàn):PID算法原理

    的是,在我所接觸的控制算法當(dāng)中,PID 控制算法又是最簡單,最能體現(xiàn)反饋思想的控制算法,可謂經(jīng)典中的經(jīng)典。
    發(fā)表于 02-26 15:24

    DLPC7540EVM是否支持自定義的圖像處理算法,以及如何進(jìn)行算法的移植?

    是否支持自定義的圖像處理算法,以及如何進(jìn)行算法的移植?
    發(fā)表于 02-17 08:25

    FPGA上的圖像處理算法集成與優(yōu)化

    本文詳細(xì)介紹了多種圖像處理技術(shù),包括RG/GB單通道提取、亮度和對比度調(diào)整、圖像反轉(zhuǎn)、均值濾波、高斯濾波、圖像銳化、中值濾波、閾值分割、邊緣檢測(Sobel算子)、
    的頭像 發(fā)表于 02-14 13:46 ?976次閱讀
    FPGA上的<b class='flag-5'>圖像</b>處理<b class='flag-5'>算法</b>集成與優(yōu)化

    xgboost在圖像分類中的應(yīng)用

    和易用性,在各種機(jī)器學(xué)習(xí)任務(wù)中得到了廣泛應(yīng)用,包括分類、回歸和排序問題。在圖像分類領(lǐng)域,盡管深度學(xué)習(xí)模型(如卷積神經(jīng)網(wǎng)絡(luò)CNN)占據(jù)主導(dǎo)地位,但XGBoost仍然有其獨(dú)特的應(yīng)用價值,特別是在數(shù)據(jù)量較小或需要快速原型開發(fā)的場景中。
    的頭像 發(fā)表于 01-19 11:16 ?1355次閱讀

    經(jīng)典圖神經(jīng)網(wǎng)絡(luò)(GNNs)的基準(zhǔn)分析研究

    本文簡要介紹經(jīng)典圖神經(jīng)網(wǎng)絡(luò)(GNNs)的基準(zhǔn)分析研究,發(fā)表在 NeurIPS 2024。 文章回顧了經(jīng)典 GNNs 模型在節(jié)點(diǎn)分類任務(wù)上的表現(xiàn),結(jié)果發(fā)現(xiàn)過去 SOTA 圖學(xué)習(xí)模型報告
    的頭像 發(fā)表于 11-27 09:16 ?1062次閱讀
    <b class='flag-5'>經(jīng)典</b>圖神經(jīng)網(wǎng)絡(luò)(GNNs)的基準(zhǔn)分析研究

    ?ISP算法及架構(gòu)分析介紹

    一、ISP算法及架構(gòu)分析介紹 ISP即Image Signal Processor,是一種圖像處理架構(gòu),不是我們用的下載器。 ISP其實(shí)算是圖像處理的一個特例,一般應(yīng)用于前端設(shè)備(相對
    的頭像 發(fā)表于 11-26 10:05 ?2377次閱讀
    ?ISP<b class='flag-5'>算法</b>及架構(gòu)分析<b class='flag-5'>介紹</b>

    高通AI Hub:輕松實(shí)現(xiàn)Android圖像分類

    高通AI Hub為開發(fā)者提供了一個強(qiáng)大的平臺,以優(yōu)化、驗證和部署在Android設(shè)備上的機(jī)器學(xué)習(xí)模型。這篇文章將介紹如何使用高通AI Hub進(jìn)行圖像分類的程式碼開發(fā),并提供一個實(shí)際的例子來展示其在Android平臺上的應(yīng)用。
    的頭像 發(fā)表于 11-26 01:03 ?1256次閱讀
    高通AI Hub:輕松實(shí)現(xiàn)Android<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>

    【「從算法到電路—數(shù)字芯片算法的電路實(shí)現(xiàn)」閱讀體驗】+介紹基礎(chǔ)硬件算法模塊

    作為嵌入式開發(fā)者往往比較關(guān)注硬件和軟件的協(xié)調(diào)。本書介紹了除法器,信號發(fā)生器,濾波器,分頻器等基本算法的電路實(shí)現(xiàn),雖然都是基礎(chǔ)內(nèi)容,但是也是最常用到的基本模塊。 隨著逆全球化趨勢的出現(xiàn),過去的研發(fā)
    發(fā)表于 11-21 17:05

    《DNK210使用指南 -CanMV版 V1.0》第四十八章 自學(xué)習(xí)分類實(shí)驗

    介紹,請見第39.1小節(jié)《maix.KPU模塊介紹》。48.2 硬件設(shè)計48.2.1 例程功能1. 獲取攝像頭輸出的圖像,對三類物體分別采集五張圖像后,對采集到的
    發(fā)表于 11-20 09:22

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是一個涉及多個步驟的過程。 1. 問題定義 確定目標(biāo) :明確你想要分類圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及
    的頭像 發(fā)表于 11-15 15:01 ?1137次閱讀

    主動學(xué)習(xí)在圖像分類技術(shù)中的應(yīng)用:當(dāng)前狀態(tài)與未來展望

    本文對近年來提出的主動學(xué)習(xí)圖像分類算法進(jìn)行了詳細(xì)綜述,并根據(jù)所用樣本數(shù)據(jù)處理及模型優(yōu)化方案,將現(xiàn)有算法分為三類:基于數(shù)據(jù)增強(qiáng)的算法,包括利用
    的頭像 發(fā)表于 11-14 10:12 ?1578次閱讀
    主動學(xué)習(xí)在<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>技術(shù)中的應(yīng)用:當(dāng)前狀態(tài)與未來展望

    AI大模型在圖像識別中的優(yōu)勢

    AI大模型在圖像識別中展現(xiàn)出了顯著的優(yōu)勢,這些優(yōu)勢主要源于其強(qiáng)大的計算能力、深度學(xué)習(xí)算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對AI大模型在圖像識別中優(yōu)勢的介紹: 一、高效性與準(zhǔn)確性 處理速
    的頭像 發(fā)表于 10-23 15:01 ?2946次閱讀