chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用PyTorch提取CNNs圖像特征

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:人工智能遇見磐創(chuàng) ? 2020-05-05 08:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目錄

簡要介紹PyTorch、張量和NumPy

為什么選擇卷積神經(jīng)網(wǎng)絡(luò)(CNNs)?

識別服裝問題

使用PyTorch實(shí)現(xiàn)CNNs

1.簡要介紹PyTorch、張量和NumPy

讓我們快速回顧一下第一篇文章中涉及的內(nèi)容。我們討論了PyTorch和張量的基礎(chǔ)知識,還討論了PyTorch與NumPy的相似之處。

PyTorch是一個基于python的庫,提供了以下功能:

用于創(chuàng)建可序列化和可優(yōu)化模型的TorchScript

以分布式訓(xùn)練進(jìn)行并行化計(jì)算

動態(tài)計(jì)算圖,等等

PyTorch中的張量類似于NumPy的n維數(shù)組,也可以與gpu一起使用。在這些張量上執(zhí)行操作幾乎與在NumPy數(shù)組上執(zhí)行操作類似。這使得PyTorch非常易于使用和學(xué)習(xí)。

在本系列的第1部分中,我們構(gòu)建了一個簡單的神經(jīng)網(wǎng)絡(luò)來解決一個案例研究。使用我們的簡單模型,我們在測試集中獲得了大約65%的基準(zhǔn)準(zhǔn)確度?,F(xiàn)在,我們將嘗試使用卷積神經(jīng)網(wǎng)絡(luò)來提高這個準(zhǔn)確度。

2.為什么選擇卷積神經(jīng)網(wǎng)絡(luò)(CNNs)?

在我們進(jìn)入實(shí)現(xiàn)部分之前,讓我們快速地看看為什么我們首先需要CNNs,以及它們是如何工作的。

我們可以將卷積神經(jīng)網(wǎng)絡(luò)(CNNs)看作是幫助從圖像中提取特征的特征提取器。

在一個簡單的神經(jīng)網(wǎng)絡(luò)中,我們把一個三維圖像轉(zhuǎn)換成一維圖像,對吧?讓我們看一個例子來理解這一點(diǎn):

使用PyTorch提取CNNs圖像特征

你能認(rèn)出上面的圖像嗎?這似乎說不通?,F(xiàn)在,讓我們看看下面的圖片:

我們現(xiàn)在可以很容易地說,這是一只狗。如果我告訴你這兩個圖像是一樣的呢?相信我,他們是一樣的!唯一的區(qū)別是第一個圖像是一維的,而第二個圖像是相同圖像的二維表示

空間定位

人工神經(jīng)網(wǎng)絡(luò)也會丟失圖像的空間方向。讓我們再舉個例子來理解一下:

使用PyTorch提取CNNs圖像特征

你能分辨出這兩幅圖像的區(qū)別嗎?至少我不能。由于這是一個一維的表示,因此很難確定它們之間的區(qū)別?,F(xiàn)在,讓我們看看這些圖像的二維表示:

在這里,圖像某些定位已經(jīng)改變,但我們無法通過查看一維表示來識別它。

這就是人工神經(jīng)網(wǎng)絡(luò)的問題——它們失去了空間定位。

大量參數(shù)

神經(jīng)網(wǎng)絡(luò)的另一個問題是參數(shù)太多。假設(shè)我們的圖像大小是28283 -所以這里的參數(shù)是2352。如果我們有一個大小為2242243的圖像呢?這里的參數(shù)數(shù)量為150,528。

這些參數(shù)只會隨著隱藏層的增加而增加。因此,使用人工神經(jīng)網(wǎng)絡(luò)的兩個主要缺點(diǎn)是:

丟失圖像的空間方向

參數(shù)的數(shù)量急劇增加

那么我們?nèi)绾翁幚磉@個問題呢?如何在保持空間方向的同時(shí)減少可學(xué)習(xí)參數(shù)?

這就是卷積神經(jīng)網(wǎng)絡(luò)真正有用的地方。CNNs有助于從圖像中提取特征,這可能有助于對圖像中的目標(biāo)進(jìn)行分類。它首先從圖像中提取低維特征(如邊緣),然后提取一些高維特征(如形狀)。

我們使用濾波器從圖像中提取特征,并使用池技術(shù)來減少可學(xué)習(xí)參數(shù)的數(shù)量。

在本文中,我們不會深入討論這些主題的細(xì)節(jié)。如果你希望了解濾波器如何幫助提取特征和池的工作方式,我強(qiáng)烈建議你從頭開始學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的全面教程。

3.問題:識別服裝

理論部分已經(jīng)鋪墊完了,開始寫代碼吧。我們將討論與第一篇文章相同的問題陳述。這是因?yàn)槲覀兛梢灾苯訉⑽覀兊腃NN模型的性能與我們在那里建立的簡單神經(jīng)網(wǎng)絡(luò)進(jìn)行比較。

你可以從這里下載“識別”Apparels問題的數(shù)據(jù)集。

https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-apparels/?utmsource=blog&utmmedium=building-image-classification-models-cnn-pytorch

讓我快速總結(jié)一下問題陳述。我們的任務(wù)是通過觀察各種服裝形象來識別服裝的類型。我們總共有10個類可以對服裝的圖像進(jìn)行分類:

使用PyTorch提取CNNs圖像特征

數(shù)據(jù)集共包含70,000張圖像。其中60000張屬于訓(xùn)練集,其余10000張屬于測試集。所有的圖像都是大小(28*28)的灰度圖像。數(shù)據(jù)集包含兩個文件夾,一個用于訓(xùn)練集,另一個用于測試集。每個文件夾中都有一個.csv文件,該文件具有圖像的id和相應(yīng)的標(biāo)簽;

準(zhǔn)備好開始了嗎?我們將首先導(dǎo)入所需的庫:

加載數(shù)據(jù)集

現(xiàn)在,讓我們加載數(shù)據(jù)集,包括訓(xùn)練,測試樣本:

該訓(xùn)練文件包含每個圖像的id及其對應(yīng)的標(biāo)簽

另一方面,測試文件只有id,我們必須預(yù)測它們對應(yīng)的標(biāo)簽

樣例提交文件將告訴我們預(yù)測的格式

我們將一個接一個地讀取所有圖像,并將它們堆疊成一個數(shù)組。我們還將圖像的像素值除以255,使圖像的像素值在[0,1]范圍內(nèi)。這一步有助于優(yōu)化模型的性能。

讓我們來加載圖像:

如你所見,我們在訓(xùn)練集中有60,000張大小(28,28)的圖像。由于圖像是灰度格式的,我們只有一個單一通道,因此形狀為(28,28)。

現(xiàn)在讓我們研究數(shù)據(jù)和可視化一些圖像:

使用PyTorch提取CNNs圖像特征

以下是來自數(shù)據(jù)集的一些示例。我鼓勵你去探索更多,想象其他的圖像。接下來,我們將把圖像分成訓(xùn)練集和驗(yàn)證集。

創(chuàng)建驗(yàn)證集并對圖像進(jìn)行預(yù)處理

我們在驗(yàn)證集中保留了10%的數(shù)據(jù),在訓(xùn)練集中保留了10%的數(shù)據(jù)。接下來將圖片和目標(biāo)轉(zhuǎn)換成torch格式:

同樣,我們將轉(zhuǎn)換驗(yàn)證圖像:

我們的數(shù)據(jù)現(xiàn)在已經(jīng)準(zhǔn)備好了。最后,是時(shí)候創(chuàng)建我們的CNN模型了!

4.使用PyTorch實(shí)現(xiàn)CNNs

我們將使用一個非常簡單的CNN架構(gòu),只有兩個卷積層來提取圖像的特征。然后,我們將使用一個完全連接的Dense層將這些特征分類到各自的類別中。

讓我們定義一下架構(gòu):

現(xiàn)在我們調(diào)用這個模型,定義優(yōu)化器和模型的損失函數(shù):

使用PyTorch提取CNNs圖像特征

這是模型的架構(gòu)。我們有兩個卷積層和一個線性層。接下來,我們將定義一個函數(shù)來訓(xùn)練模型:

最后,我們將對模型進(jìn)行25個epoch的訓(xùn)練,并存儲訓(xùn)練和驗(yàn)證損失:

使用PyTorch提取CNNs圖像特征

可以看出,隨著epoch的增加,驗(yàn)證損失逐漸減小。讓我們通過繪圖來可視化訓(xùn)練和驗(yàn)證的損失:

使用PyTorch提取CNNs圖像特征

啊,我喜歡想象的力量。我們可以清楚地看到,訓(xùn)練和驗(yàn)證損失是同步的。這是一個好跡象,因?yàn)槟P驮隍?yàn)證集上進(jìn)行了很好的泛化。

讓我們在訓(xùn)練和驗(yàn)證集上檢查模型的準(zhǔn)確性:

訓(xùn)練集的準(zhǔn)確率約為72%,相當(dāng)不錯。讓我們檢查驗(yàn)證集的準(zhǔn)確性:

正如我們看到的損失,準(zhǔn)確度也是同步的-我們在驗(yàn)證集得到了72%的準(zhǔn)確度。

為測試集生成預(yù)測

最后是時(shí)候?yàn)闇y試集生成預(yù)測了。我們將加載測試集中的所有圖像,執(zhí)行與訓(xùn)練集相同的預(yù)處理步驟,最后生成預(yù)測。

所以,讓我們開始加載測試圖像:

現(xiàn)在,我們將對這些圖像進(jìn)行預(yù)處理步驟,類似于我們之前對訓(xùn)練圖像所做的:

最后,我們將生成對測試集的預(yù)測:

用預(yù)測替換樣本提交文件中的標(biāo)簽,最后保存文件并提交到排行榜:

你將在當(dāng)前目錄中看到一個名為submission.csv的文件。你只需要把它上傳到問題頁面的解決方案檢查器上,它就會生成分?jǐn)?shù)。鏈接:https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-apparels/?utmsource=blog&utmmedium=building-image-classification-models-cnn-pytorch

我們的CNN模型在測試集上給出了大約71%的準(zhǔn)確率,這與我們在上一篇文章中使用簡單的神經(jīng)網(wǎng)絡(luò)得到的65%的準(zhǔn)確率相比是一個很大的進(jìn)步。

5.結(jié)尾

在這篇文章中,我們研究了CNNs是如何從圖像中提取特征的。他們幫助我們將之前的神經(jīng)網(wǎng)絡(luò)模型的準(zhǔn)確率從65%提高到71%,這是一個重大的進(jìn)步。

你可以嘗試使用CNN模型的超參數(shù),并嘗試進(jìn)一步提高準(zhǔn)確性。要調(diào)優(yōu)的超參數(shù)可以是卷積層的數(shù)量、每個卷積層的濾波器數(shù)量、epoch的數(shù)量、全連接層的數(shù)量、每個全連接層的隱藏單元的數(shù)量等。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • python
    +關(guān)注

    關(guān)注

    57

    文章

    4856

    瀏覽量

    89520
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    812

    瀏覽量

    14660
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    京東拍立淘API開發(fā)指南:從零開始構(gòu)建圖像搜索應(yīng)用

    京東圖片識別搜索API(拍立淘)是基于深度學(xué)習(xí)的視覺搜索服務(wù),通過卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征向量,結(jié)合近似最近鄰搜索算法實(shí)現(xiàn)商品精準(zhǔn)匹配?。該技術(shù)解決了傳統(tǒng)文字搜索難以描述商品外觀的痛點(diǎn),支持以圖搜圖的智能購物體驗(yàn)?。
    的頭像 發(fā)表于 11-09 17:40 ?1938次閱讀

    淘寶圖片搜索接口開發(fā)實(shí)戰(zhàn):從 CNN 特征提取到商品匹配(附避坑手冊 + 可復(fù)用代碼)

    本文詳解淘寶圖片搜索接口開發(fā)全流程,涵蓋CNN特征提取、商品匹配、參數(shù)配置及400/429等高頻報(bào)錯解決方案,附合規(guī)避坑指南與可復(fù)用代碼,助你高效實(shí)現(xiàn)圖像搜商品功能。
    的頭像 發(fā)表于 10-21 10:03 ?245次閱讀

    大電流起弧過程中電弧聲壓/超聲波信號的特征提取與故障診斷

    接觸不良、絕緣破損、元件老化等故障時(shí),電弧的燃燒狀態(tài)會發(fā)生改變,相應(yīng)的聲壓超聲波信號也會出現(xiàn)異常變化。因此,通過提取這些信號中的關(guān)鍵特征,并結(jié)合特征變化規(guī)律進(jìn)行分析,就能實(shí)現(xiàn)對大電流起弧過程中故障的精準(zhǔn)診
    的頭像 發(fā)表于 09-29 09:27 ?261次閱讀
    大電流起弧過程中電弧聲壓/超聲波信號的<b class='flag-5'>特征提取</b>與故障診斷

    高光譜成像技術(shù)在指紋提取的研究和應(yīng)用

    指紋作為個體獨(dú)特的生物特征,廣泛應(yīng)用于法醫(yī)學(xué)、身份認(rèn)證和安防領(lǐng)域。傳統(tǒng)的指紋提取技術(shù)(如光學(xué)成像、電容式傳感器、化學(xué)顯影等)在面對復(fù)雜表面材質(zhì)(如金屬、玻璃、潮濕表面)或降解指紋時(shí)存在局限性。近年來
    的頭像 發(fā)表于 09-26 17:55 ?1149次閱讀
    高光譜成像技術(shù)在指紋<b class='flag-5'>提取</b>的研究和應(yīng)用

    基于LockAI視覺識別模塊:C++使用圖像的統(tǒng)計(jì)信息

    圖像處理中,統(tǒng)計(jì)信息可以幫助我們了解圖像的特性,例如區(qū)域內(nèi)的像素分布、顏色轉(zhuǎn)換以及特定區(qū)域的分析。本文將介紹基于LockAI視覺識別模塊如何提取興趣區(qū)域(ROI)、轉(zhuǎn)換顏色通道、計(jì)算均值和標(biāo)準(zhǔn)差
    發(fā)表于 05-08 10:31

    在友晶LabCloud平臺上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是通過使用多個卷積層來從輸入數(shù)據(jù)中提取特征,最后通過分類層做決策來識別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?862次閱讀
    在友晶LabCloud平臺上使用PipeCNN實(shí)現(xiàn)ImageNet<b class='flag-5'>圖像</b>分類

    概倫電子標(biāo)準(zhǔn)單元庫特征化解決方案NanoCell介紹

    標(biāo)準(zhǔn)單元庫包括電路設(shè)計(jì)、版圖設(shè)計(jì)和特征提取,它對芯片設(shè)計(jì)至關(guān)重要。其中標(biāo)準(zhǔn)單元庫的特征提取需要大量仿真、模型提取和驗(yàn)證,在標(biāo)準(zhǔn)單元庫開發(fā)中占據(jù)了三分之一以上的時(shí)間。
    的頭像 發(fā)表于 04-16 09:49 ?756次閱讀
    概倫電子標(biāo)準(zhǔn)單元庫<b class='flag-5'>特征</b>化解決方案NanoCell介紹

    給個思路也可以(不知道這個無線通信模塊怎么實(shí)現(xiàn))

    有償定做一個智能考勤機(jī) 要求:(1)指紋模塊:采集指紋圖像和傳輸指紋信息,對指紋圖像進(jìn)行預(yù)處理,消除噪聲干擾,還原圖像的真實(shí)特征信息。完成特征提取
    發(fā)表于 03-21 16:50

    【米爾RK3576開發(fā)板評測】+項(xiàng)目名稱RetinaFace人臉檢測

    一、簡介 Pytorch_Retinaface?是一個基于PyTorch框架實(shí)現(xiàn)的人臉檢測算法,它能夠快速而準(zhǔn)確地檢測出圖像中的人臉,并提供豐富的特征信息。該算法的核心思想是使用多尺度
    發(fā)表于 02-15 13:28

    FPGA上的圖像處理算法集成與優(yōu)化

    本文詳細(xì)介紹了多種圖像處理技術(shù),包括RG/GB單通道提取、亮度和對比度調(diào)整、圖像反轉(zhuǎn)、均值濾波、高斯濾波、圖像銳化、中值濾波、閾值分割、邊緣檢測(Sobel算子)、
    的頭像 發(fā)表于 02-14 13:46 ?1127次閱讀
    FPGA上的<b class='flag-5'>圖像</b>處理算法集成與優(yōu)化

    操作指南:pytorch云服務(wù)器怎么設(shè)置?

    設(shè)置PyTorch云服務(wù)器需選擇云平臺,創(chuàng)建合適的GPU實(shí)例,安裝操作系統(tǒng)、Python及Anaconda,創(chuàng)建虛擬環(huán)境,根據(jù)CUDA版本安裝PyTorch,配置環(huán)境變量,最后驗(yàn)證安裝。過程中需考慮
    的頭像 發(fā)表于 02-08 10:33 ?592次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+兩本互為支持的書

    最近在閱讀《具身智能機(jī)器人系統(tǒng)》這本書的同時(shí),還讀了 《計(jì)算機(jī)視覺之PyTorch數(shù)字圖像處理》一書,這兩本書完全可以視為是互為依托的姊妹篇。《計(jì)算機(jī)視覺之PyTorch數(shù)字圖像處理》
    發(fā)表于 01-01 15:50

    使用機(jī)器學(xué)習(xí)改善庫特征提取的質(zhì)量和運(yùn)行時(shí)間

    基于靜態(tài)時(shí)序分析(STA)的現(xiàn)代設(shè)計(jì)流程非常依賴標(biāo)準(zhǔn)單元、IO、存儲器和定制模塊的特征化Liberty模型。高效、準(zhǔn)確的庫特征提取是全芯片或模塊級設(shè)計(jì)流程的關(guān)鍵步驟之一,因?yàn)樗艽_保所有庫單元在所
    的頭像 發(fā)表于 12-26 11:15 ?718次閱讀
    使用機(jī)器學(xué)習(xí)改善庫<b class='flag-5'>特征提取</b>的質(zhì)量和運(yùn)行時(shí)間

    利用Arm Kleidi技術(shù)實(shí)現(xiàn)PyTorch優(yōu)化

    PyTorch 是一個廣泛應(yīng)用的開源機(jī)器學(xué)習(xí) (ML) 庫。近年來,Arm 與合作伙伴通力協(xié)作,持續(xù)改進(jìn) PyTorch 的推理性能。本文將詳細(xì)介紹如何利用 Arm Kleidi 技術(shù)提升 Arm
    的頭像 發(fā)表于 12-23 09:19 ?1593次閱讀
    利用Arm Kleidi技術(shù)實(shí)現(xiàn)<b class='flag-5'>PyTorch</b>優(yōu)化

    PyTorch 2.5.1: Bugs修復(fù)版發(fā)布

    ? 一,前言 在深度學(xué)習(xí)框架的不斷迭代中,PyTorch 社區(qū)始終致力于提供更穩(wěn)定、更高效的工具。最近,PyTorch 2.5.1 版本正式發(fā)布,這個版本主要針對 2.5.0 中發(fā)現(xiàn)的問題進(jìn)行了修復(fù)
    的頭像 發(fā)表于 12-03 16:11 ?1939次閱讀
    <b class='flag-5'>PyTorch</b> 2.5.1: Bugs修復(fù)版發(fā)布