chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工神經(jīng)網(wǎng)絡(luò)中語(yǔ)音分析與圖像識(shí)別的研究

0BFC_eet_china ? 來(lái)源:互聯(lián)網(wǎng) ? 作者:佚名 ? 2017-09-27 14:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是人工神經(jīng)網(wǎng)絡(luò)的一種,是當(dāng)下語(yǔ)音分析和圖像識(shí)別領(lǐng)域的研究熱點(diǎn)。

這篇文章用最簡(jiǎn)明的語(yǔ)言和最直觀的圖像,帶你入門CNN。準(zhǔn)備好了嗎?Let’s go——

我們先從最基礎(chǔ)的內(nèi)容說(shuō)起。

對(duì)二維數(shù)字信號(hào)(圖像)的操作,可以寫成矩陣形式。

比如對(duì)圖像做平滑,一個(gè)典型的8領(lǐng)域平滑,其結(jié)果中的每個(gè)值都來(lái)源于原對(duì)應(yīng)位置和其周邊8個(gè)元素與一個(gè)3X3矩陣的乘積:

也就相當(dāng)于對(duì)原矩陣,按照順序?qū)⒏鲄^(qū)域元素與W矩陣相乘,W 矩陣為:

這也被稱作核(Kernel, 3X3)

其處理效果如下:

也就是,這個(gè)核對(duì)圖像進(jìn)行操作,相當(dāng)于對(duì)圖像進(jìn)行了低通濾波。因此這個(gè)核也被稱為濾波器,整個(gè)操作過(guò)程按照概念稱為卷積。

擴(kuò)展來(lái)講,對(duì)二維圖像的濾波操作可以寫成卷積,比如常見(jiàn)的高斯濾波、拉普拉斯濾波(算子)等。

濾波器跟卷積神經(jīng)網(wǎng)絡(luò)有什么關(guān)系呢。不如我們預(yù)想一個(gè)識(shí)別問(wèn)題:我們要識(shí)別圖像中的某種特定曲線,也就是說(shuō),這個(gè)濾波器要對(duì)這種曲線有很高的輸出,對(duì)其他形狀則輸出很低,這也就像是神經(jīng)元的激活。

我們?cè)O(shè)計(jì)的濾波器和想要識(shí)別的曲線如下:

假設(shè)上面的核(濾波器)按照卷積順序沿著下圖移動(dòng):

那么當(dāng)它移動(dòng)到上面的位置時(shí),按照矩陣操作,將這個(gè)區(qū)域的圖像像素值與濾波器相乘,我們得到一個(gè)很大的值(6600):

而當(dāng)這個(gè)濾波器移動(dòng)到其他區(qū)域時(shí),我們得到一個(gè)相對(duì)很小的值:

如此,我們對(duì)整個(gè)原圖進(jìn)行一次卷積,得到的結(jié)果中,在那個(gè)特定曲線和周邊區(qū)域,值就很高,在其他區(qū)域,值相對(duì)低。這就是一張激活圖。對(duì)應(yīng)的高值區(qū)域就是我們所要檢測(cè)曲線的位置。

在訓(xùn)練卷積審計(jì)網(wǎng)絡(luò)(CNN)的某一個(gè)卷積層時(shí),我們實(shí)際上是在訓(xùn)練一系列的濾波器(filter)。比如,對(duì)于一個(gè)32x32x3(寬32像素x高32像素xRGB三通道)的圖像,如果我們?cè)贑NN的第一個(gè)卷積層定義訓(xùn)練12個(gè)濾波器,那就這一層的輸出便是32X32X12.按照不同的任務(wù),我們可以對(duì)這個(gè)輸出做進(jìn)一步的處理,這包括激活函數(shù),池化,全連接等。

簡(jiǎn)單來(lái)說(shuō),訓(xùn)練CNN在相當(dāng)意義上是在訓(xùn)練每一個(gè)卷積層的濾波器。讓這些濾波器組對(duì)特定的模式有高的激活,以達(dá)到CNN網(wǎng)絡(luò)的分類/檢測(cè)等目的。

一個(gè)實(shí)際CNN(AlexNet)第一個(gè)卷積層的濾波器>

卷積神經(jīng)網(wǎng)絡(luò)的第一個(gè)卷積層的濾波器用來(lái)檢測(cè)低階特征,比如邊、角、曲線等。隨著卷積層的增加,對(duì)應(yīng)濾波器檢測(cè)的特征就更加復(fù)雜(理性情況下,也是我們想要的情況)。

比如第二個(gè)卷積層的輸入實(shí)際上是第一層的輸出(濾波器激活圖),這一層的濾波器便是用來(lái)檢測(cè)低價(jià)特征的組合等情況(半圓、四邊形等),如此累積,以檢測(cè)越來(lái)越復(fù)雜的特征。實(shí)際上,我們的人類大腦的視覺(jué)信息處理也遵循這樣的低階特征到高階特征的模式。

可參考之前文章《為什么無(wú)彩色系(黑白灰色)在色彩搭配中可以和諧地與任何彩色搭配?》:https://www.zhihu.com/question/27380522/answer/36794240

最后一層的濾波器按照訓(xùn)練CNN目的的不同,可能是在檢測(cè)到人臉、手寫字體等時(shí)候激活[1]。

所以,在相當(dāng)程度上,構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)的任務(wù)就在于構(gòu)建這些濾波器。也就是,將這些濾波器變成這樣(改變?yōu)V波器矩陣的值,也就是Weight)的——能識(shí)別特定的特征。這個(gè)過(guò)程叫做訓(xùn)練。

在訓(xùn)練開(kāi)始之時(shí),卷積層的濾波器是完全隨機(jī)的,它們不會(huì)對(duì)任何特征激活(不能檢測(cè)任何特征)。這就像剛出生的孩子,TA不知道什么是人臉、什么是狗,什么是上下左右。

TA需要學(xué)習(xí)才知道這些概念,也就是通過(guò)接觸人臉、狗、上下左右,并被告知這些東西分別是人臉、狗、上下左右。然后TA才能在頭腦中記住這些概念,并在之后的某一次見(jiàn)到之后能準(zhǔn)確的給出結(jié)果。

把一個(gè)空白的濾波其,修改其權(quán)重(weights)以使它能檢測(cè)特定的模式,整個(gè)過(guò)程就如工程里面的反饋。

想想一下,如果有一只無(wú)意識(shí)的猴子,完全隨機(jī)的修改一個(gè)5X5濾波器矩陣的25個(gè)值,那完全可能經(jīng)過(guò)一定的輪次之后,這個(gè)濾波器能夠檢測(cè)棱角等特征。這是一種無(wú)反饋的訓(xùn)練情況。對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練當(dāng)然不能如此,我們不可能靠運(yùn)氣去做這件事情。

舉個(gè)例子,我們要訓(xùn)練一個(gè)用于分類的神經(jīng)網(wǎng)絡(luò),讓它能判定輸入圖像中的物體最可能是十個(gè)類別的哪一類。那么,訓(xùn)練過(guò)程就是這樣的:

第一次訓(xùn)練,輸入一張圖像,這個(gè)圖像通過(guò)各層卷積處理輸出量一組向量[1,1,1,1,1,1,1,1,1,1], 也就是,對(duì)于完全由隨機(jī)濾波器構(gòu)建的網(wǎng)絡(luò),其輸出認(rèn)為這張圖等概率的是十個(gè)類別中的某一種。

但是對(duì)于訓(xùn)練,我們有一個(gè)Gound Thuth, 也就是這張圖中物體所屬的類別:[0,0,1,0,0,0,0,0,0,0],也就是屬于第三類。這時(shí)候我們可以定義一個(gè)損失函數(shù),比如常見(jiàn)的MSE(mean squared error)。

我們假定L是這個(gè)損失函數(shù)的輸出。這時(shí)候我們的目的就是,讓L的值反饋(這種神經(jīng)網(wǎng)絡(luò)概念下稱為 back propagation, 反向傳輸)給整個(gè)卷積神經(jīng)網(wǎng)絡(luò),以修改各個(gè)濾波器的權(quán)重,使得損失值L最小。

這是一個(gè)典型的最優(yōu)化問(wèn)題。當(dāng)然地,在工程上我們幾乎不可能一次就把濾波器的權(quán)重W修改到使L最小的情況,而是需要多次訓(xùn)練和多次修改。

如果情況理想的話,權(quán)重修改的方向是使得L的變化收斂的。這也就是說(shuō)很可能達(dá)到了我們訓(xùn)練這個(gè)神經(jīng)網(wǎng)絡(luò)的目的——讓各個(gè)卷積層的濾波器能夠組合起來(lái)最優(yōu)化的檢測(cè)特定的模式。

參考文獻(xiàn)

[1] Zeiler, M. D., & Fergus, R. (2014, September). Visualizing and understanding convolutional networks. In European conference on computer vision (pp. 818-833). Springer, Cham.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4819

    瀏覽量

    106054
  • 圖像識(shí)別
    +關(guān)注

    關(guān)注

    9

    文章

    529

    瀏覽量

    39650
  • 人工智能
    +關(guān)注

    關(guān)注

    1811

    文章

    49497

    瀏覽量

    258152

原文標(biāo)題:給你一個(gè)卷積神經(jīng)網(wǎng)絡(luò)工作原理最直觀的解釋

文章出處:【微信號(hào):eet-china,微信公眾號(hào):電子工程專輯】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)的仿真研究

    ,在一定程度上擴(kuò)展了轉(zhuǎn)速估計(jì)范圍。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)的仿真研究.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者
    發(fā)表于 06-16 21:54

    AI神經(jīng)網(wǎng)絡(luò)降噪算法在語(yǔ)音通話產(chǎn)品的應(yīng)用優(yōu)勢(shì)與前景分析

    隨著人工智能技術(shù)的快速發(fā)展,AI神經(jīng)網(wǎng)絡(luò)降噪算法在語(yǔ)音通話產(chǎn)品的應(yīng)用正逐步取代傳統(tǒng)降噪技術(shù),成為提升語(yǔ)音質(zhì)量的關(guān)鍵解決方案。相比傳統(tǒng)DSP
    的頭像 發(fā)表于 05-16 17:07 ?851次閱讀
    AI<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>降噪算法在<b class='flag-5'>語(yǔ)音</b>通話產(chǎn)品<b class='flag-5'>中</b>的應(yīng)用優(yōu)勢(shì)與前景<b class='flag-5'>分析</b>

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?1270次閱讀

    BP神經(jīng)網(wǎng)絡(luò)圖像識(shí)別的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)圖像識(shí)別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到復(fù)雜的特征表達(dá),適用于處理非線性問(wèn)題。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)圖像識(shí)別
    的頭像 發(fā)表于 02-12 15:12 ?983次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01
    的頭像 發(fā)表于 01-09 10:24 ?1782次閱讀
    <b class='flag-5'>人工</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    ASR與傳統(tǒng)語(yǔ)音識(shí)別的區(qū)別

    識(shí)別技術(shù)。 構(gòu)建更深更復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,利用大量數(shù)據(jù)進(jìn)行訓(xùn)練。 提高了語(yǔ)音識(shí)別的準(zhǔn)確率和穩(wěn)定性。 傳統(tǒng)語(yǔ)音
    的頭像 發(fā)表于 11-18 15:22 ?1796次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別語(yǔ)音處理等領(lǐng)域取
    的頭像 發(fā)表于 11-15 14:58 ?1055次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?2248次閱讀

    深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理
    的頭像 發(fā)表于 11-15 14:52 ?1071次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)圖像處理的應(yīng)用

    長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴關(guān)系。雖然LSTM最初是為處理序列數(shù)據(jù)設(shè)計(jì)的,但近年來(lái),它在圖像處理領(lǐng)域也展現(xiàn)出了巨大的潛力。 LSTM基本原理
    的頭像 發(fā)表于 11-13 10:12 ?1890次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)語(yǔ)音識(shí)別的應(yīng)用實(shí)例

    語(yǔ)音識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它使計(jì)算機(jī)能夠理解和處理人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)的引入,語(yǔ)音
    的頭像 發(fā)表于 11-13 10:03 ?2234次閱讀

    AI圖像識(shí)別攝像機(jī)

    隨著科技的迅猛發(fā)展,人工智能(AI)在各個(gè)領(lǐng)域的應(yīng)用越來(lái)越廣泛,其中圖像識(shí)別技術(shù)尤為引人注目。AI圖像識(shí)別攝像機(jī)作為這一技術(shù)的重要應(yīng)用之一,正在逐步改變我們的生活和工作方式。什么是AI圖像識(shí)別
    的頭像 發(fā)表于 11-08 10:38 ?1152次閱讀
    AI<b class='flag-5'>圖像識(shí)別</b>攝像機(jī)

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    不熟悉神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí),或者想了解神經(jīng)網(wǎng)絡(luò)如何優(yōu)化加速實(shí)驗(yàn)研究,請(qǐng)繼續(xù)閱讀,探索基于深度學(xué)習(xí)的現(xiàn)代智能化實(shí)驗(yàn)的廣闊應(yīng)用前景。什么是神經(jīng)網(wǎng)絡(luò)?“人工
    的頭像 發(fā)表于 11-01 08:06 ?842次閱讀
    Moku<b class='flag-5'>人工</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    這個(gè)小型網(wǎng)絡(luò),用于描述網(wǎng)絡(luò)的方程也具有32個(gè)偏置和32個(gè)權(quán)重。 CIFAR神經(jīng)網(wǎng)絡(luò)是一種廣泛用于圖像識(shí)別的CNN。它主要由兩種類型的層組成
    發(fā)表于 10-24 13:56

    AI大模型在圖像識(shí)別的優(yōu)勢(shì)

    大模型借助高性能的計(jì)算硬件和優(yōu)化的算法,能夠在短時(shí)間內(nèi)完成對(duì)大量圖像數(shù)據(jù)的處理和分析,顯著提高了圖像識(shí)別的效率。 識(shí)別準(zhǔn)確性 :通過(guò)深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)技術(shù),AI大模型能夠自動(dòng)提取
    的頭像 發(fā)表于 10-23 15:01 ?2943次閱讀