chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機(jī)器學(xué)習(xí)?

analog_devices ? 來源:未知 ? 2023-03-11 23:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來越多地支持以前無法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了卷積神經(jīng)網(wǎng)絡(luò)(CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從復(fù)雜數(shù)據(jù)中提取特征的強(qiáng)大工具,例如識(shí)別音頻信號(hào)或圖像信號(hào)中的復(fù)雜模式就是其應(yīng)用之一。

1 什么是卷積神經(jīng)網(wǎng)絡(luò)?

神經(jīng)網(wǎng)絡(luò)是一種由神經(jīng)元組成的系統(tǒng)或結(jié)構(gòu),它使AI能夠更好地理解數(shù)據(jù),進(jìn)而解決復(fù)雜問題。雖然神經(jīng)網(wǎng)絡(luò)有許多種類型,但本文將只關(guān)注卷積神經(jīng)網(wǎng)絡(luò)(CNN),其主要應(yīng)用領(lǐng)域是對(duì)輸入數(shù)據(jù)的模式識(shí)別和對(duì)象分類。CNN是一種用于深度學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)。這種網(wǎng)絡(luò)由輸入層、若干卷積層和輸出層組成。卷積層是最重要的部分,它們使用一組獨(dú)特的權(quán)重和濾波器,使得網(wǎng)絡(luò)可以從輸入數(shù)據(jù)中提取特征。數(shù)據(jù)可以是許多不同的形式,如圖像、音頻和文本。這種提取特征的過程使CNN能夠識(shí)別數(shù)據(jù)中的模式從而讓工程師能夠創(chuàng)建更有效和高效的應(yīng)用。為了更好地理解CNN,我們首先將討論經(jīng)典的線性規(guī)劃。

2 經(jīng)典控制技術(shù)中的線性規(guī)劃

控制技術(shù)的任務(wù)是借助傳感器讀取數(shù)據(jù)并進(jìn)行處理,然后根據(jù)規(guī)則做出響應(yīng),最后顯示或發(fā)送結(jié)果。例如,溫度調(diào)節(jié)器每秒鐘測(cè)量一次溫度,通過微控制器單元(MCU)讀取溫度傳感器的數(shù)據(jù)。該數(shù)值用于閉環(huán)控制系統(tǒng)的輸入,并與設(shè)定的溫度進(jìn)行比較。這就是一個(gè)借助MCU執(zhí)行線性規(guī)劃的例子,這種技術(shù)通過比較預(yù)編程值和實(shí)際值來給出明確的結(jié)論。相比之下,AI系統(tǒng)通常依據(jù)概率論來發(fā)揮作用。

3 復(fù)雜模式和信號(hào)處理

許多應(yīng)用所使用的輸入數(shù)據(jù)必須首先由模式識(shí)別系統(tǒng)加以判別。模式識(shí)別可以應(yīng)用于不同的數(shù)據(jù)結(jié)構(gòu)。本文討論的例子限定為一維或二維的數(shù)據(jù)結(jié)構(gòu),比如音頻信號(hào)、心電圖(ECG)、光電容積脈搏波(PPG)、一維的振動(dòng)數(shù)據(jù)或波形、熱圖像、二維的瀑布圖數(shù)據(jù)。

在上述模式識(shí)別中,將應(yīng)用通過MCU的代碼來實(shí)現(xiàn)是極其困難的。一個(gè)例子是識(shí)別圖像中的具體對(duì)象(例如貓):這種情況下無法區(qū)分要分析的圖像是很早攝錄的,還是剛剛由從相機(jī)讀取的。分析軟件基于一些特定的規(guī)則來判斷圖片中是否有貓:比如說貓必須有典型的尖耳朵、三角形的鼻子和胡須。如果可以在圖像中識(shí)別出這些特征,軟件便可以報(bào)告在圖像中發(fā)現(xiàn)了貓。但是這存在一些問題:如果圖像只顯示了貓的背面,模式識(shí)別系統(tǒng)會(huì)怎么辦?如果貓沒有胡須或者在事故中失去了腿,會(huì)發(fā)生什么?盡管這些異常情況不太可能出現(xiàn),但模式識(shí)別的代碼將不得不考慮所有可能的異常情況,從而增加大量額外的規(guī)則。即使在這個(gè)簡單的例子中,軟件設(shè)置的規(guī)則也會(huì)變得非常復(fù)雜。

4 機(jī)器學(xué)習(xí)如何取代經(jīng)典規(guī)則

AI背后的核心思想是在小范圍內(nèi)模仿人類進(jìn)行學(xué)習(xí)。它不依賴于制定大量的if-then規(guī)則,而是建立一個(gè)通用的模式識(shí)別的機(jī)器模型。這兩種方法的關(guān)鍵區(qū)別在于,與一套復(fù)雜的規(guī)則相比,AI不會(huì)提供明確的結(jié)果。AI不會(huì)明確報(bào)告"我在圖像中識(shí)別出了一只貓",而是提供類似這樣的結(jié)論:"圖像中有一只貓的概率為97.5%,它也可能是豹子(2.1%)或老虎(0.4%)。"這意味著在模式識(shí)別的過程結(jié)束時(shí),應(yīng)用的開發(fā)人員必須通過決策閾值做出決定。

另一個(gè)區(qū)別是AI并不依賴固定的規(guī)則,而是要經(jīng)過訓(xùn)練。訓(xùn)練過程需要將大量貓的圖像展示給神經(jīng)網(wǎng)絡(luò)以供其學(xué)習(xí)。最終,神經(jīng)網(wǎng)絡(luò)將能夠獨(dú)立識(shí)別圖像中是否有貓。關(guān)鍵的一點(diǎn)是,未來AI可以不局限于已知的訓(xùn)練圖像開展識(shí)別。該神經(jīng)網(wǎng)絡(luò)需要映射到MCU中。

5 AI的模式識(shí)別內(nèi)部到底是什么?

AI的神經(jīng)元網(wǎng)絡(luò)類似于人腦的生物神經(jīng)元網(wǎng)絡(luò)。一個(gè)神經(jīng)元有多個(gè)輸入,但只有一個(gè)輸出?;旧希@些神經(jīng)元都是輸入的線性變換——將輸入乘以數(shù)字(權(quán)重w)并加上一個(gè)常數(shù)(偏置b),然后通過一個(gè)固定的非線性函數(shù)產(chǎn)生輸出,該函數(shù)也被稱為激活函數(shù)1。作為網(wǎng)絡(luò)中唯一的非線性部分,激活函數(shù)用于定義人工神經(jīng)元值的激活范圍。神經(jīng)元的功能在數(shù)學(xué)上可以描述為

89e4c478-c01d-11ed-bfe3-dac502259ad0.svg

其中,f為激活函數(shù),w為權(quán)重,x為輸入數(shù)據(jù),b為偏置。數(shù)據(jù)可以是單獨(dú)的標(biāo)量、向量或矩陣。圖1顯示了一個(gè)神經(jīng)元,它擁有三個(gè)輸入和一個(gè)激活函數(shù)ReLU2。網(wǎng)絡(luò)中的神經(jīng)元總是分層排列的。

89f61ffc-c01d-11ed-bfe3-dac502259ad0.png

圖1.擁有三個(gè)輸入和一個(gè)輸出的神經(jīng)元

如上所述,CNN用于輸入數(shù)據(jù)的模式識(shí)別和對(duì)象分類。CNN分為不同的部分:一個(gè)輸入層、若干隱藏層和一個(gè)輸出層。圖2顯示了一個(gè)小型網(wǎng)絡(luò),它包含一個(gè)具有三個(gè)輸入的輸入層、一個(gè)具有五個(gè)神經(jīng)元的隱藏層和一個(gè)具有四個(gè)輸出的輸出層。所有神經(jīng)元的輸出都連接到下一層的所有輸入。圖2所示的網(wǎng)絡(luò)不具有現(xiàn)實(shí)意義,這里僅用于演示說明。即使對(duì)于這個(gè)小型網(wǎng)絡(luò),用于描述網(wǎng)絡(luò)的方程中也具有32個(gè)偏置和32個(gè)權(quán)重。

CIFAR神經(jīng)網(wǎng)絡(luò)是一種廣泛用于圖像識(shí)別的CNN。它主要由兩種類型的層組成:卷積層和池化層,這兩種層分別使用卷積和池化兩種方法,在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中非常有效。卷積層使用一種被稱為卷積的數(shù)學(xué)運(yùn)算來識(shí)別像素值數(shù)組的模式。卷積發(fā)生在隱藏層中,如圖3所示。卷積會(huì)重復(fù)多次直至達(dá)到所需的精度水平。如果要比較的兩個(gè)輸入值(本例是輸入圖像和濾波器)相似,那么卷積運(yùn)算的輸出值總會(huì)特別高。濾波器有時(shí)也被稱為卷積核。然后,結(jié)果被傳遞到池化層提取特征生成一個(gè)特征圖,表征輸入數(shù)據(jù)的重要特征,稱為池化。池化層的運(yùn)行需要依賴另一個(gè)濾波器,稱為池化濾波器。訓(xùn)練后,在網(wǎng)絡(luò)運(yùn)行的狀態(tài)下,特征圖與輸入數(shù)據(jù)進(jìn)行比較。由于特征圖保留了特定的特征,所以只有當(dāng)內(nèi)容相似時(shí),神經(jīng)元的輸出才會(huì)被觸發(fā)。通過組合使用卷積和池化,CIFAR網(wǎng)絡(luò)可用于高精度地識(shí)別和分類圖像中的各種對(duì)象。

8a0d7440-c01d-11ed-bfe3-dac502259ad0.png

圖2.一個(gè)小型神經(jīng)網(wǎng)絡(luò)

8a21042e-c01d-11ed-bfe3-dac502259ad0.png

圖3.用CIFAR-10數(shù)據(jù)集訓(xùn)練的CIFAR網(wǎng)絡(luò)模型

CIFAR-10是一個(gè)特定數(shù)據(jù)集,通常用于訓(xùn)練CIFAR神經(jīng)網(wǎng)絡(luò)。它由60000幅32×32彩色圖像組成,分為10個(gè)類別。這些圖像是從各種來源收集的,例如網(wǎng)頁、新聞和個(gè)人圖像集。每個(gè)類別包含6000幅圖像,平均分配在訓(xùn)練集、測(cè)試集和驗(yàn)證集中,使其成為測(cè)試計(jì)算機(jī)視覺和其他機(jī)器學(xué)習(xí)模型的理想圖像集。

卷積神經(jīng)網(wǎng)絡(luò)和其他類型網(wǎng)絡(luò)的主要區(qū)別在于處理數(shù)據(jù)的方式。卷積神經(jīng)網(wǎng)絡(luò)通過濾波依次檢查輸入數(shù)據(jù)的屬性。卷積層的數(shù)量越多,可以識(shí)別的細(xì)節(jié)就越精細(xì)。在第一次卷積之后,該過程從簡單的對(duì)象屬性(如邊或點(diǎn))開始進(jìn)行第二次卷積以識(shí)別詳細(xì)的結(jié)構(gòu),如角、圓、矩形等。在第三次卷積之后,特征就可以表示某些復(fù)雜的模式,它們與圖像中對(duì)象的某些部分相似,并且對(duì)于給定對(duì)象來說通常是唯一的。在我們最初的例子中,這些特征就是貓的胡須或耳朵。特征圖的可視化(如圖4所示)對(duì)于應(yīng)用本身而言并不是必需的,但它有助于幫助理解卷積。

即使是像CIFAR這樣的小型網(wǎng)絡(luò),每層也有數(shù)百個(gè)神經(jīng)元,并且有許多串行連接的層。隨著網(wǎng)絡(luò)的復(fù)雜度和規(guī)模的增加,所需的權(quán)重和偏置數(shù)量也迅速增長。圖3所示的CIFAR-10示例已經(jīng)有20萬個(gè)參數(shù),每個(gè)參數(shù)在訓(xùn)練過程中都需要一組確定的值。特征圖可以由池化層進(jìn)一步處理,以減少需要訓(xùn)練的參數(shù)數(shù)量并保留重要信息。

8a50b502-c01d-11ed-bfe3-dac502259ad0.png

圖4.CNN的特征圖

如上所述,在CNN中的每次卷積之后,通常會(huì)發(fā)生池化,在一些文獻(xiàn)中也常被稱為子采樣。它有助于減少數(shù)據(jù)的維度。圖4中的特征圖里面的很多區(qū)域包含很少甚至不含有意義的信息。這是因?yàn)閷?duì)象只是圖像的一小部分,并不構(gòu)成整幅圖像。圖像的其余部分未在特征圖中使用,因此與分類無關(guān)。在池化層中,池化類型(最大值池化或均值池化)和池化窗口矩陣的大小均被指定。在池化過程中,窗口矩陣逐步在輸入數(shù)據(jù)上移動(dòng)。例如,最大值池化會(huì)選取窗口中的最大數(shù)據(jù)值而丟棄其它所有的值。這樣,數(shù)據(jù)量不斷減少,最終形成各個(gè)對(duì)象類別的唯一屬性。

卷積和池化的結(jié)果是大量的二維矩陣。為了實(shí)現(xiàn)我們真正的目標(biāo)即分類,我們需要將二維數(shù)據(jù)轉(zhuǎn)換成一個(gè)很長的一維向量。轉(zhuǎn)換是在所謂的壓平層中完成的,隨后是一個(gè)或兩個(gè)全連接層。全連接層的神經(jīng)元類似于圖2所示的結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)最后一層的輸出要與需要區(qū)分的類別的數(shù)量一致。此外,在最后一層中,數(shù)據(jù)還被歸一化以產(chǎn)生一個(gè)概率分布(97.5%的貓,2.1%的豹,0.4%的虎,等等)。

這就是神經(jīng)網(wǎng)絡(luò)建模的全過程。然而,卷積核與濾波器的權(quán)重和內(nèi)容仍然未知,必須通過網(wǎng)絡(luò)訓(xùn)練來確定使模型能夠工作。這將在后續(xù)文章中說明。

1通常使用sigmoid、tanh或ReLU函數(shù)。
2ReLU:修正線性單元。對(duì)于該函數(shù),輸入值為負(fù)時(shí),輸出為零;輸入值大于零時(shí),輸出值為輸入值。

8ad720d8-c01d-11ed-bfe3-dac502259ad0.gif ?查看往期內(nèi)容↓↓↓


原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機(jī)器學(xué)習(xí)?

文章出處:【微信公眾號(hào):亞德諾半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 亞德諾
    +關(guān)注

    關(guān)注

    6

    文章

    4680

    瀏覽量

    16595

原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機(jī)器學(xué)習(xí)?

文章出處:【微信號(hào):analog_devices,微信公眾號(hào):analog_devices】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像
    的頭像 發(fā)表于 11-19 18:15 ?1835次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。一旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)測(cè)。要使用生成的模型進(jìn)行推理,可以按照以下步驟進(jìn)行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對(duì)第一層卷積+池化的部署進(jìn)行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對(duì)于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的
    的頭像 發(fā)表于 09-28 10:03 ?705次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概念對(duì)非專業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?693次閱讀
    如何在<b class='flag-5'>機(jī)器</b>視覺中部署深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?1307次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?1424次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析
    的頭像 發(fā)表于 02-12 15:36 ?1586次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)學(xué)習(xí)算法。該算法通過計(jì)算每層網(wǎng)絡(luò)的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?1277次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度
    的頭像 發(fā)表于 02-12 15:15 ?1341次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?842次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?2249次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法