chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)和函數(shù)

新機器視覺 ? 來源:人工智能與算法學(xué)習(xí) ? 作者:人工智能與算法學(xué) ? 2022-04-07 10:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

據(jù)報道稱,由于采用基于云的技術(shù)和在大數(shù)據(jù)中使用深度學(xué)習(xí)系統(tǒng),深度學(xué)習(xí)的使用在過去十年中迅速增長,預(yù)計到 2028 年,深度學(xué)習(xí)的市場規(guī)模將達到 930 億美元。但究竟什么是深度學(xué)習(xí),它是如何工作的?深度學(xué)習(xí)是機器學(xué)習(xí)的一個子集,它使用神經(jīng)網(wǎng)絡(luò)來執(zhí)行學(xué)習(xí)和預(yù)測。深度學(xué)習(xí)在各種任務(wù)中都表現(xiàn)出了驚人的表現(xiàn),無論是文本、時間序列還是計算機視覺。深度學(xué)習(xí)的成功主要來自大數(shù)據(jù)的可用性和計算能力。然而,不僅如此,這使得深度學(xué)習(xí)遠遠優(yōu)于任何經(jīng)典的機器學(xué)習(xí)算法。

深度學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)和函數(shù)

神經(jīng)網(wǎng)絡(luò)是一個相互連接的神經(jīng)元網(wǎng)絡(luò),每個神經(jīng)元都是一個有限函數(shù)逼近器。這樣,神經(jīng)網(wǎng)絡(luò)被視為通用函數(shù)逼近器。如果你還記得高中的數(shù)學(xué),函數(shù)就是從輸入空間到輸出空間的映射。一個簡單的 sin(x) 函數(shù)是從角空間(-180° 到 180° 或 0° 到 360°)映射到實數(shù)空間(-1 到 1)。 讓我們看看為什么神經(jīng)網(wǎng)絡(luò)被認為是通用函數(shù)逼近器。每個神經(jīng)元學(xué)習(xí)一個有限的函數(shù):f(.) = g(W*X) 其中 W 是要學(xué)習(xí)的權(quán)重向量,X 是輸入向量,g(.) 是非線性變換。W*X 可以可視化為高維空間(超平面)中的一條線(正在學(xué)習(xí)),而 g(.) 可以是任何非線性可微函數(shù),如 sigmoid、tanh、ReLU 等(常用于深度學(xué)習(xí)領(lǐng)域)。在神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)無非就是找到最佳權(quán)重向量 W。例如,在 y = mx+c 中,我們有 2 個權(quán)重:m 和 c?,F(xiàn)在,根據(jù) 2D 空間中點的分布,我們找到滿足某些標準的 m & c 的最佳值:對于所有數(shù)據(jù)點,預(yù)測 y 和實際點之間的差異最小。

層的效果

現(xiàn)在每個神經(jīng)元都是一個非線性函數(shù),我們將幾個這樣的神經(jīng)元堆疊在一個「層」中,每個神經(jīng)元接收相同的一組輸入但學(xué)習(xí)不同的權(quán)重 W。因此,每一層都有一組學(xué)習(xí)函數(shù):[f1, f2, …, fn],稱為隱藏層值。這些值再次組合,在下一層:h(f1, f2, ..., fn) 等等。這樣,每一層都由前一層的函數(shù)組成(類似于 h(f(g(x))))。已經(jīng)表明,通過這種組合,我們可以學(xué)習(xí)任何非線性復(fù)函數(shù)。 深度學(xué)習(xí)是具有許多隱藏層(通常 > 2 個隱藏層)的神經(jīng)網(wǎng)絡(luò)。但實際上,深度學(xué)習(xí)是從層到層的函數(shù)的復(fù)雜組合,從而找到定義從輸入到輸出的映射的函數(shù)。例如,如果輸入是獅子的圖像,輸出是圖像屬于獅子類的圖像分類,那么深度學(xué)習(xí)就是學(xué)習(xí)將圖像向量映射到類的函數(shù)。類似地,輸入是單詞序列,輸出是輸入句子是否具有正面/中性/負面情緒。因此,深度學(xué)習(xí)是學(xué)習(xí)從輸入文本到輸出類的映射:中性或正面或負面。

深度學(xué)習(xí)作為插值

從生物學(xué)的解釋來看,人類通過逐層解釋圖像來處理世界的圖像,從邊緣和輪廓等低級特征到對象和場景等高級特征。神經(jīng)網(wǎng)絡(luò)中的函數(shù)組合與此一致,其中每個函數(shù)組合都在學(xué)習(xí)關(guān)于圖像的復(fù)雜特征。用于圖像的最常見的神經(jīng)網(wǎng)絡(luò)架構(gòu)是卷積神經(jīng)網(wǎng)絡(luò) (CNN),它以分層方式學(xué)習(xí)這些特征,然后一個完全連接的神經(jīng)網(wǎng)絡(luò)將圖像特征分類為不同的類別。 通過再次使用高中數(shù)學(xué),給定一組 2D 數(shù)據(jù)點,我們嘗試通過插值擬合曲線,該曲線在某種程度上代表了定義這些數(shù)據(jù)點的函數(shù)。我們擬合的函數(shù)越復(fù)雜(例如在插值中,通過多項式次數(shù)確定),它就越適合數(shù)據(jù);但是,它對新數(shù)據(jù)點的泛化程度越低。這就是深度學(xué)習(xí)面臨挑戰(zhàn)的地方,也就是通常所說的過度擬合問題:盡可能地擬合數(shù)據(jù),但在泛化方面有所妥協(xié)。幾乎所有深度學(xué)習(xí)架構(gòu)都必須處理這個重要因素,才能學(xué)習(xí)在看不見的數(shù)據(jù)上表現(xiàn)同樣出色的通用功能。 深度學(xué)習(xí)先驅(qū) Yann LeCun(卷積神經(jīng)網(wǎng)絡(luò)的創(chuàng)造者和 ACM 圖靈獎獲得者)在他的推特上發(fā)帖(基于一篇論文):「深度學(xué)習(xí)并沒有你想象的那么令人印象深刻,因為它僅僅是美化曲線擬合的插值。但是在高維中,沒有插值之類的東西。在高維空間,一切都是外推?!挂虼?,作為函數(shù)學(xué)習(xí)的一部分,深度學(xué)習(xí)除了插值,或在某些情況下,外推。就這樣!

894f7054-b604-11ec-aa7f-dac502259ad0.png

Twitter 地址:https://twitter.com/ylecun/status/1409940043951742981?lang=en

學(xué)習(xí)方面

那么,我們?nèi)绾螌W(xué)習(xí)這個復(fù)雜的函數(shù)呢?這完全取決于手頭的問題,而這決定了神經(jīng)網(wǎng)絡(luò)架構(gòu)。如果我們對圖像分類感興趣,那么我們使用 CNN。如果我們對時間相關(guān)的預(yù)測或文本感興趣,那么我們使用 RNN 或 Transformer,如果我們有動態(tài)環(huán)境(如汽車駕駛),那么我們使用強化學(xué)習(xí)。除此之外,學(xué)習(xí)還涉及處理不同的挑戰(zhàn):

確保模型學(xué)習(xí)通用函數(shù),而不僅僅適合訓(xùn)練數(shù)據(jù);這是通過使用正則化處理的;

根據(jù)手頭的問題,選擇損失函數(shù);松散地說,損失函數(shù)是我們想要的(真實值)和我們當前擁有的(當前預(yù)測)之間的誤差函數(shù);

梯度下降是用于收斂到最優(yōu)函數(shù)的算法;決定學(xué)習(xí)率變得具有挑戰(zhàn)性,因為當我們遠離最優(yōu)時,我們想要更快地走向最優(yōu),而當我們接近最優(yōu)時,我們想要慢一些,以確保我們收斂到最優(yōu)和全局最小值;

大量隱藏層需要處理梯度消失問題;跳過連接和適當?shù)姆蔷€性激活函數(shù)等架構(gòu)變化,有助于解決這個問題。

計算挑戰(zhàn)

現(xiàn)在我們知道深度學(xué)習(xí)只是一個學(xué)習(xí)復(fù)雜的函數(shù),它帶來了其他計算挑戰(zhàn):

要學(xué)習(xí)一個復(fù)雜的函數(shù),我們需要大量的數(shù)據(jù);

為了處理大數(shù)據(jù),我們需要快速的計算環(huán)境;

我們需要一個支持這種環(huán)境的基礎(chǔ)設(shè)施。

使用 CPU 進行并行處理不足以計算數(shù)百萬或數(shù)十億的權(quán)重(也稱為 DL 的參數(shù))。神經(jīng)網(wǎng)絡(luò)需要學(xué)習(xí)需要向量(或張量)乘法的權(quán)重。這就是 GPU 派上用場的地方,因為它們可以非??焖俚剡M行并行向量乘法。根據(jù)深度學(xué)習(xí)架構(gòu)、數(shù)據(jù)大小和手頭的任務(wù),我們有時需要 1 個 GPU,有時,數(shù)據(jù)科學(xué)家需要根據(jù)已知文獻或通過測量 1 個 GPU 的性能來做出決策。 通過使用適當?shù)纳窠?jīng)網(wǎng)絡(luò)架構(gòu)(層數(shù)、神經(jīng)元數(shù)量、非線性函數(shù)等)以及足夠大的數(shù)據(jù),深度學(xué)習(xí)網(wǎng)絡(luò)可以學(xué)習(xí)從一個向量空間到另一個向量空間的任何映射。這就是讓深度學(xué)習(xí)成為任何機器學(xué)習(xí)任務(wù)的強大工具的原因。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:這就是深度學(xué)習(xí)如此強大的原因

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結(jié) 這個核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預(yù)測。訓(xùn)練過程中,模型通過最小化損失函數(shù)來優(yōu)化
    發(fā)表于 10-22 07:03

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標檢測可定位已訓(xùn)練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?693次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計原則

    ,僅作為數(shù)據(jù)輸入的接口。輸入層的神經(jīng)元個數(shù)通常與輸入數(shù)據(jù)的特征數(shù)量相對應(yīng)。 隱藏層 :對輸入信號進行非線性變換,是神經(jīng)網(wǎng)絡(luò)的核心部分,負責學(xué)習(xí)輸入與輸出之間的復(fù)雜映射關(guān)系。隱藏層可以有一層或多層,層數(shù)和
    的頭像 發(fā)表于 02-12 16:41 ?1254次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?1307次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?1424次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的實現(xiàn)步驟詳解

    BP神經(jīng)網(wǎng)絡(luò)的實現(xiàn)步驟主要包括以下幾個階段:網(wǎng)絡(luò)初始化、前向傳播、誤差計算、反向傳播和權(quán)重更新。以下是對這些步驟的詳細解釋: 一、網(wǎng)絡(luò)初始化 確定網(wǎng)絡(luò)結(jié)構(gòu) : 根據(jù)輸入和輸出數(shù)據(jù)的特性
    的頭像 發(fā)表于 02-12 15:50 ?1120次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機器學(xué)習(xí)模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?1586次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)學(xué)習(xí)算法。該算法通過計算每層網(wǎng)絡(luò)的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?1275次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播
    的頭像 發(fā)表于 02-12 15:15 ?1341次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負責接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡(luò)的核心部分,它可以通過一層或多層神經(jīng)元對輸入數(shù)據(jù)進行加權(quán)求和,并通過非線性激活函數(shù)(如ReLU、sigmoid或tan
    的頭像 發(fā)表于 02-12 15:13 ?1518次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠學(xué)習(xí)到復(fù)雜的特征表達,適用于處理非線性問題。以下是對BP神經(jīng)網(wǎng)絡(luò)在圖像識別中應(yīng)用的分析: 一、BP
    的頭像 發(fā)表于 02-12 15:12 ?1188次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個
    的頭像 發(fā)表于 01-23 13:52 ?842次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?2249次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法