chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

博士論文《面向自然語言處理的神經(jīng)網(wǎng)絡遷移學習》公開

DPVg_AI_era ? 來源:lp ? 2019-03-29 09:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NLP領(lǐng)域知名博主Sebastian Ruder近日公開了他的博士論文,總共 329 頁,他認為更明確的遷移學習是解決訓練數(shù)據(jù)不足和提高自然語言處理模型下游性能的關(guān)鍵,并展示了支持該假設(shè)的相關(guān)領(lǐng)域、任務和語言遷移知識的實驗結(jié)果。這篇論文是了解 NLP 遷移學習非常好的文獻。

Sebastian Ruder 是 NLP 領(lǐng)域知名博主(ruder.io),近期他從愛爾蘭國立大學博士畢業(yè)并加入了 DeepMind。

3 月 23 日,他的博士論文《面向自然語言處理的神經(jīng)網(wǎng)絡遷移學習》公開,總共 329 頁。

Sebastian Ruder

在論文中,他認為更明確的遷移學習是解決訓練數(shù)據(jù)不足和提高自然語言處理模型下游性能的關(guān)鍵,并展示了支持該假設(shè)的相關(guān)領(lǐng)域、任務和語言遷移知識的實驗結(jié)果。這篇論文是了解 NLP 遷移學習非常好的文獻。

論文摘要

當前,基于神經(jīng)網(wǎng)絡的自然語言處理模型擅長從大量標記數(shù)據(jù)中學習。鑒于這些功能,自然語言處理越來越多地應用于新任務、新領(lǐng)域和新語言。然而,當前的模型對噪聲和對抗性示例敏感,并且易于過度擬合。這種脆弱性,加上注意力的成本,對監(jiān)督學習范式提出了挑戰(zhàn)。

遷移學習使得我們能夠利用從相關(guān)數(shù)據(jù)中獲取的知識,提高目標任務的性能。以預訓練詞表征形式進行的隱式遷移學習一直是自然語言處理中的常見組成部分。

本文認為,更明確的遷移學習是解決訓練數(shù)據(jù)不足和提高自然語言處理模型下游性能的關(guān)鍵。我們展示了支持該假設(shè)的相關(guān)領(lǐng)域、任務和語言轉(zhuǎn)移知識的實驗結(jié)果。

我們?yōu)樽匀徽Z言處理的遷移學習做出了一些貢獻:

首先,我們提出了新的方法來自動選擇監(jiān)督和無監(jiān)督的領(lǐng)域適應的相關(guān)數(shù)據(jù)。

其次,我們提出了兩種新的架構(gòu),改善了多任務學習中的共享,并將單任務學習提升到最先進的水平。

第三,我們分析了當前模型對無監(jiān)督跨語言遷移的局限性,提出了一種改善方法,以及一種新的潛變量跨語言詞嵌入模型。

最后,我們提出了一個基于微調(diào)語言模型的序列遷移學習框架,并分析了適應階段。

論文簡介

1.1 動機

語言通常被認為是人類智力的標志。開發(fā)能夠理解人類語言的系統(tǒng)是人工智能的主要障礙之一,該目標推動了人工智能,特別是自然語言處理和計算語言學研究。隨著語言滲透到人類生存的每個方面,最終,自然語言處理是計算機在增強人類智能方面發(fā)揮其全部潛力所必需的技能。

早期針對這一難以捉摸的目標的象征性方法是試圖利用人類編寫的規(guī)則來捕捉文本的含義。然而,這種基于規(guī)則的系統(tǒng)很脆弱,并且僅限于它們?yōu)?[Winograd,1972] 設(shè)計的特定領(lǐng)域。它們通常無法處理意外或看不見的輸入,最終被證明限制性太強,無法捕捉到自然語言的復雜性 [國家研究委員會和自動語言處理咨詢委員會,1966 年]。

在過去 20 年中,自然語言處理的統(tǒng)計方法 [Manning 等人,1999 年] 已經(jīng)變得司空見慣,它使用數(shù)學模型自動從數(shù)據(jù)中學習規(guī)則。因此,我們應該將人力投入到創(chuàng)建新的特征中去,用于指示模型在預測時應該考慮的數(shù)據(jù)中的連接和關(guān)系,而不是去編寫規(guī)則。然而,特征工程非常耗時,因為這些特征通常是針對特定任務的,而且需要相關(guān)領(lǐng)域的專業(yè)知識。

在過去五年中,深度神經(jīng)網(wǎng)絡 [Krizhevsky 等人,2012 a, Goodfellow 等人,2016] 作為機器學習模型的一個特殊類別,已經(jīng)成為從數(shù)據(jù)中學習的首選模型。這些模型通過對一個多層次特征結(jié)構(gòu)的學習,減少了對特征工程的需求。因此,人力投入的重點集中于為每項任務確定最合適的架構(gòu)和訓練設(shè)置。

在自然語言處理以及機器學習的許多領(lǐng)域,訓練模型的標準方法是對大量的示例進行注釋,然后提供給模型,讓其學習從輸入映射到輸出的函數(shù)。這被稱為監(jiān)督學習。對于每項任務,如分析文本的句法結(jié)構(gòu)、消除單詞歧義或翻譯文檔,都是從零開始訓練新模型。來自相關(guān)任務或領(lǐng)域的知識永遠不會被組合在一起,模型總是從隨機初始化開始 tabula rasa。

這種從空白狀態(tài)中去學習的方式與人類習得語言的方式截然不同。人類的語言學習并非孤立進行,而是發(fā)生在豐富的感官環(huán)境中。兒童通過與周圍環(huán)境的互動 [Hayes 等人,2002 年],通過持續(xù)的反饋和強化 [Bruner, 1985 年] 來學習語言。

然而,最近基于深度神經(jīng)網(wǎng)絡的方法通過對從幾十萬到數(shù)百萬對輸入 - 輸出組合 (如機器翻譯) 的學習,在廣泛的任務上取得了顯著的成功 [Wu 等人,2016 年]。鑒于這些成功,人們可能會認為沒有必要偏離監(jiān)督學習的范式,因此沒有必要創(chuàng)建受人類語言習得啟發(fā)的算法。畢竟,大自然為我們提供的是靈感而非藍圖;例如,人工神經(jīng)網(wǎng)絡只是受到人類認知的松散啟發(fā) [Rumelhart 等人,1986 年]。

最近的研究 [Jia 和 Liang, 2017 年,Belinkov 和 Bisk, 2018 年] 表明,當前算法的脆弱程度與早期基于規(guī)則的系統(tǒng)類似:它們無法概括出其在訓練期間看到的數(shù)據(jù)以外的東西。這些算法遵循它們訓練的數(shù)據(jù)的特征,并且在條件發(fā)生變化時無法適應。

人類的需求是復雜的,語言是多種多樣的;因此,不斷有新的任務 - 從識別法律文件中的新先例,到挖掘看不見的藥物間的相互作用,再到路由支持電子郵件等等,這些都需要使用自然語言處理來解決。

自然語言處理還有望幫助彌合造成網(wǎng)路信息和機會不平等的數(shù)字語言鴻溝。為實現(xiàn)這一目標,這些模型除英語之外,還需要適用于世界 6, 000 種語言。

為了獲得一個在以前從未見過的數(shù)據(jù)上表現(xiàn)良好的模型(無論是來自新的任務,領(lǐng)域還是語言 ),監(jiān)督學習需要為每個新的設(shè)置標記足夠的示例。

鑒于現(xiàn)實世界中的語言、任務和域名過多,為每個設(shè)置手動注釋示例是完全不可行的。因此,標準監(jiān)督學習可能會由于這些現(xiàn)實挑戰(zhàn)的存在而遭遇失敗。

通過將知識從相關(guān)領(lǐng)域、任務和語言轉(zhuǎn)移到目標設(shè)置,遷移學習將有望扭轉(zhuǎn)這種失敗。

事實上,遷移學習長期以來一直是許多 NLP 系統(tǒng)的潛在組成部分。NLP 中許多最基本的進步,如潛在語義分析 [Deerwester 等人,1990 年]、布朗聚類[Brown 等人,1993b] 和預訓練的單詞嵌入 [Mikolov 等人,2013a] 均可被視為遷移學習的特殊形式,作為將知識從通用源任務轉(zhuǎn)移到更專業(yè)的目標任務的手段。

在本文中,我們認為將 NLP 模型的訓練定義為遷移學習而非監(jiān)督學習,有助于釋放新的潛力,使我們的模型能夠得到更好的推廣。我們證明我們的模型優(yōu)于現(xiàn)有的遷移學習方法以及不遷移的模型。

為此,我們開發(fā)了針對各種場景跨域、任務和語言進行轉(zhuǎn)換的新模型,并且證明了我們的模型在性能上比現(xiàn)有的遷移學習方法和非遷移的模型都要優(yōu)越。

1.2 研究目標

本文研究了使用基于神經(jīng)網(wǎng)絡的自然語言處理方法在多個任務、領(lǐng)域和語言之間進行遷移的自動表征學習問題。

本文的主要假設(shè)如下:

自然語言處理中的深層神經(jīng)網(wǎng)絡會利用來自相關(guān)域、任務和語言的現(xiàn)有相關(guān)信息,其性能優(yōu)于在各種任務中不使用此信息的模型。

換句話說,我們認為在大多數(shù)情況下,遷移學習優(yōu)于監(jiān)督學習,但有兩點需要注意:

1.當已經(jīng)有足夠數(shù)量的訓練實例時,遷移學習可能沒有那么大的幫助;

2.如果沒有相關(guān)信息,遷移學習可能就不那么有用了。

為了解決第一個方面,我們分析了遷移學習的幾個功能。第二點暗示了本論文中反復出現(xiàn)的主題:遷移學習的成功取決于源的設(shè)置與目標設(shè)置的相似性。

總而言之,我們列出了五個需求,這些需求將通過本文提出的方法來解決:

1.克服源設(shè)置和目標設(shè)置之間的差異:該方法應克服源設(shè)置和目標設(shè)置之間的差異。許多現(xiàn)有方法只有在源和目標設(shè)置相似時才能很好地工作。為了克服這一挑戰(zhàn),我們提出了方法用于:選擇相關(guān)示例、利用弱監(jiān)督、靈活地跨任務共享參數(shù)、學習通用表示和分析任務相似性。

2.誘導歸納偏差:該模型應該誘導歸納偏差,從而提高其推廣能力。我們采用的歸納偏差包括半監(jiān)督學習、對正交約束的多任務學習、弱監(jiān)督、匹配的先驗關(guān)系、層次關(guān)系和預先訓練過的表示。

3. 將傳統(tǒng)方法和當前方法相結(jié)合:該模型應該從經(jīng)典工作中汲取靈感,以便克服最先進方法中的局限性。我們提出了兩種模型,明確地結(jié)合了兩方面的優(yōu)點,即傳統(tǒng)方法優(yōu)勢和神經(jīng)網(wǎng)絡方法的優(yōu)勢。

4.在 NLP 任務的層次結(jié)構(gòu)中進行遷移:該方法應該在 NLP 任務的層次結(jié)構(gòu)中遷移知識。這包括在低級別和高級別任務之間進行共享,在粗粒度和細粒度的情感任務之間進行共享,以及從通用任務遷移到各種各樣的任務中。

5.推廣到多個設(shè)置:該方法應該能夠推廣到許多不同的設(shè)置之上。為了測試這一點,我們在多種任務、領(lǐng)域和語言中評估相關(guān)方法。

1.3 貢獻

在本文中,我們將重點討論 NLP 遷移學習的三個主要方面:跨領(lǐng)域遷移、跨任務遷移和跨語言遷移。

根據(jù)源和目標任務的性質(zhì)、領(lǐng)域和學習順序的不同,這三個維度可以自然地分為四個不同的遷移學習設(shè)置:領(lǐng)域適應、跨語言學習、多任務學習和序列遷移學習。我們在表 1.1 中展示了本文的貢獻是如何與這四種設(shè)置相關(guān)聯(lián)的。

本論文的貢獻可以分為理論、實踐和實證三個方面。

在理論貢獻方面:

我們提供了反映自然語言處理中最常見的遷移學習設(shè)置的分類方法;

我們展示了學習在單詞級別上優(yōu)化類似目標的跨語言詞嵌入模型;

我們分析了無監(jiān)督跨語言嵌入模型的理論局限性;

我們展示了如何將現(xiàn)有的跨語言嵌入方法視為一個潛變量模型;

我們提出了一個理論框架,將現(xiàn)有架構(gòu)推廣到多任務學習。

在實踐貢獻方面:

我們對自然語言處理中最常見的四種遷移學習設(shè)置進行了廣泛的回顧:多任務學習、序列遷移學習、領(lǐng)域適應和跨語言學習;

我們提出了一種新的基于特征向量的度量方法,以衡量兩種語言之間無監(jiān)督雙語詞典歸納的可能性;

我們提供了適應預訓練表征的指南;

我們開源了我們的代碼。

我們最終做出以下實證貢獻:

我們提出了一個模型,它自動學習如何選擇與特定目標領(lǐng)域相關(guān)的訓練實例;

我們將半監(jiān)督學習方法與神經(jīng)網(wǎng)絡相結(jié)合,并將其與最先進的方法進行比較;

我們提出了一種受 tri-training 啟發(fā)的更有效的半監(jiān)督學習方法;

我們實證分析了無監(jiān)督跨語言詞嵌入模型的局限性;

我們提出了一個新的雙語詞典歸納的潛變量模型;

我們提出了一個新的多任務學習模型,可以自動學習在不同任務之間共享哪些層;

我們提出了一個新的多任務學習模型,它集成了來自不同標簽空間的信息;

我們提出了一個新的順序遷移學習框架,它采用預先訓練的語言模型和新的微調(diào)技術(shù);

我們將兩種流行的適應方法與各種任務中最先進的預先訓練表示進行比較。

1.4 論文大綱

在第 2 章中,概述了與理解本文內(nèi)容有關(guān)的背景資料們,回顧了概率和信息論以及機器學習的基礎(chǔ)知識,并進一步討論了自然語言處理中基于神經(jīng)網(wǎng)絡的方法和任務。

在第 3 章中,定義了遷移學習,并提出了一個 NLP 遷移學習的分類方法。然后,詳細回顧了四種遷移學習場景:領(lǐng)域適應、跨語言學習、多任務學習和序列遷移學習。

以下各章重點介紹了這些方案中的每一個方案。在每一章中,介紹相應設(shè)置的新方法,這些方法的性能都優(yōu)于基準數(shù)據(jù)集上目前最先進的設(shè)置方法。

第 4 章介紹了在領(lǐng)域適應數(shù)據(jù)選擇方面的工作。對于受監(jiān)督的領(lǐng)域適應,提出了一種使用貝葉斯優(yōu)化來學習從多個域中選擇相關(guān)訓練實例的策略方法。對于無監(jiān)督領(lǐng)域適應,將經(jīng)典的半監(jiān)督學習方法應用于神經(jīng)網(wǎng)絡,并提出了一種 tri-training 啟發(fā)的新方法。這兩種方法都旨在根據(jù)半監(jiān)督學習模型選擇與目標領(lǐng)域相似或可靠且信息豐富的相關(guān)實例。

在第 5 章中,首先分析了無監(jiān)督跨語言單詞嵌入模型的局限性。研究發(fā)現(xiàn),現(xiàn)有的無監(jiān)督方法在語言不同的環(huán)境中不再有效,并提供了一種弱監(jiān)督的方法來改善這種情況。進一步提出了一種具有正則匹配的潛變量模型,該模型適用于低資源語言。此外,在潛變量的幫助下,為現(xiàn)有的跨語言單詞嵌入模型提供了一個新的視角。

在第 6 章中,提出了兩種新穎的體系結(jié)構(gòu),可以改善多任務學習中任務之間的共享。在多任務學習中,當任務不一致時,目前諸如硬參數(shù)共享等方法將會失效。

第一種方法通過允許模型了解應該共享任務之間的信息程度來克服這一點。

第二種方法包含來自其他任務的標簽空間的信息。

在第 6 章中,提出了兩種新的架構(gòu),以改善多任務學習中任務之間的共享。在多任務學習中,當任務不相似時,目前諸如硬參數(shù)共享等方法將會失效。第一種方法是通過允許模型學習任務之間的信息應該在多大程度上共享來克服這一點。第二種方法則集成了來自其它任務的標簽空間信息。

在第 7 章中,重點介紹了序列遷移學習中先前被忽略的適應階段。首先提出了一個基于語言建模和新的適應技術(shù)的新框架。其次,用最先進的預訓練表示來分析適應性。發(fā)現(xiàn)任務相似度發(fā)揮著重要作用,并為從業(yè)者提供指導。

第 8 章最后總結(jié)包含了結(jié)論、發(fā)現(xiàn),并提供了對未來的展望。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4827

    瀏覽量

    106797
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    629

    瀏覽量

    14563
  • 遷移學習
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5838

原文標題:DeepMind網(wǎng)紅博士300頁論文出爐:面向NLP的神經(jīng)遷移學習(附下載)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    云知聲論文入選自然語言處理頂會EMNLP 2025

    近日,自然語言處理(NLP)領(lǐng)域國際權(quán)威會議 ——2025 年計算語言學與自然語言處理國際會議(EMNLP 2025)公布
    的頭像 發(fā)表于 11-10 17:30 ?514次閱讀
    云知聲<b class='flag-5'>論文</b>入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會EMNLP 2025

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    神經(jīng)元,但卻能產(chǎn)生復雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡相比,LNN旨在通過模擬大腦中神經(jīng)元之間的動態(tài)連接來處理信息,這種網(wǎng)絡能夠順序
    的頭像 發(fā)表于 09-28 10:03 ?705次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    小白學大模型:國外主流大模型匯總

    數(shù)據(jù)科學AttentionIsAllYouNeed(2017)https://arxiv.org/abs/1706.03762由GoogleBrain的團隊撰寫,它徹底改變了自然語言處理(NLP
    的頭像 發(fā)表于 08-27 14:06 ?670次閱讀
    小白學大模型:國外主流大模型匯總

    無刷電機小波神經(jīng)網(wǎng)絡轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡來實現(xiàn)轉(zhuǎn)角預測,并采用改進遺傳算法來訓練網(wǎng)絡結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    云知聲四篇論文入選自然語言處理頂會ACL 2025

    近日,第63屆國際計算語言學年會ACL 2025(Annual Meeting of the Association for Computational Linguistics,簡稱ACL)論文接收
    的頭像 發(fā)表于 05-26 14:15 ?1042次閱讀
    云知聲四篇<b class='flag-5'>論文</b>入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會ACL 2025

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的比較

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡 : BP神經(jīng)網(wǎng)絡是一種多層的前饋神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 02-12 15:53 ?1307次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡學習

    優(yōu)化BP神經(jīng)網(wǎng)絡學習率是提高模型訓練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡學習率的方法: 一、理解學習率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?1423次閱讀

    BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?1586次閱讀

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    神經(jīng)網(wǎng)絡(即反向傳播神經(jīng)網(wǎng)絡)的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡學習算法。該算法通過計算每層網(wǎng)絡的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?1274次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡,它通過反向傳播算法進行訓練。BP神經(jīng)網(wǎng)絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡權(quán)重,目的是最小化網(wǎng)絡的輸出誤差。 二、深度
    的頭像 發(fā)表于 02-12 15:15 ?1340次閱讀

    BP神經(jīng)網(wǎng)絡的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負責接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡的核心部分,它可以通過一層或多層神經(jīng)元對輸入數(shù)據(jù)進行加權(quán)求和,并通過非線性激活函數(shù)(如ReLU、sigmoid或tanh)進行
    的頭像 發(fā)表于 02-12 15:13 ?1518次閱讀

    BP神經(jīng)網(wǎng)絡在圖像識別中的應用

    BP神經(jīng)網(wǎng)絡在圖像識別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡能夠學習到復雜的特征表達,適用于處理非線性問題。以下是對BP神經(jīng)網(wǎng)絡在圖像識別中應
    的頭像 發(fā)表于 02-12 15:12 ?1188次閱讀

    深度學習入門:簡單神經(jīng)網(wǎng)絡的構(gòu)建與實現(xiàn)

    深度學習中,神經(jīng)網(wǎng)絡是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單的神經(jīng)網(wǎng)絡。 神經(jīng)網(wǎng)絡由多個神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?842次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡 ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?2248次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構(gòu)方法