chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

電子發(fā)燒友App

硬聲App

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示
創(chuàng)作
電子發(fā)燒友網(wǎng)>電子資料下載>電子資料>PyTorch教程3.6之概括

PyTorch教程3.6之概括

2023-06-05 | pdf | 0.21 MB | 次下載 | 免費(fèi)

資料介紹

考慮兩個(gè)正在努力準(zhǔn)備期末考試的大學(xué)生。通常,這種準(zhǔn)備將包括通過(guò)參加前幾年的考試來(lái)練習(xí)和測(cè)試他們的能力。盡管如此,在過(guò)去的考試中取得好成績(jī)并不能保證他們?cè)谥匾臅r(shí)候會(huì)出類拔萃。例如,想象一個(gè)學(xué)生 Elephantine Ellie,她的準(zhǔn)備工作完全包括記住前幾年考試問(wèn)題的答案。即使艾莉被賦予了象象般的記憶力,因此可以完美地回憶起任何以前見(jiàn)過(guò)的問(wèn)題的答案,但當(dāng)她面對(duì)一個(gè)新的(以前沒(méi)見(jiàn)過(guò)的)問(wèn)題時(shí),她可能還是會(huì)僵住) 問(wèn)題。相比之下,想象另一個(gè)學(xué)生,Inductive Irene,記憶能力相對(duì)較差,但有能力挑選模式。請(qǐng)注意,如果考試真的由前一年的重復(fù)問(wèn)題組成,那么 Ellie 將輕松勝過(guò) Irene。即使 Irene 的推斷模式產(chǎn)生了 90% 的準(zhǔn)確預(yù)測(cè),它們也永遠(yuǎn)無(wú)法與 Ellie 的 100% 召回率相提并論。然而,即使考試完全由新題組成,艾琳也可能保持 90% 的平均分。

作為機(jī)器學(xué)習(xí)科學(xué)家,我們的目標(biāo)是發(fā)現(xiàn)模式。但是我們?nèi)绾未_定我們真的發(fā)現(xiàn)了一個(gè)普遍的模式而不是簡(jiǎn)單地記住了我們的數(shù)據(jù)呢?大多數(shù)時(shí)候,我們的預(yù)測(cè)只有在我們的模型發(fā)現(xiàn)這種模式時(shí)才有用。我們不想預(yù)測(cè)昨天的股價(jià),而是明天的。我們不需要為以前見(jiàn)過(guò)的病人識(shí)別已經(jīng)診斷出的疾病,而是需要識(shí)別以前沒(méi)見(jiàn)過(guò)的病人的以前未確診的疾病。這個(gè)問(wèn)題——如何發(fā)現(xiàn)泛化的模式——是機(jī)器學(xué)習(xí)的根本問(wèn)題,可以說(shuō)是所有統(tǒng)計(jì)學(xué)的根本問(wèn)題。我們可以把這個(gè)問(wèn)題看作是一個(gè)涵蓋所有科學(xué)的更宏大問(wèn)題的一部分:我們什么時(shí)候有理由從特定的觀察到更一般的陳述(波普爾,2005 年?

在現(xiàn)實(shí)生活中,我們必須使用有限的數(shù)據(jù)集合來(lái)擬合模型。該數(shù)據(jù)的典型規(guī)模在不同領(lǐng)域差異很大。對(duì)于許多重要的醫(yī)學(xué)問(wèn)題,我們只能訪問(wèn)幾千個(gè)數(shù)據(jù)點(diǎn)。在研究罕見(jiàn)病時(shí),我們可能幸運(yùn)地接觸到數(shù)百種疾病。相比之下,由標(biāo)記照片組成的最大公共數(shù)據(jù)集(例如,ImageNet Deng等人,2009 年)包含數(shù)百萬(wàn)張圖像。而一些未標(biāo)記的圖像集合,例如 Flickr YFC100M 數(shù)據(jù)集可能更大,包含超過(guò) 1 億張圖像Thomee等人,2016 年. 然而,即使在這種極端規(guī)模下,與 1 百萬(wàn)像素分辨率下所有可能圖像的空間相比,可用數(shù)據(jù)點(diǎn)的數(shù)量仍然是無(wú)限小的。每當(dāng)我們處理有限樣本時(shí),我們必須牢記這樣的風(fēng)險(xiǎn),即我們可能會(huì)擬合我們的訓(xùn)練數(shù)據(jù),卻發(fā)現(xiàn)我們未能發(fā)現(xiàn)可概括的模式。

擬合更接近我們的訓(xùn)練數(shù)據(jù)而不是底層分布的現(xiàn)象稱為過(guò)度擬合,而對(duì)抗過(guò)度擬合的技術(shù)通常稱為正則化方法。雖然沒(méi)有什么可以替代對(duì)統(tǒng)計(jì)學(xué)習(xí)理論的適當(dāng)介紹(參見(jiàn)Boucheron等人2005 年)、Vapnik(1998 年),但我們將為您提供足夠的直覺(jué)來(lái)開(kāi)始學(xué)習(xí)。我們將在全書(shū)的許多章節(jié)中重新審視泛化,探索各種模型中泛化的基本原理的已知內(nèi)容,以及已經(jīng)發(fā)現(xiàn)的啟發(fā)式技術(shù)(根據(jù)經(jīng)驗(yàn))可以對(duì)實(shí)際感興趣的任務(wù)產(chǎn)生改進(jìn)的泛化。

3.6.1. 訓(xùn)練誤差和泛化誤差

在標(biāo)準(zhǔn)的監(jiān)督學(xué)習(xí)設(shè)置中,我們假設(shè)訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)是獨(dú)立相同 分布繪制的。這通常稱為IID 假設(shè)。雖然這個(gè)假設(shè)很強(qiáng),但值得注意的是,如果沒(méi)有任何這樣的假設(shè),我們就會(huì)死在水里。為什么我們應(yīng)該相信從分布中采樣的訓(xùn)練數(shù)據(jù)P(X,Y)應(yīng)該告訴我們?nèi)绾螌?duì)不同分布生成的測(cè)試數(shù)據(jù)進(jìn)行預(yù)測(cè) Q(X,Y)?事實(shí)證明,實(shí)現(xiàn)這樣的飛躍需要強(qiáng)有力的假設(shè)PQ有關(guān)系。稍后我們將討論一些允許分布變化的假設(shè),但首先我們需要了解 IID 情況,其中 P(?)=Q(?).

首先,我們需要區(qū)分訓(xùn)練誤差 Remp,這是在訓(xùn)練數(shù)據(jù)集上計(jì)算的統(tǒng)計(jì)量,泛化誤差 R,這是 對(duì)基礎(chǔ)分布的期望。您可以將泛化錯(cuò)誤視為將您的模型應(yīng)用于從相同的基礎(chǔ)數(shù)據(jù)分布中提取的無(wú)限的附加數(shù)據(jù)示例流時(shí)您會(huì)看到的情況。形式上,訓(xùn)練誤差表示為總和(在3.1 節(jié)中使用相同的符號(hào) ):

(3.6.1)Remp[X,y,f]=1n∑i=1nl(x(i),y(i),f(x(i))),

而泛化誤差表示為一個(gè)積分:

(3.6.2)R[p,f]=E(x,y)~P[l(x,y,f(x))]=∫∫l(x,y,f(x))p(x,y)dxdy.

問(wèn)題是,我們永遠(yuǎn)無(wú)法計(jì)算泛化誤差 R確切地。沒(méi)有人告訴我們密度函數(shù)的精確形式p(x,y). 此外,我們無(wú)法對(duì)無(wú)限的數(shù)據(jù)點(diǎn)流進(jìn)行采樣。因此,在實(shí)踐中,我們必須通過(guò)將我們的模型應(yīng)用于由隨機(jī)選擇的示例組成的獨(dú)立測(cè)試集來(lái)估計(jì) 泛化誤差X′標(biāo)簽y′從我們的訓(xùn)練集中保留下來(lái)的。這包括將與計(jì)算經(jīng)驗(yàn)訓(xùn)練誤差相同的公式應(yīng)用于測(cè)試集 X′,y′.

至關(guān)重要的是,當(dāng)我們?cè)跍y(cè)試集上評(píng)估我們的分類器時(shí),我們使用的是固定分類器(它不依賴于測(cè)試集的樣本),因此估計(jì)其誤差只是均值估計(jì)的問(wèn)題。然而,對(duì)于訓(xùn)練集來(lái)說(shuō),情況并非如此。請(qǐng)注意,我們最終得到的模型明確取決于訓(xùn)練集的選擇,因此訓(xùn)練誤差通常是對(duì)基礎(chǔ)總體真實(shí)誤差的有偏估計(jì)。泛化的核心問(wèn)題是我們何時(shí)應(yīng)該期望我們的訓(xùn)練誤差接近總體誤差(以及泛化誤差)。

3.6.1.1. 模型復(fù)雜度

在經(jīng)典理論中,當(dāng)我們擁有簡(jiǎn)單的模型和豐富的數(shù)據(jù)時(shí),訓(xùn)練誤差和泛化誤差往往很接近。然而,當(dāng)我們使用更復(fù)雜的模型和/或更少的示例時(shí),我們預(yù)計(jì)訓(xùn)練誤差會(huì)下降但泛化差距會(huì)擴(kuò)大。這不足為奇。想象一個(gè)模型類如此富有表現(xiàn)力,以至于對(duì)于任何數(shù)據(jù)集n例如,我們可以找到一組可以完美匹配任意標(biāo)簽的參數(shù),即使是隨機(jī)分配的。在這種情況下,即使我們完美地?cái)M合了我們的訓(xùn)練數(shù)據(jù),我們?cè)趺茨艿贸鲫P(guān)于泛化誤差的任何結(jié)論呢?就我們所知,我們的泛化誤差可能并不比隨機(jī)猜測(cè)好多少。

一般來(lái)說(shuō),在我們的模型類別沒(méi)有任何限制的情況下,我們不能僅基于擬合訓(xùn)練數(shù)據(jù)就得出我們的模型已經(jīng)發(fā)現(xiàn)任何可概括模式的結(jié)論Vapnik等人,1994 年另一方面,如果我們的模型類不能適應(yīng)任意標(biāo)簽,那么它一定發(fā)現(xiàn)了一種模式。關(guān)于模型復(fù)雜性的學(xué)習(xí)理論思想從卡爾波普爾的思想中獲得了一些靈感,卡爾波普爾是一位有影響力的科學(xué)哲學(xué)家,他形式化了可證偽性標(biāo)準(zhǔn)。根據(jù)波普爾的說(shuō)法,可以解釋任何和所有觀察結(jié)果的理論根本不是科學(xué)理論!畢竟,如果它不排除任何可能性,它能告訴我們關(guān)于這個(gè)世界的什么呢?簡(jiǎn)而言之,我們想要的是一個(gè)無(wú)法實(shí)現(xiàn)的假設(shè) 解釋我們可能做出的任何觀察,但恰好與我們實(shí)際上做出的觀察相一致。

現(xiàn)在,究竟是什么構(gòu)成了模型復(fù)雜性的適當(dāng)概念是一個(gè)復(fù)雜的問(wèn)題。通常,具有更多參數(shù)的模型能夠適應(yīng)更多數(shù)量的任意分配標(biāo)簽。然而,這不一定是真的。例如,內(nèi)核方法在具有無(wú)限數(shù)量參數(shù)的空間中運(yùn)行,但它們的復(fù)雜性由其他方式控制Scholkopf 和 Smola,2002 年一個(gè)經(jīng)常被證明有用的復(fù)雜性概念是參數(shù)可以采用的值的范圍。在這里,允許參數(shù)取任意值的模型會(huì)更復(fù)雜。我們將在下一節(jié)介紹權(quán)重衰減時(shí)重新討論這個(gè)想法,您的第一個(gè)實(shí)用正則化技術(shù)。值得注意的是,比較本質(zhì)上不同的模型類(例如,決策樹(shù)與神經(jīng)網(wǎng)絡(luò))的成員之間的復(fù)雜性可能很困難。

在這一點(diǎn)上,我們必須強(qiáng)調(diào)另一個(gè)重點(diǎn),我們將在介紹深度神經(jīng)網(wǎng)絡(luò)時(shí)重新討論這一點(diǎn)。當(dāng)模型能夠擬合任意標(biāo)簽時(shí),低訓(xùn)練誤差并不一定意味著低泛化誤差。但是,它也不一定意味著高泛化錯(cuò)誤!我們只能自信地說(shuō),僅憑低訓(xùn)練誤差不足以證明低泛化誤差。深度神經(jīng)網(wǎng)絡(luò)就是這樣的模型:雖然它們?cè)趯?shí)踐中泛化得很好,但它們太強(qiáng)大了,無(wú)法讓我們僅根據(jù)訓(xùn)練誤差得出很多結(jié)論。在這些情況下,我們必須更多地依賴我們的堅(jiān)持?jǐn)?shù)據(jù)來(lái)證明事后的概括。holdout 數(shù)據(jù)(即驗(yàn)證集)上的錯(cuò)誤稱為驗(yàn)證錯(cuò)誤。

3.6.2. 欠擬合還是過(guò)擬合?

當(dāng)我們比較訓(xùn)練和驗(yàn)證錯(cuò)誤時(shí),我們要注意兩種常見(jiàn)情況。首先,我們要注意訓(xùn)練誤差和驗(yàn)證誤差都很大但它們之間有一點(diǎn)差距的情況。

下載該資料的人也在下載 下載該資料的人還在閱讀
更多 >

評(píng)論

查看更多

下載排行

本周

  1. 1NS1081/NS1081S/NS1081Q USB 3.0閃存數(shù)據(jù)手冊(cè)
  2. 0.40 MB   |  4次下載  |  2 積分
  3. 2光伏并網(wǎng)逆變器原理
  4. 7.31 MB   |  3次下載  |  2 積分
  5. 3T20電烙鐵原理圖資料
  6. 0.27 MB   |  2次下載  |  免費(fèi)
  7. 4PL83081 雙路恒流同步降壓轉(zhuǎn)換器技術(shù)手冊(cè)
  8. 3.34 MB   |  1次下載  |  免費(fèi)
  9. 5PL88052 4.8V至60V輸入,5A,同步降壓轉(zhuǎn)換器技術(shù)手冊(cè)
  10. 3.36 MB   |  1次下載  |  免費(fèi)
  11. 6LX8201微孔霧化驅(qū)動(dòng)芯片電路圖資料
  12. 0.15 MB   |  1次下載  |  免費(fèi)
  13. 7PC6200_7V直流電機(jī)驅(qū)動(dòng)器技術(shù)手冊(cè)
  14. 0.47 MB   |  次下載  |  免費(fèi)
  15. 8恒溫晶體振蕩器(OCXO)FOC-2D:20.6×20.6mm在通信基站和測(cè)試設(shè)備中的應(yīng)用參數(shù)規(guī)格
  16. 485.75 KB  |  次下載  |  免費(fèi)

本月

  1. 1如何看懂電子電路圖
  2. 12.88 MB   |  329次下載  |  免費(fèi)
  3. 2RK3588數(shù)據(jù)手冊(cè)
  4. 2.24 MB   |  14次下載  |  免費(fèi)
  5. 3PC5502負(fù)載均流控制電路數(shù)據(jù)手冊(cè)
  6. 1.63 MB   |  12次下載  |  免費(fèi)
  7. 4STM32F10x參考手冊(cè)資料
  8. 13.64 MB   |  12次下載  |  1 積分
  9. 5OAH0428 V1.0英文規(guī)格書(shū)
  10. 5.86 MB   |  8次下載  |  免費(fèi)
  11. 6NS1081/NS1081S/NS1081Q USB 3.0閃存數(shù)據(jù)手冊(cè)
  12. 0.40 MB   |  4次下載  |  2 積分
  13. 7PID控制算法學(xué)習(xí)筆記資料
  14. 3.43 MB   |  3次下載  |  2 積分
  15. 8光伏并網(wǎng)逆變器原理
  16. 7.31 MB   |  3次下載  |  2 積分

總榜

  1. 1matlab軟件下載入口
  2. 未知  |  935132次下載  |  10 積分
  3. 2開(kāi)源硬件-PMP21529.1-4 開(kāi)關(guān)降壓/升壓雙向直流/直流轉(zhuǎn)換器 PCB layout 設(shè)計(jì)
  4. 1.48MB  |  420064次下載  |  10 積分
  5. 3Altium DXP2002下載入口
  6. 未知  |  233089次下載  |  10 積分
  7. 4電路仿真軟件multisim 10.0免費(fèi)下載
  8. 340992  |  191415次下載  |  10 積分
  9. 5十天學(xué)會(huì)AVR單片機(jī)與C語(yǔ)言視頻教程 下載
  10. 158M  |  183349次下載  |  10 積分
  11. 6labview8.5下載
  12. 未知  |  81599次下載  |  10 積分
  13. 7Keil工具M(jìn)DK-Arm免費(fèi)下載
  14. 0.02 MB  |  73818次下載  |  10 積分
  15. 8LabVIEW 8.6下載
  16. 未知  |  65990次下載  |  10 積分