chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DNN(深度神經(jīng)網(wǎng)絡(luò))在訓(xùn)練過(guò)程中遇到的一些問(wèn)題

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 2023-02-06 16:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)已經(jīng)成為解決許多具有挑戰(zhàn)性的現(xiàn)實(shí)世界問(wèn)題的方法。對(duì)目標(biāo)檢測(cè),語(yǔ)音識(shí)別和語(yǔ)言翻譯來(lái)說(shuō),這是迄今為止表現(xiàn)最好的方法。許多人將深度神經(jīng)網(wǎng)絡(luò)(DNNs)視為神奇的黑盒子,我們放進(jìn)去一堆數(shù)據(jù),出來(lái)的就是我們的解決方案!事實(shí)上,事情沒(méi)那么簡(jiǎn)單。

在設(shè)計(jì)和應(yīng)用DNN到一個(gè)特定的問(wèn)題上可能會(huì)遇到很多挑戰(zhàn)。為了達(dá)到現(xiàn)實(shí)世界應(yīng)用所需的性能標(biāo)準(zhǔn),對(duì)數(shù)據(jù)準(zhǔn)備,網(wǎng)絡(luò)設(shè)計(jì),訓(xùn)練和推斷等各個(gè)階段的正確設(shè)計(jì)和執(zhí)行至關(guān)重要。

今天給大家講講DNN(深度神經(jīng)網(wǎng)絡(luò))在訓(xùn)練過(guò)程中遇到的一些問(wèn)題,然后我們應(yīng)該怎么去注意它,并學(xué)會(huì)怎么去訓(xùn)練它。

1、數(shù)據(jù)集的準(zhǔn)備:

必須要保證大量、高質(zhì)量且?guī)в袦?zhǔn)確標(biāo)簽的數(shù)據(jù),沒(méi)有該條件的數(shù)據(jù),訓(xùn)練學(xué)習(xí)很困難的(但是最近我看了以為作者寫(xiě)的一篇文章,說(shuō)明不一定需要大量數(shù)據(jù)集,也可以訓(xùn)練的很好,有空和大家來(lái)分享其思想---很厲害的想法);

2、數(shù)據(jù)預(yù)處理:

這個(gè)不多說(shuō),就是0均值和1方差化,其實(shí)還有很多方法;

3、Minibatch:

這個(gè)有時(shí)候還要根據(jù)你的硬件設(shè)備而定,一般建議用128,8這組,但是128,1也很好,只是效率會(huì)非常慢,注意的是:千萬(wàn)不要用過(guò)大的數(shù)值,否則很容易過(guò)擬合;

4、梯度歸一化:

其實(shí)就是計(jì)算出來(lái)梯度之后,要除以Minibatch的數(shù)量,這個(gè)可以通過(guò)閱讀源碼得知(我之前有寫(xiě)過(guò)SGD);

5、學(xué)習(xí)率:

① 一般都會(huì)有默認(rèn)的學(xué)習(xí)率,但是剛開(kāi)始還是用一般的去學(xué)習(xí),然后逐漸的減小它;

② 一個(gè)建議值是0.1,適用于很多NN的問(wèn)題,一般傾向于小一點(diǎn);但是如果對(duì)于的大數(shù)據(jù),何凱明老師也說(shuō)過(guò),要把學(xué)習(xí)率調(diào)到很小,他說(shuō)0.00001都不為過(guò)(如果記得不錯(cuò),應(yīng)該是這么說(shuō)的);

③ 一個(gè)對(duì)于調(diào)度學(xué)習(xí)率的建議:如果在驗(yàn)證集上性能不再增加就讓學(xué)習(xí)率除以2或者5,然后繼續(xù),學(xué)習(xí)率會(huì)一直變得很小,到最后就可以停止訓(xùn)練了;

④ 很多人用的一個(gè)設(shè)計(jì)學(xué)習(xí)率的原則就是監(jiān)測(cè)一個(gè)比率(每次更新梯度的norm除以當(dāng)前weight的norm),如果這個(gè)比率在10e-3附近,且小于這個(gè)值,學(xué)習(xí)會(huì)很慢,如果大于這個(gè)值,那么學(xué)習(xí)很不穩(wěn)定,由此會(huì)帶來(lái)學(xué)習(xí)失敗。

6、驗(yàn)證集的使用:

使用驗(yàn)證集,可以知道什么時(shí)候開(kāi)始降低學(xué)習(xí)率和什么時(shí)候停止訓(xùn)練;

7、weight初始化:

① 如果你不想繁瑣的話,直接用0.02*randn(num_params)來(lái)初始化,當(dāng)然別的值也可以去嘗試;

② 如果上面那個(gè)建議不太好使,那么就依次初始化每一個(gè)weight矩陣用init_scale / sqrt(layer_width) * randn,init_scale可以被設(shè)置為0.1或者1;

③ 初始化參數(shù)對(duì)結(jié)果的影響至關(guān)重要,要引起重視;

④ 在深度網(wǎng)絡(luò)中,隨機(jī)初始化權(quán)重,使用SGD的話一般處理的都不好,這是因?yàn)槌跏蓟臋?quán)重太小了。這種情況下對(duì)于淺層網(wǎng)絡(luò)有效,但是當(dāng)足夠深的時(shí)候就不行,因?yàn)閣eight更新的時(shí)候,是靠很多weight相乘的,越乘越小,類(lèi)似梯度消失的意思。

8、RNN&&LSTM(這方面沒(méi)有深入了解,借用別人的意思):

如果訓(xùn)練RNN或者LSTM,務(wù)必保證gradient的norm被約束在15或者5(前提還是要先歸一化gradient),這一點(diǎn)在RNN和LSTM中很重要;

9、梯度檢查:

檢查下梯度,如果是你自己計(jì)算的梯度;如果使用LSTM來(lái)解決長(zhǎng)時(shí)依賴的問(wèn)題,記得初始化bias的時(shí)候要大一點(diǎn);

10、數(shù)據(jù)增廣:

盡可能想辦法多的擴(kuò)增訓(xùn)練數(shù)據(jù),如果使用的是圖像數(shù)據(jù),不妨對(duì)圖像做一點(diǎn)扭轉(zhuǎn),剪切,分割等操作來(lái)擴(kuò)充數(shù)據(jù)訓(xùn)練集合;

11、dropout:(先空著,下次我要單獨(dú)詳細(xì)講解Dropout)

12、評(píng)價(jià)結(jié)果:

評(píng)價(jià)最終結(jié)果的時(shí)候,多做幾次,然后平均一下他們的結(jié)果。

補(bǔ)充:

1、選擇優(yōu)化算法

傳統(tǒng)的隨機(jī)梯度下降算法雖然適用很廣,但并不高效,最近出現(xiàn)很多更靈活的優(yōu)化算法,例如Adagrad、RMSProp等,可在迭代優(yōu)化的過(guò)程中自適應(yīng)的調(diào)節(jié)學(xué)習(xí)速率等超參數(shù),效果更佳;

2、參數(shù)設(shè)置技巧

無(wú)論是多核CPU還是GPU加速,內(nèi)存管理仍然以字節(jié)為基本單元做硬件優(yōu)化,因此將參數(shù)設(shè)定為2的指數(shù)倍,如64,128,512,1024等,將有效提高矩陣分片、張量計(jì)算等操作的硬件處理效率;

3、正則優(yōu)化

除了在神經(jīng)網(wǎng)絡(luò)單元上添加傳統(tǒng)的L1/L2正則項(xiàng)外,Dropout更經(jīng)常在深度神經(jīng)網(wǎng)絡(luò)應(yīng)用來(lái)避免模型的過(guò)擬合。初始默認(rèn)的0.5的丟棄率是保守的選擇,如果模型不是很復(fù)雜,設(shè)置為0.2就可以;

4、其他方法

除了上述訓(xùn)練調(diào)優(yōu)的方法外,還有其他一些常用方法,包括:使用mini-batch learning方法、遷移訓(xùn)練學(xué)習(xí)、打亂訓(xùn)練集順序、對(duì)比訓(xùn)練誤差和測(cè)試誤差調(diào)節(jié)迭代次數(shù)、日志可視化觀察等等。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:基礎(chǔ)入門(mén):“煉丹師”——深度學(xué)習(xí)訓(xùn)練技巧

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 12-17 15:05 ?317次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及MCU200T上仿真測(cè)試

    應(yīng)用廣泛。因?yàn)榻?jīng)過(guò)MaxPool可以減小卷積核的尺寸,同時(shí)又可以保留相應(yīng)特征,所以主要用來(lái)降維。 全連接層:全連接的過(guò)程中丟失位置信息,降低了學(xué)習(xí)過(guò)程中的參數(shù)敏感度。 RELU激活函數(shù):該函
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    () riscv_fully_connected_q7()   NS上跑時(shí)和arm的神經(jīng)網(wǎng)絡(luò)庫(kù)致,可在github上下載CMSIS的庫(kù),然后加入到自己庫(kù)所在的路徑下即可。
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    整個(gè)模型非常巨大。所以要想實(shí)現(xiàn)輕量級(jí)的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN神經(jīng)網(wǎng)絡(luò)是通過(guò)權(quán)值共享的方式,利用卷積運(yùn)算從圖像中提取線性紋理。
    發(fā)表于 10-28 08:02

    Ubuntu20.04系統(tǒng)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享Ubuntu20.04系統(tǒng)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorF
    發(fā)表于 10-22 07:03

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、
    的頭像 發(fā)表于 09-17 13:31 ?1120次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?897次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b>學(xué)習(xí)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)電機(jī)故障診斷的應(yīng)用

    的診斷誤差。仿真結(jié)果驗(yàn)證了該算法的有效性。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)電機(jī)故障診斷的應(yīng)用.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS異步電機(jī)轉(zhuǎn)速估計(jì)的仿真研究

    ,在定程度上擴(kuò)展了轉(zhuǎn)速估計(jì)范圍。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)RAS異步電機(jī)轉(zhuǎn)速估計(jì)的仿真研究.pdf【免責(zé)聲明】本文系
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模
    的頭像 發(fā)表于 06-03 15:51 ?1190次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    FX2LP USB上配置GPIF中斷時(shí)遇到一些問(wèn)題,求解決

    你好,我 FX2LP USB 上配置 GPIF 中斷時(shí)遇到一些問(wèn)題。 我啟用了 INT4 中斷并從 GPIF 中選擇了源 INT4,然后啟用了 GPIF 完成中斷,但我看不到中斷 4 工作。 我該如何做呢?
    發(fā)表于 05-06 08:00

    調(diào)試ADPD188芯片的過(guò)程中用I2C調(diào)試過(guò)程出現(xiàn)一些問(wèn)題,求解決

    調(diào)試ADPD188芯片的過(guò)程中用I2C調(diào)試過(guò)程出現(xiàn)一些問(wèn)題,參考官方提供的代碼調(diào)試中發(fā)現(xiàn),初始化過(guò)不去,抓取波形發(fā)現(xiàn)芯片型號(hào)對(duì)不上了,從芯片外觀看ADPD188bi這個(gè)芯片,請(qǐng)問(wèn)是
    發(fā)表于 04-16 06:57

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    和模擬切規(guī)律,但實(shí)際上,這個(gè)過(guò)程效率非常低,需要消耗大量的存儲(chǔ)空間描述網(wǎng)絡(luò)的參數(shù),并且需要大量的數(shù)據(jù)樣本覆蓋規(guī)律可能涉及到的情景。 優(yōu)秀的數(shù)學(xué)家們?cè)谶^(guò)往的研究,已經(jīng)發(fā)現(xiàn)和總結(jié)出了
    的頭像 發(fā)表于 04-02 18:21 ?1511次閱讀

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 的過(guò)濾器修剪統(tǒng)計(jì)數(shù)據(jù)怎么查看?

    無(wú)法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 的過(guò)濾器修剪統(tǒng)計(jì)數(shù)據(jù)
    發(fā)表于 03-06 07:10