chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何系統(tǒng)型的學(xué)習(xí)深度學(xué)習(xí)?

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來源:深度學(xué)習(xí)與計(jì)算機(jī)視覺公 ? 2020-10-10 10:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如何系統(tǒng)型的學(xué)習(xí)深度學(xué)習(xí)

不知小伙伴們遇到?jīng)]遇到這樣的情況,對(duì)于想學(xué)習(xí)一個(gè)科目,總想把全部的資料收集起來,然后通過各種渠道了解總共需要學(xué)習(xí)哪些知識(shí)點(diǎn),最后做一個(gè)看著非常努力而又詳細(xì)的路線圖時(shí)間表。 好似我們知道學(xué)習(xí)什么,資料也有了,路線圖也有了,我們就真的會(huì)系統(tǒng)的學(xué)習(xí),成為明日大牛了。 小編有過這種經(jīng)歷,如果是自己想學(xué)習(xí)的科目,而無任何考試或其他外在壓力,按照這種路線,基本是整一次失敗一次。我把這種經(jīng)歷最后歸結(jié)為起步階段的“完美主義”。 經(jīng)歷了幾次,小編發(fā)現(xiàn)學(xué)習(xí)真的是學(xué)才行,如果你真的想系統(tǒng)的學(xué)習(xí)某一個(gè)領(lǐng)域知識(shí),建議不要總是在起步階段打轉(zhuǎn),行動(dòng)起來,不管怎樣資料沒有收集完的時(shí)候,路線圖時(shí)間表沒有一次就完美的情況,做個(gè)大致規(guī)劃,開始了再說。 最后,小編摘抄了幾個(gè)知乎高贊回答,都是小伙伴們自身實(shí)踐的經(jīng)驗(yàn),大家可以看看。

01

作者:機(jī)器學(xué)習(xí)入坑者
https://www.zhihu.com/question/305745486/answer/557055667

一開始,我每天固定兩個(gè)小時(shí)學(xué)Python,兩個(gè)小時(shí)看吳大佬的有題目的視頻教程,兩個(gè)小時(shí)自己實(shí)現(xiàn)課后習(xí)題。這期間感覺自己進(jìn)步很大,但是總覺得哪里出了問題,卻又說不出來。

兩個(gè)多月以后,課程完結(jié),開始學(xué)習(xí)tensorflow,看書敲代碼,出現(xiàn)問題就百度。雖然自己能實(shí)現(xiàn)類似resnet這種基礎(chǔ)網(wǎng)絡(luò),但是自我感覺沒有之前那么好了,好像越學(xué)越糊涂。

再后來,我開始看論文了,找那些有開源實(shí)現(xiàn)的論文,看一篇論文,學(xué)習(xí)一篇代碼。在這樣穩(wěn)扎穩(wěn)打的步伐下,我感覺自己又進(jìn)入了快速上升期。

既然能搞懂別人的論文了,能不能自己來一篇?于是我開始去怎么提出新東西,進(jìn)而意識(shí)到我應(yīng)該先對(duì)自己領(lǐng)域現(xiàn)存方法有所了解,知道它們的優(yōu)點(diǎn)和不足。按照這種想法,我開始有意識(shí)的泛讀自己領(lǐng)域的頂會(huì)論文,了解最流行的方法。我意識(shí)到,最簡(jiǎn)單的創(chuàng)新實(shí)際上就是把別的領(lǐng)域的東西搬過來用,所以我從nlp找了點(diǎn)思想用到對(duì)抗上(此時(shí)我并不知道已經(jīng)有人這么做了,畢竟自己掌握的文獻(xiàn)還不夠)。不管怎么說,我算是有自己的成果了。

這就足夠了嗎?不是的。我越發(fā)感覺到自己的不足,深度學(xué)習(xí)僅僅在cv領(lǐng)域就有各個(gè)子分支,每個(gè)分支就算整個(gè)研究生生涯都不一定能吃透。

更要命的是,我發(fā)現(xiàn)我一直都是在寫算法,從沒考慮過如何部署模型,也就是整天紙上談兵。所以我最近開始學(xué)網(wǎng)絡(luò)知識(shí),學(xué)習(xí)什么是客戶機(jī)服務(wù)器模式,學(xué)習(xí)flask,想把自己的模型部署到web服務(wù)器上。

總得來說,我沒有采納我當(dāng)初所看見的建議,那些建議有的列出來一系列書單,有的列出來一系列課程,對(duì)我個(gè)人來說是不太可行的計(jì)劃我一般都不去做。

我覺得應(yīng)該從自己想解決的問題入手,舊問題的解決往往伴隨新問題的誕生。我最開始只是想知道啥玩意是反向傳播,后來卻自己搞出一篇論文,是那些困擾我的問題激勵(lì)著我進(jìn)一步研究,每次解決問題都會(huì)有那種喜悅的心理,這是我進(jìn)步的源泉。

02

作者:Jason金
https://www.zhihu.com/question/305745486/answer/798114557

系統(tǒng)性我不太了解,但是我可以講講我的學(xué)習(xí)經(jīng)歷,我主要分為四個(gè)階段:

1.初學(xué)階段

啃吳恩達(dá)的機(jī)器學(xué)習(xí)的課程,然后看的是黃海廣博士等人翻譯的課程和筆記,這一階段主要了解相關(guān)的概念,一定要有一個(gè)整體的結(jié)構(gòu),每個(gè)名字大概是什么意思,有什么用。

然后就是代碼方面的事情,我沒有馬上跟上代碼,而是去學(xué)習(xí)了一下一些以后會(huì)用到的基礎(chǔ)的python庫(kù),比如pandas,numpy,matplotlib等

2.初探代碼階段

當(dāng)時(shí)因?yàn)橐恍┡既灰蛩匾錾疃葘W(xué)習(xí)方面的東西,然后去kaggle上下載了一段完整的訓(xùn)練代碼。這里有一些了解的初學(xué)者可能會(huì)問到底選什么深度學(xué)習(xí)平臺(tái)好,tensorflow?pytorch?keras?每個(gè)平臺(tái)之間并沒有絕對(duì)的優(yōu)勢(shì),主要還是看自己的具體情況。

我的方向是和醫(yī)學(xué)圖像相關(guān)的東西,所以選擇了keras,因?yàn)樗鲜挚?,可以快速?gòu)建出一個(gè)模型,但是靈活性要稍微差一些;pytorch是另一個(gè)熱門選擇,我的很多師兄師姐都是用的pytorch,他們很多事做的和人臉相關(guān)的方向;tensorflow不太建議初學(xué)者,相比之下前期學(xué)習(xí)花銷大且代碼量也比較多。

回到正題,上面說的那段完整的訓(xùn)練代碼,我進(jìn)行了一次精讀,理解他每個(gè)步驟都在干些什么,然后用到了哪些有關(guān)的庫(kù),然后對(duì)訓(xùn)練過程有了一個(gè)整體了解,還有就是熟悉這個(gè)框架的一些函數(shù)。

3.“照葫蘆畫瓢”階段(最艱難但進(jìn)步最快)

這個(gè)階段,就如小標(biāo)題所說的一樣,跟著別人的代碼一步一步來,然后化為己用。

雖然對(duì)那段代碼進(jìn)行了精讀,但是直接拿來自己用還是比較牽強(qiáng),各個(gè)專業(yè)名詞越來越混,也不知道要如何下手。沒辦法,只能繼續(xù)鞏固基礎(chǔ),我就去把keras的官方文檔給琢磨了一遍,然后照著它給的最簡(jiǎn)單的分類網(wǎng)絡(luò)實(shí)現(xiàn)了一遍,之中有很多坎坷和挫折,但是堅(jiān)持下來就是勝利。然后就是將自己的數(shù)據(jù)集放入到模型中了,結(jié)果根本不好,但起碼能跑起來。

接下來就是調(diào)參的過程,不會(huì)或者疑惑的地方就百度谷歌還有問師兄師姐,自己感受一遍和只看書是完全不一樣的。

4.進(jìn)階階段

到了這個(gè)階段,已經(jīng)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練流程有了一定認(rèn)知了,接下里就是要訓(xùn)練出一個(gè)表現(xiàn)不錯(cuò)的模型了。又要回到專業(yè)名詞中去,去看別人是怎么優(yōu)化的,提出了什么網(wǎng)絡(luò)結(jié)構(gòu),有什么創(chuàng)新的思路,相關(guān)的paper當(dāng)然是要讀的,然后就是嘗試去優(yōu)化自己的模型。

接下來的階段我也還在摸索,但是最重要的事就是要不斷學(xué)習(xí),不斷去理解深度學(xué)習(xí),把它化作自己能用的東西。

03

作者:瘋貓子
https://www.zhihu.com/question/305745486/answer/557090589

分享一下我的學(xué)習(xí)路徑。

首先,基本的數(shù)學(xué)素養(yǎng)是必須具備的,這個(gè)自不必細(xì)說。

正是開始學(xué)習(xí)前,先了解神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理,在動(dòng)手寫一遍代碼,是自己動(dòng)手實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的算法。

有了這個(gè)基礎(chǔ),再開始學(xué)習(xí)深度神經(jīng)網(wǎng)絡(luò)的原理及用代碼擼一遍。

開始逐步加深難度,學(xué)習(xí)激活函數(shù)并加入神經(jīng)網(wǎng)絡(luò)。學(xué)習(xí)反向傳播,學(xué)習(xí)損失函數(shù),學(xué)習(xí)梯度下降。動(dòng)手?jǐn)]一遍代碼。

自此,基本原理搞明白之后,就可以開始熟悉主流框架,包括tensorflow keras等,能夠閱讀代碼之后,開始研究各種成熟網(wǎng)絡(luò)的結(jié)構(gòu)和調(diào)參。

主要包括基本的cnn,RNN,GAN。這個(gè)過程不是孤立的學(xué)習(xí),需要看論文,做一些小項(xiàng)目來實(shí)踐,所以過程較長(zhǎng)。

當(dāng)然,人生苦短,這個(gè)過程,你還需要弄塊好顯卡來給深度神經(jīng)網(wǎng)絡(luò)加速。

這個(gè)過程,我大概每天平均2-3小時(shí)的學(xué)習(xí),也差不多用了9個(gè)月,所以,祝好,祝學(xué)習(xí)快樂。

04

作者:yuquanle
https://www.zhihu.com/question/305745486/answer/558653688

個(gè)人感覺有了些基礎(chǔ)常識(shí)之后就開始在實(shí)踐中學(xué)習(xí)吧,系統(tǒng)的學(xué)里面涉及那么多知識(shí),學(xué)一遍怕的黃花菜都涼了~遇到不懂的概念利用百度谷歌,然后理解學(xué)習(xí)這個(gè)概念,若是概念難懂,就多看不同的人對(duì)這些概念的理解,有的時(shí)候有些人能深入淺出的講解一些很不錯(cuò)的資料,我覺得這種有目的性的實(shí)踐學(xué)習(xí)方式學(xué)來的東西更加印象深刻~

這樣即鍛煉了個(gè)人能力(獨(dú)立查找資料文獻(xiàn)也是能力),又能達(dá)成某些目的~這樣過了一段時(shí)間之后,你好像又懂很多東西了,但是好像又有很多方面不了解,其實(shí)這就是你在某個(gè)點(diǎn)有點(diǎn)深度了,但是廣度還不夠。如果此時(shí)有大把閑置的時(shí)間,就可以去刷刷那些不錯(cuò)的系統(tǒng)性課程,刷課的時(shí)候會(huì)發(fā)現(xiàn)很多概念理解起來輕松多了,或者說似曾相識(shí)(理解的知識(shí)點(diǎn)又得到了復(fù)習(xí)并再次確認(rèn)自己的理解了的知識(shí)點(diǎn)和這些老師講的是否一致)。

每天進(jìn)步一丟丟

使用邏輯回歸處理多標(biāo)簽的分類問題 使用哪一種方法來處理多分類問題取決于具體問題的定義。如果一個(gè)樣本只對(duì)應(yīng)于一個(gè)標(biāo)簽,我們可以假設(shè)每個(gè)樣本屬于不同標(biāo)簽的概率服從于幾何分布,使用多項(xiàng)邏輯回歸(Softmax Regression)來進(jìn)行分類。(多項(xiàng)邏輯回歸實(shí)際上是二分類邏輯回歸在多標(biāo)簽分類下的一種拓展。) 當(dāng)存在樣本可能屬于多個(gè)標(biāo)簽的情況時(shí),我們可以訓(xùn)練k個(gè)二分類的邏輯回歸分類器。第i個(gè)分類器用以區(qū)分每個(gè)樣本是否可以歸為第i類,訓(xùn)練該分類器時(shí),需要把標(biāo)簽重新整理為“第i類標(biāo)簽”與“非第i類標(biāo)簽”兩類。通過這樣的辦法,我們就解決了每個(gè)樣本可能擁有多個(gè)標(biāo)簽的情況,

責(zé)任編輯:lq
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Web
    Web
    +關(guān)注

    關(guān)注

    2

    文章

    1296

    瀏覽量

    73104
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4848

    瀏覽量

    88998
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5586

    瀏覽量

    123665

原文標(biāo)題:如何系統(tǒng)地學(xué)習(xí)深度學(xué)習(xí)(從初級(jí)到高級(jí),初學(xué)者必看)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?507次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?547次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動(dòng)駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?3773次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    如何排除深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?714次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?1184次閱讀

    4G模組SD卡接口編程:深度學(xué)習(xí)

    今天我們需要深度學(xué)習(xí)的是4G模組SD卡接口編程,以我常用的模組Air724UG為例,分享給大家。
    的頭像 發(fā)表于 11-20 23:14 ?895次閱讀
    4G模組SD卡接口編程:<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>

    GPU在深度學(xué)習(xí)中的應(yīng)用 GPUs在圖形設(shè)計(jì)中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,其強(qiáng)大的并行處理能力使得訓(xùn)練復(fù)雜的神經(jīng)網(wǎng)絡(luò)模
    的頭像 發(fā)表于 11-19 10:55 ?1962次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?2550次閱讀

    pcie在深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運(yùn)而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1670次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?898次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1927次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1332次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1533次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?3384次閱讀