chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2018年深度學(xué)習(xí)預(yù)測(cè)的回顧,目的是量化深度學(xué)習(xí)的快速發(fā)展

DPVg_AI_era ? 來(lái)源:lq ? 2018-12-10 09:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

離 2019 年還剩不到 1 個(gè)月的時(shí)間了。這幾年來(lái),每個(gè)年初本文作者 Carlos E. Perez 都對(duì)預(yù)測(cè)當(dāng)年深度學(xué)習(xí)的趨勢(shì)做預(yù)測(cè),到年底再對(duì)預(yù)測(cè)進(jìn)行回顧,今年亦不例外。本文是他對(duì) 2018 年深度學(xué)習(xí)預(yù)測(cè)的回顧,目的是量化深度學(xué)習(xí)的快速發(fā)展。通過(guò)回顧預(yù)測(cè),對(duì)比新的一年的進(jìn)展,我們可以了解這個(gè)領(lǐng)域發(fā)展到底有多快。

本文將回顧我對(duì) 2018 年深度學(xué)習(xí)的預(yù)測(cè),并對(duì)這一年的進(jìn)展進(jìn)行評(píng)論:

注:

作者對(duì) 2018 年深度學(xué)習(xí)的預(yù)測(cè)見:【2018深度學(xué)習(xí)10大警示】多數(shù)芯片公司將破產(chǎn);自我對(duì)弈可自動(dòng)創(chuàng)造知識(shí)

1.多數(shù)深度學(xué)習(xí)硬件初創(chuàng)公司都將失敗

2018 年,深度學(xué)習(xí)硬件公司中,公開承認(rèn)失敗的公司沒幾家(有一家公司已宣稱失敗:KnuEdge),但是它們都還沒有交付產(chǎn)品。有意思的是,盡管這些初創(chuàng)公司未能交付產(chǎn)品,卻仍然能夠籌集到更多的資金!

注:

這里有一份人工智能硬件初創(chuàng)公司列表:

https://github.com/basicmi/AI-Chip-List

去年我的觀點(diǎn)是,深度學(xué)習(xí)初創(chuàng)公司將無(wú)法正確地估計(jì)自己可以為自己的潛在的客戶群提供多少可用軟件的成本。隨著深度學(xué)習(xí)堆棧變得越來(lái)越豐富、越來(lái)越復(fù)雜,初創(chuàng)公司還能迎頭趕上嗎?這是個(gè)疑問(wèn)。

最大的失敗來(lái)自 Intel。在 NIPS 2017 大會(huì)上,它們不是大張旗鼓地宣揚(yáng)最終將提供硅片嗎?今年,它們的 Nervana 衍生產(chǎn)品是 MIA。它們是否能夠在明年春天之前推出 “Spring Crest”?讓我們拭目以待。

有多家初創(chuàng)公司都號(hào)稱自己有可用的硅片。深度學(xué)習(xí)人工智能如此熱門,每個(gè)人都想 “發(fā)明” 自己的芯片。簡(jiǎn)單列舉一下,這些初創(chuàng)公司包括:GraphCore、Wave Computing、Groq、 Habana、Bitmain、Cabricon、Esperanto、Novumind、Gryfalcon、Hailo 和 Horizon。這還沒算上三星、ARM、Xilinx、高通和華為等傳統(tǒng)半導(dǎo)體制造商。另外有一個(gè)新情況是,現(xiàn)在傳統(tǒng)的云服務(wù)供應(yīng)商并不是購(gòu)買 AI 芯片,而是研發(fā)自己的 AI 芯片:比如 Amazon 的 Inferentia、Microsoft 的 Brainwave、Facebook、阿里巴巴的 AliNPU 和百度的昆侖。芯片領(lǐng)域?qū)⒑芸炀蜁?huì)變得擁擠起來(lái)!

現(xiàn)在的情況是,深度學(xué)習(xí)硬件由極其龐大且有能力的公司來(lái)主導(dǎo):Nvidia 和 Google。雖然你無(wú)法得到 Google TPU2 的物理硬件,但你可以通過(guò)云服務(wù)對(duì) Google TPU2 進(jìn)行虛擬訪問(wèn)。相比之下,Nivida 提供了云計(jì)算(通過(guò)第三方云服務(wù)供應(yīng)商)和硬件的兩種可用選項(xiàng)。

能夠與這兩大巨頭進(jìn)行競(jìng)爭(zhēng)的供應(yīng)商是 AMD。AMD 支持最新版本的 TensorFlow,并且擁有逐漸成熟的深度學(xué)習(xí)堆棧。與 Nvidia 和 Google 不同,它們?nèi)鄙?Tensor 核心組件(即 Systolic Array(脈動(dòng)陣列))。但對(duì)更為傳統(tǒng)的訓(xùn)練和推理工作來(lái)說(shuō),AMD 的硬件性能可與 Nvidia 媲美。這聽上去可能會(huì)覺得沒什么大不了的,但是你要知道,AMD 已經(jīng)遙遙領(lǐng)先于任何其他初創(chuàng)公司的競(jìng)爭(zhēng)對(duì)手。AMD 和 Nvidia 有著相似的規(guī)模經(jīng)濟(jì),因?yàn)樗鼈兊拇蟛糠止杵际怯糜谌粘P杂猛荆从螒?、渲染、高性能?jì)算等)。

老實(shí)說(shuō),這個(gè)領(lǐng)域有太多的追隨者。成熟的深度學(xué)習(xí)市場(chǎng)可能只支持不超過(guò) 3 個(gè)競(jìng)爭(zhēng)對(duì)手。Nvidia 和 Google 早已鞏固它們?cè)谑袌?chǎng)的地位,如此一來(lái),就只剩下一個(gè)空位了!為了生存下去,公司必須使解決方案的部署盡可能簡(jiǎn)單容易、暢行無(wú)阻。此外,每家公司必須讓自己的產(chǎn)品具有自己的特色——不要每家公司都去做圖像處理!為了能夠有效地提供無(wú)縫體驗(yàn)、同時(shí)建立起自己的市場(chǎng)定位,這些公司必須在軟件方面進(jìn)行投資(順便說(shuō)一句,我也正尋找硬件公司里的相關(guān)職位)。

2. 元學(xué)習(xí)將成為新的 SGD

元學(xué)習(xí)(Meta-learning)還沒有取代 SGD(Stochastic Gradient Descent,隨機(jī)梯度下降),但以神經(jīng)架構(gòu)搜索形式的元學(xué)習(xí)在這一領(lǐng)域中已經(jīng)取得巨大的進(jìn)步。本年的一個(gè)關(guān)鍵的進(jìn)展與超網(wǎng)絡(luò)(Hypernetwork)搜索有關(guān)。請(qǐng)參閱 Medium 上的博文:

《Deep Learning Architecture Search and the Adjacent Possible》(《深度學(xué)習(xí)架構(gòu)搜索及相鄰可能》)

https://medium.com/intuitionmachine/deep-learning-to-forget-or-not-forget-c8b7843479dd

我們?cè)谠獙W(xué)習(xí)中取得的另一個(gè)進(jìn)步是在算法方面,它的靈感來(lái)自于少量學(xué)習(xí)(few-shot learning)MAML。這催生了各種算法:Reptile、PROMP 和 CAML。元學(xué)習(xí)方法需要大量的訓(xùn)練數(shù)據(jù),這是因?yàn)樗窃诟鞣N各樣的任務(wù)中學(xué)習(xí),而不僅僅是在不同的樣本中學(xué)習(xí)。它有兩個(gè)用于學(xué)習(xí)的迭代循環(huán),一個(gè)是迭代任務(wù)的外部學(xué)習(xí)循環(huán),一個(gè)是迭代訓(xùn)練數(shù)據(jù)的內(nèi)部循環(huán)?;?MAML 的方法只考慮任務(wù)的初始化,因此不需要可比較相同類型的數(shù)據(jù)。

Reptile:https://blog.openai.com/reptile/

PROMP:https://arxiv.org/pdf/1810.06784.pdf

CAML:https://arxiv.org/pdf/1810.03642.pdf

我現(xiàn)在開始認(rèn)為,無(wú)監(jiān)督學(xué)習(xí)和元學(xué)習(xí)實(shí)際上是同一個(gè)問(wèn)題。進(jìn)化解決這個(gè)問(wèn)題的方法是通過(guò)踏腳石(stepping stone )技能的發(fā)展。這意味著它完全取決于正在解決的問(wèn)題的類型:是用于預(yù)測(cè),自助控制,還是生成設(shè)計(jì)的無(wú)監(jiān)督學(xué)習(xí)或元學(xué)習(xí)任務(wù)?每一種問(wèn)題都需要不同的基本技能,因此可以訓(xùn)練一個(gè)聚合的基本模型,而不是每一個(gè)任務(wù)都從頭訓(xùn)練。引導(dǎo)是一種虛構(gòu)的方法,它吸引了那些相信可以通過(guò)數(shù)學(xué)來(lái)拯救世界的研究人員。

注:

關(guān)于作者提及的無(wú)監(jiān)督學(xué)習(xí)和元學(xué)習(xí)實(shí)際是同一個(gè)問(wèn)題,可參閱論文《Unsupervised Learning via Meta-learning》(《通過(guò)元學(xué)習(xí)進(jìn)行無(wú)監(jiān)督學(xué)習(xí)》)

https://arxiv.org/pdf/1810.02334.pdf

總而言之,在 2018 年看來(lái)最有前途的兩種元學(xué)習(xí)方法是進(jìn)化啟發(fā)的架構(gòu)搜索和少量學(xué)習(xí) MAML 方法。

3. 生成模型驅(qū)動(dòng)一種新的建模方式

目前,生成模型仍然主要局限于娛樂(lè)應(yīng)用。當(dāng)然,BigGAN 搜索創(chuàng)建了很多噩夢(mèng)般的圖像,但不幸的是,使用高保真生成模型來(lái)取代標(biāo)準(zhǔn)計(jì)算方法的研究仍然在進(jìn)行。

BigGAN 創(chuàng)建的圖像可見:https://www.fastcompany.com/90244767/see-the-shockingly-realistic-images-made-by-googles-new-ai

DeepMind 研究蛋白質(zhì)折疊已有兩年,他們剛剛在 12 月份公布了研究成果:

《AlphaFold: Using AI for scientific discovery》(《AlphaFold:使用人工智能進(jìn)行科學(xué)發(fā)現(xiàn)》)

https://deepmind.com/blog/alphafold/

DeepMind 訓(xùn)練了一個(gè)生成神經(jīng)網(wǎng)絡(luò)來(lái)編造新的蛋白質(zhì)片段,這些蛋白質(zhì)片段隨后被用來(lái)不斷提高所提議的蛋白質(zhì)結(jié)構(gòu)的得分。這是生成網(wǎng)絡(luò)最令人印象深刻的用途之一,超越了圖像、3D 結(jié)構(gòu)或聲音的美學(xué)生成。

關(guān)于該領(lǐng)域的詳細(xì)信息,請(qǐng)參閱 Medium 上的博文:

《The Delusion of Infinite Precision Numbers》(《無(wú)窮精度數(shù)的迷惑》)

https://medium.com/intuitionmachine/the-delusion-of-infinite-precision-numbers-add501a1518d

4. 自我對(duì)決是一種自動(dòng)化的知識(shí)創(chuàng)造

AlphaGo 引入的自我對(duì)決(Self-play)方法在應(yīng)用程序使用方面上,并沒有深入人心。然而在研究中,OpenAI 的 Dota Five 已經(jīng)證明,自我對(duì)決可以解決一個(gè)非常困難的 AI 問(wèn)題(即,即時(shí)戰(zhàn)略游戲)。阻止這種使用的主要障礙似乎是在這種場(chǎng)景中框架問(wèn)題的困難,以及現(xiàn)實(shí)問(wèn)題中存在的多種不確定性。

深度強(qiáng)化學(xué)習(xí)(Deep Reinforcement Learning)在 2018 年遭到了很多嚴(yán)厲的批評(píng),但是 OpenAI 的 Ilya Stuskever 卻對(duì) Dota Five 看似無(wú)限的深度強(qiáng)化學(xué)習(xí)可擴(kuò)展性非常著迷,他比大多數(shù)人更早如此預(yù)測(cè)通用人工智能,見 Medium 這篇博文:

《Why AGI is Achievable in Five Years》(《為什么通用人工智能在五年內(nèi)能夠?qū)崿F(xiàn)》)

https://medium.com/intuitionmachine/near-term-agi-should-be-considered-as-a-possibility-9bcf276f9b16

盡管強(qiáng)化學(xué)習(xí)可擴(kuò)展性得到了明顯的驗(yàn)證,仍然有一些新論文對(duì)深度強(qiáng)化學(xué)習(xí)的穩(wěn)健性提出了質(zhì)疑,如論文《Are Deep Policy Gradient Algorithms Truly Policy Gradient Algorithms?》(《深度策略梯度算法是否真的是策略梯度算法?》https://arxiv.org/abs/1811.02553v2)

我個(gè)人傾向于支持內(nèi)在激勵(lì)方法而不是深度強(qiáng)化學(xué)習(xí)方法。原因在于,大多數(shù)難題的回報(bào)函數(shù)(reward)都是稀疏的,有些還具有欺騙性。

5. 直覺機(jī)器將縮小語(yǔ)義鴻溝

當(dāng) Yoshua Bengio 開始使用雙重過(guò)程理論(Dual Process theory)來(lái)解釋深度學(xué)習(xí)的局限性時(shí),你就知道他在正確的軌道上。

因此,深度學(xué)習(xí)機(jī)器就是人工直覺(Artificial intuition)的想法,在 2018 年已經(jīng)成為主流。雖然,雙重過(guò)程理論是人類思維的一個(gè)很好的模型,但我們需要更充分地理解直覺思維的豐富性(System 1),直覺思維不僅僅是快速思考,也不僅僅是攤銷推理(Amortized inference)。人類大腦中有很多東西我們還沒有在深度學(xué)習(xí)中復(fù)制出來(lái),請(qǐng)參閱 Medium 上的這篇博文:

《Where is the Artificial Ingenuity in Deep Learning?》(《深度學(xué)習(xí)里的人工智能在何處?》)

https://medium.com/intuitionmachine/the-key-to-general-intelligence-is-the-mechanism-of-artificial-ingenuity-dad26bc99043

6. 可解釋性是無(wú)法實(shí)現(xiàn)的

現(xiàn)在的問(wèn)題是,總體來(lái)說(shuō),我們?cè)诶斫馍疃葘W(xué)習(xí)網(wǎng)絡(luò)的本質(zhì)方面并沒有取得任何進(jìn)展。越來(lái)越多的和我們認(rèn)知相悖的研究被發(fā)布出來(lái),打破了我們關(guān)于深度學(xué)習(xí)網(wǎng)絡(luò)應(yīng)該如何工作的理論。DeepMind 就拋出了一個(gè)打破認(rèn)知的 “破壞性” 研究成果:

《Deep Learning’s Uncertainty Principle》(《深度學(xué)習(xí)的不確定性原理》)

https://medium.com/intuitionmachine/deep-learnings-uncertainty-principle-13f3ffdd15ce

接著就是神經(jīng)網(wǎng)絡(luò)的對(duì)抗性重編程(Adversarial Reprogramming),論文《Adversarial Reprogramming of Neural Networks》(《神經(jīng)網(wǎng)絡(luò)的對(duì)抗性重編程》https://arxiv.org/abs/1806.11146)證明了可以使用對(duì)抗特征來(lái)對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行重編程。在論文中他們演示了如何破壞在 Imagenet 中訓(xùn)練的 MNIST 分類網(wǎng)絡(luò):

神經(jīng)網(wǎng)絡(luò)內(nèi)部發(fā)生了什么,我們對(duì)其的理解仍然是遠(yuǎn)遠(yuǎn)不夠的。

至于如何做出直觀的解釋,我認(rèn)為這仍然是一個(gè) “富饒” 的領(lǐng)域,還需要進(jìn)行更多的研究。2018 年是暴露出許多深度學(xué)習(xí)局限性的一年,在這一年里,我們?cè)陂_發(fā)更好的人機(jī)界面方面的進(jìn)展并不大。請(qǐng)參閱 Medium 的這篇博文:

《Fake Intuitive Explanations in AI》(《人工智能中虛假直覺的解釋》)

https://medium.com/intuitionmachine/achieving-fake-explanations-in-ai-5e63b289a3ef

7. 深度學(xué)習(xí)研究信息泛濫成災(zāi)

今年,關(guān)于深度學(xué)習(xí)的論文數(shù)量翻了一番。更槽糕的是,審稿人的素質(zhì)卻在急劇下降。因此,雜訊比已跌至谷底?,F(xiàn)在,每個(gè)人都需要在堆積如山的新研究論文中為自己篩選出真正有價(jià)值的研究。有些工具,如 SemanticScholar、Arxiv Sanity 和 Brundage Bot 等論文網(wǎng)站都可以用來(lái)幫助你了解其中的大量信息。只是那些真正新穎的發(fā)現(xiàn),卻太容易成為 “漏網(wǎng)之魚”,讓人錯(cuò)過(guò)。

8. 通過(guò)教學(xué)環(huán)境實(shí)現(xiàn)工業(yè)化

深度學(xué)習(xí)在工業(yè)化方面,并沒有進(jìn)展。

2018 年是人工智能結(jié)盟問(wèn)題變得更加清晰的一年。

人工智能結(jié)盟對(duì)人工智能教學(xué)環(huán)境至關(guān)重要。目前有幾個(gè)團(tuán)隊(duì)已經(jīng)發(fā)布了他們的框架,這些框架可以在強(qiáng)化學(xué)習(xí)實(shí)驗(yàn)中提供更好的再現(xiàn)性(參見:Facebook Horizon、OpenAI Baselines、DeepMind TRFL)。

Facebook Horizon:https://code.fb.com/ml-applications/horizon/

OpenAI Baselines:https://github.com/openai/baselines

DeepMind TRFL:https://deepmind.com/blog/trfl/

我們已經(jīng)目睹了遷移學(xué)習(xí)從虛擬環(huán)境到真實(shí)環(huán)境的進(jìn)展(參見:OpenAI Learning Dexterity,(https://blog.openai.com/learning-dexterity/))。我們還見證了通過(guò)稀疏回報(bào)來(lái)教授復(fù)雜技能的進(jìn)展,請(qǐng)參閱 Medium 上的這篇博文:

《How to Bootstrap Complex Skills with Unknown Rewards》(《如何使用未知回報(bào)引導(dǎo)復(fù)雜技能》)

https://medium.com/intuitionmachine/how-to-learn-complex-skills-with-unknown-rewards-27a105429e6b

9. 會(huì)話認(rèn)知

我最終描繪了一幅如何獲得會(huì)話認(rèn)知更為清晰的路線圖。不幸的是,表中提到的 “達(dá)到第三階段” 意味著必須完成這份列表中的第 5 項(xiàng),而這在未來(lái)幾年內(nèi)不太可能發(fā)生。因此,在未來(lái)幾年內(nèi)人們不大可能會(huì)獲得會(huì)話認(rèn)知。唯一的好處就是,這種認(rèn)知概念已經(jīng)被認(rèn)可。也就是說(shuō),它已成為一個(gè)已知的未知。

作者提到的路線圖,參閱:https://medium.com/intuitionmachine/conversational-cognition-a-new-approach-to-agi-95486ffe581f

要了解其中的重要發(fā)展節(jié)點(diǎn),參閱:

《A New Capability Maturity Model for Deep Learning》(《一種新的深度學(xué)習(xí)能力成熟度模型》)

https://medium.com/intuitionmachine/an-advanced-capability-maturity-level-for-artificial-general-intelligence-b300dafaca3f

10. 人工智能的道德應(yīng)用

人們終于意識(shí)到這個(gè)問(wèn)題了!最值得注意的是,美國(guó)加利福尼亞州議會(huì)要求,聊天機(jī)器人必須主動(dòng)聲明它們不是人類。

法國(guó)人感到驚慌失措,于是制定了 “人類的人工智能”(AI for Humanity)計(jì)劃,有關(guān)詳情,請(qǐng)參見 Medium 這篇博文:

《Six Months Later, France has Formulated their Deep Learning Strategy》(《六個(gè)月后,法國(guó)制定了深度學(xué)習(xí)戰(zhàn)略》)

https://medium.com/intuitionmachine/six-months-later-france-has-released-their-deep-learning-strategy-d2cbf18927d

在人工智能武器化方面上,許多公司也已經(jīng)劃清了界限:

《Drawing the Ethical Line on Weaponized Deep Learning Research》(《為深度學(xué)習(xí)研究武器化劃定道德底線》)

https://medium.com/intuitionmachine/drawing-the-ethical-line-on-weaponized-a-i-research-316e865e9d18

當(dāng)然,問(wèn)題在于,我們的經(jīng)濟(jì)體系更傾向于給人工智能賦予 “人格”,而不是“制造” 真正的人類。詳情請(qǐng)參閱 Medium 這篇博文:

《Artificial Personhood is the Root Cause Why A.I. is Dangerous to Society》(《人工人格是人工智能危害社會(huì)的根本原因》)

最終,對(duì)于人工智能研究人員來(lái)說(shuō),他們必須決定自己是想一輩子向孩子們出售糖水呢,還是做一些真正有意義的事情,請(qǐng)參閱 Medium 上的這篇博文:

《Is the Purpose of Artificial Intelligence to Sell Sugar Water?》(《人工智能的目的是出售糖水么?》)

https://medium.com/intuitionmachine/is-the-purpose-of-ai-to-sell-sugar-water-e6466d574ec0

結(jié)語(yǔ)

總之,回顧 2018 年,對(duì)于我年初做出的預(yù)測(cè),現(xiàn)在看來(lái),很多都做過(guò)了頭。

鑒于此,我必須降低對(duì) 2019 年的期望。

我們開始意識(shí)到,在指定回報(bào)函數(shù)并基于這些回報(bào)進(jìn)行優(yōu)化的整個(gè)機(jī)器學(xué)習(xí)范式中,存在著重大的復(fù)雜性問(wèn)題。這種學(xué)習(xí)范式只會(huì)讓你的系統(tǒng)學(xué)會(huì)利用回報(bào)函數(shù)。很多時(shí)候,盡管看似取得了明顯的進(jìn)展,但底層系統(tǒng)學(xué)會(huì)的往往只是在測(cè)試中作弊。這是一個(gè)元級(jí)別的問(wèn)題,不可能一蹴而就。在提高課程學(xué)習(xí)質(zhì)量方面,我們充其量只能取得漸進(jìn)式的進(jìn)步。

《Fooled by the Ungameable Objective》(《不可玩目標(biāo)的愚弄》)

https://medium.com/intuitionmachine/the-illusion-of-the-ungameable-objective-538a96a53efe

注:其中 “Ungameable” 是作者生造的詞,用來(lái)形容一套沒有任何漏洞的規(guī)則。譯者進(jìn)行了意譯。

請(qǐng)繼續(xù)關(guān)注我對(duì) 2019 年的深度學(xué)習(xí)預(yù)測(cè)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122775
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1983

    瀏覽量

    35890

原文標(biāo)題:年度打臉!2018 年深度學(xué)習(xí)發(fā)展速度被嚴(yán)重高估

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何排除深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?的特定層?

    無(wú)法確定如何排除要在深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過(guò)逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)
    的頭像 發(fā)表于 02-12 15:15 ?848次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1897次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?649次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1338次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無(wú)人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?1054次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1210次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2874次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢(shì)就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來(lái)會(huì)怎樣發(fā)展,能走多遠(yuǎn),你怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對(duì)于深度學(xué)習(xí)研究者和開發(fā)者來(lái)說(shuō)至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個(gè)方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2498次閱讀

    深度學(xué)習(xí)模型有哪些應(yīng)用場(chǎng)景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個(gè)應(yīng)用場(chǎng)景中展現(xiàn)出其巨大的潛力和價(jià)值。這些應(yīng)用不僅改變了我們的日常生活,還推動(dòng)了科技進(jìn)步和產(chǎn)業(yè)升級(jí)。以下將詳細(xì)探討深度學(xué)習(xí)模型的20個(gè)主
    的頭像 發(fā)表于 07-16 18:25 ?4070次閱讀

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是一種重要的模型輕量化技術(shù),旨在通過(guò)減少網(wǎng)絡(luò)參數(shù)的比特寬度來(lái)減小模型大小和加速推理過(guò)程,同時(shí)盡量保持模型性能。從而達(dá)到把模型部署到邊緣或者低算力設(shè)備上,實(shí)現(xiàn)降本增效的目
    的頭像 發(fā)表于 07-15 11:01 ?1099次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型<b class='flag-5'>量化</b>方法

    深度學(xué)習(xí)算法在嵌入式平臺(tái)上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺(tái)上,仍然是一個(gè)具有挑戰(zhàn)性的任
    的頭像 發(fā)表于 07-15 10:03 ?3170次閱讀

    深度學(xué)習(xí)算法在集成電路測(cè)試中的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜性和集成度不斷提高,對(duì)測(cè)試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為一種強(qiáng)大的數(shù)據(jù)處理和模式識(shí)別工具,在集成電路測(cè)試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛
    的頭像 發(fā)表于 07-15 09:48 ?1847次閱讀