chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

細數(shù)二十一世紀以來深度學(xué)習(xí)框架的發(fā)展歷程

Dbwd_Imgtec ? 來源:機器之心 ? 作者:機器之心 ? 2021-01-08 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當前,各式各樣深度學(xué)習(xí)框架的發(fā)展充分賦能機器學(xué)習(xí),尤其是深度學(xué)習(xí)領(lǐng)域,為開發(fā)者提供了極致便利。在本文中,Waymo 軟件工程師 Lin Yuan 細數(shù)了二十一世紀以來深度學(xué)習(xí)框架的發(fā)展歷程,并劃分為了石器、青銅、鐵器、羅馬和工業(yè)化時代。

過去十年,機器學(xué)習(xí)(尤其是深度學(xué)習(xí))領(lǐng)域涌現(xiàn)了大量算法和應(yīng)用。在這些深度學(xué)習(xí)算法和應(yīng)用涌現(xiàn)的背后,是各種各樣的深度學(xué)習(xí)工具和框架。它們是機器學(xué)習(xí)革命的腳手架:TensorFlow 和 PyTorch 等深度學(xué)習(xí)框架的廣泛使用,使得許多 ML 從業(yè)者能夠使用適合的領(lǐng)域特定的編程語言和豐富的構(gòu)建模塊更容易地組裝模型。

回顧深度學(xué)習(xí)框架的演變,我們可以清楚地看到深度學(xué)習(xí)框架和深度學(xué)習(xí)算法之間的緊密耦合關(guān)系。這種相互依賴的良性循環(huán)推動了深度學(xué)習(xí)框架和工具的快速發(fā)展。

By Nationalmuseet, CC BY-SA 3.0,

https://commons.wikimedia.org/w/index.php?curid=90400464

石器時代(21 世紀初)

神經(jīng)網(wǎng)絡(luò)的概念已經(jīng)出現(xiàn)一段時間了。在 21 世紀初之前,有一些工具可以用來描述和開發(fā)神經(jīng)網(wǎng)絡(luò)。這些工具包括 MATLAB、OpenNN、Torch 等,它們要么不是專門為神經(jīng)網(wǎng)絡(luò)模型開發(fā)定制的,要么擁有復(fù)雜的用戶 api,缺乏 GPU 支持。在此期間,ML 實踐者在使用這些原始的深度學(xué)習(xí)框架時不得不做很多繁重的工作。

By Nationalmuseet, CC BY-SA 3.0,

https://commons.wikimedia.org/w/index.php?curid=90400464

青銅時代(~2012 年)

2012 年,多倫多大學(xué)的 Alex Krizhevsky 等人提出了一種深度神經(jīng)網(wǎng)絡(luò)架構(gòu),后來被稱為 AlexNet[1],該架構(gòu)在 ImageNet 數(shù)據(jù)集上達到了 SOTA 精度,并大大超過了第二名的選手。這一出色的結(jié)果引發(fā)了深度神經(jīng)網(wǎng)絡(luò)的熱潮,此后各種深度神經(jīng)網(wǎng)絡(luò)模型在 ImageNet 數(shù)據(jù)集的準確性上不斷創(chuàng)下新高。

大約在這個時候,一些早期的深度學(xué)習(xí)框架,如 Caffe、Chainer 和Theano 應(yīng)運而生。使用這些框架,用戶可以方便地建立復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型,如 CNN、RNN、LSTM 等。此外,這些框架還支持多 GPU 訓(xùn)練,這大大減少了對這些模型的訓(xùn)練時間,并且能夠?qū)σ郧盁o法裝入單一 GPU 內(nèi)存的大型模型進行訓(xùn)練。在這些框架中,Caffe 和 Theano 使用聲明式編程風(fēng)格,而 Chainer 采用命令式編程風(fēng)格。這兩種不同的編程風(fēng)格也為即將到來的深度學(xué)習(xí)框架設(shè)定了兩條不同的開發(fā)路徑。

Nordisk familjebok — Nordisk familjebok (1910), vol.13, Till art. J?rn?ldern. https://commons.wikimedia.org/w/index.php?curid=109777

鐵器時代(2015 ~ 2016)

AlexNet 的成功引起了計算機視覺領(lǐng)域的高度關(guān)注,并重新點燃了神經(jīng)網(wǎng)絡(luò)的希望,大型科技公司加入了開發(fā)深度學(xué)習(xí)框架的行列。其中,谷歌開源了著名的 TensorFlow 框架,它至今仍是 ML 領(lǐng)域最流行的深度學(xué)習(xí)框架。Caffe 的發(fā)明者加入了 Facebook 并發(fā)布了 Caffe2;與此同時,F(xiàn)acebook AI 研究(FAIR)團隊也發(fā)布了另一個流行的框架 PyTorch,它基于 Torch 框架,但使用了更流行的 Python api。微軟研究院開發(fā)了 CNTK 框架。亞馬遜采用了 MXNet,這是華盛頓大學(xué)、CMU 和其他機構(gòu)的聯(lián)合學(xué)術(shù)項目。TensorFlow 和 CNTK 借鑒了 Theano 的聲明式編程風(fēng)格,而 PyTorch 則繼承了 Torch 的直觀和用戶友好的命令式編程風(fēng)格。命令式編程風(fēng)格更加靈活(比如定義一個 While 循環(huán)等)并且容易跟蹤,而聲明式編程風(fēng)格通常為內(nèi)存和基于計算圖的運行時優(yōu)化提供了更多的空間。另一方面,被稱為「mix」-net 的 MXNet 同時支持一組符號(聲明性)api 和一組命令式 api,并通過一種稱為雜交(hybridization)的方法優(yōu)化了使用命令式 api 描述的模型的性能,從而享受了這兩個領(lǐng)域的好處。 2015 年,何凱明等人提出了 ResNet[2],再次突破了圖像分類的邊界,在 ImageNet 的準確率上再創(chuàng)新高。業(yè)界和學(xué)界已經(jīng)達成共識,深度學(xué)習(xí)將成為下一個重大技術(shù)趨勢,解決各種領(lǐng)域的挑戰(zhàn),這些挑戰(zhàn)在過去被認為是不可能的。在此期間,所有深度學(xué)習(xí)框架都對多 GPU 訓(xùn)練和分布式訓(xùn)練進行了優(yōu)化,提供了更加用戶直觀的 api,并衍生出了專門針對計算機視覺、自然語言處理等特定任務(wù)的 model zoo 和工具包。還值得注意的是,F(xiàn)rancois Chollet 幾乎是獨自開發(fā)了 Keras 框架,該框架在現(xiàn)有框架(如 TensorFlow 和 MXNet)之上提供了神經(jīng)網(wǎng)絡(luò)和構(gòu)建塊的更直觀的高級抽象。從今天開始,這種抽象成為 TensorFlow 中模型層面事實上的 api。

By User Lamré on sv.wikipedia

https://commons.wikimedia.org/w/index.php?curid=801434

羅馬時代(2019 ~ 2020)

正如人類歷史的發(fā)展一樣,深度學(xué)習(xí)框架經(jīng)過一輪激烈的競爭,最終形成了兩大「帝國」:TensorFlow 和 PyTorch 的雙頭壟斷,這兩大「帝國」代表了深度學(xué)習(xí)框架研發(fā)和生產(chǎn)中 95% 以上的用例。2019 年,Chainer 團隊_將他們的開發(fā)工作轉(zhuǎn)移到 PyTorch;類似地,微軟_停止了 CNTK 框架的積極開發(fā),部分團隊成員轉(zhuǎn)而支持 Windows 和 ONNX 運行時上的 PyTorch。Keras 被 TensorFlow 收編,并在 TensorFlow 2.0 版本中成為其高級 api 之一。在深度學(xué)習(xí)框架領(lǐng)域,MXNet 仍然位居第三。

在此期間,深度學(xué)習(xí)框架空間有兩種趨勢。首先是大型模型訓(xùn)練。隨著 BERT[3] 的誕生,以及它的近親 GPT-3[4] 的誕生,訓(xùn)練大型模型的能力成為了深度學(xué)習(xí)框架的理想特性。這就要求深度學(xué)習(xí)框架能夠在數(shù)百臺(如果不是數(shù)千臺的話)設(shè)備的規(guī)模下有效地進行訓(xùn)練。第二個趨勢是可用性。這一時期的深度學(xué)習(xí)框架都采用命令式編程風(fēng)格,語義靈活,調(diào)試方便。同時,這些框架還提供了用戶級的裝飾器或 api,以通過一些 JIT(即時)編譯器技術(shù)實現(xiàn)高性能。

By Tharunbr77 — Own work, CC BY-SA 4.0,

https://commons.wikimedia.org/w/index.php?curid=86866550

工業(yè)時代(2021+)

深度學(xué)習(xí)在自動駕駛、個性化推薦、自然語言理解到醫(yī)療保健等廣泛領(lǐng)域取得了巨大成功,帶來了前所未有的用戶、開發(fā)者和投資者浪潮。這也是未來十年開發(fā)深度學(xué)習(xí)工具和框架的黃金時期。盡管深度學(xué)習(xí)框架從一開始就有了長足的發(fā)展,但它們之于深度學(xué)習(xí)的地位還遠遠不如編程語言 JAVA/ c++ 之于互聯(lián)網(wǎng)應(yīng)用那樣的成熟。還有很多令人興奮的機會和工作有待探索和完成。 展望未來,有幾個技術(shù)趨勢有望成為下一代深度學(xué)習(xí)框架的主流:

基于編譯器的算子(operator)優(yōu)化。

如今,許多操作符內(nèi)核都是通過手動或第三方庫實現(xiàn)的,比如 BLAS、CuDNN、OneDNN 等,這些庫針對特定的硬件平臺。當模型被訓(xùn)練或部署在不同的硬件平臺上時,這會造成很大的開銷。此外,新的深度學(xué)習(xí)算法的增長速度往往比這些庫的迭代速度快得多,這使得這些庫常常不支持新的算子。深度學(xué)習(xí)編譯器,如 Apache TVM、MLIR、Facebook Glow 等,已經(jīng)提出了在任何硬件后端上有效優(yōu)化和運行計算的建議。它們可以作為深度學(xué)習(xí)框架的整個后端。

統(tǒng)一的 API 標準。

許多深度學(xué)習(xí)框架共享類似但略有不同的用戶 api。這給用戶從一個框架切換到另一個框架帶來了困難和不必要的學(xué)習(xí)曲線。雖然大多數(shù)機器學(xué)習(xí)從業(yè)者和數(shù)據(jù)科學(xué)家都熟悉 NumPy庫,但在新的深度學(xué)習(xí)框架中,NumPy API 自然會成為 tenor 操作 API 的標準。我們已經(jīng)看到快速發(fā)展的框架 JAX 受到了用戶的熱烈歡迎,它的 api 完全與 NumPy 兼容。

數(shù)據(jù)搬運作為一等公民。

多節(jié)點或多設(shè)備訓(xùn)練正在成為深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的規(guī)范。最近開發(fā)的深度學(xué)習(xí)框架,如 OneFlow,從設(shè)計的第一天起就將這一觀點納入設(shè)計考慮,并將數(shù)據(jù)通信視為模型訓(xùn)練的整體計算圖的一部分。這為性能優(yōu)化打開了更多的機會,而且由于它不需要像以前的深度學(xué)習(xí)框架那樣維護多種訓(xùn)練策略(單設(shè)備 vs 分布式訓(xùn)練),因此除了提供更好的性能之外,它還可以提供更簡單的用戶界面。

總結(jié)

我們正處于一場人工智能革命的黎明。人工智能領(lǐng)域的新研究和新應(yīng)用正在以前所未有的速度涌現(xiàn)。八年前,AlexNet 網(wǎng)絡(luò)包含 6000 萬個參數(shù),最新的 GPT-3 網(wǎng)絡(luò)包含 1750 億參數(shù),網(wǎng)絡(luò)規(guī)模在 8 年內(nèi)增加了 3000 倍!另一方面,人類的大腦包含大約 100 萬億個參數(shù)(即突觸)。這表明,如果有可能的話,神經(jīng)網(wǎng)絡(luò)要達到人類的智能水平還有很大的差距。

這種難以接受的網(wǎng)絡(luò)規(guī)模對模型訓(xùn)練和推理的硬件和軟件計算效率都提出了很大的挑戰(zhàn)。未來的深度學(xué)習(xí)框架很可能是算法、高性能計算、硬件加速器和分布式系統(tǒng)的跨學(xué)科成果。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8544

    瀏覽量

    136350
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5592

    瀏覽量

    124023
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14736

原文標題:深度學(xué)習(xí)框架簡史:TF和PyTorch雙頭壟斷,未來十年迎來黃金時期

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【展會直擊】2025年第二十一屆中國國際消防設(shè)備技術(shù)交流展覽會展會現(xiàn)場

    【展會直擊】2025年第二十一屆中國國際消防設(shè)備技術(shù)交流展覽會展會現(xiàn)場
    的頭像 發(fā)表于 10-14 08:03 ?469次閱讀
    【展會直擊】2025年第<b class='flag-5'>二十一</b>屆中國國際消防設(shè)備技術(shù)交流展覽會展會現(xiàn)場

    中科創(chuàng)達常衡生亮相2025泰達汽車論壇

    2025年9月11-14日第二十一屆中國汽車產(chǎn)業(yè)發(fā)展(泰達)國際論壇(以下簡稱“泰達汽車論壇”)在天津召開,本屆論壇以“增動能 啟新篇 向全球”為主題,匯聚行業(yè)領(lǐng)袖與專家學(xué)者,共同探討汽車產(chǎn)業(yè)高質(zhì)量發(fā)展路徑。
    的頭像 發(fā)表于 09-16 09:57 ?626次閱讀

    上海立芯數(shù)字實現(xiàn)平臺LeCompiler入選CCF CFTC 2025

    近日,第二十一屆全國容錯計算學(xué)術(shù)會議(CCFCFTC2025)在杭州隆重開幕。會議上表彰過去40年以來所取得的杰出成果,其中,由上海立芯牽頭,聯(lián)合福州大學(xué)、復(fù)旦大學(xué)共同申報的“數(shù)字實現(xiàn)平臺LeCompiler”項目成功入選!
    的頭像 發(fā)表于 07-26 10:46 ?769次閱讀

    龍芯中科亮相第二十一屆工業(yè)自動化與標準化研討會

    近日,由機械工業(yè)儀器儀表綜合技術(shù)經(jīng)濟研究所(以下簡稱“儀綜所”)、國際電工委員會(IEC)智能制造系統(tǒng)委員會中國專家委員會聯(lián)合主辦的第二十一屆“工業(yè)自動化與標準化”研討會在北京召開。
    的頭像 發(fā)表于 07-24 15:27 ?733次閱讀

    魏德米勒亮相第二十一屆工業(yè)自動化與標準化研討會

    近日,由機械工業(yè)儀器儀表綜合技術(shù)經(jīng)濟研究所、國際電工委員會(IEC)智能制造系統(tǒng)委員會中國專家委員會,聯(lián)合舉辦的第二十一屆工業(yè)自動化與標準化研討會(IASF)在北京盛大召開。
    的頭像 發(fā)表于 07-18 17:46 ?1055次閱讀

    知存科技邀您相約第二十一屆全國容錯計算學(xué)術(shù)會議

    7月18日至20日,由中國計算機學(xué)會主辦的第二十一屆全國容錯計算學(xué)術(shù)會議(CCF CFTC 2025)將在杭州舉行。作為國內(nèi)容錯計算領(lǐng)域一年一度的盛會,此次會議匯聚了來自學(xué)術(shù)界和產(chǎn)業(yè)界的眾多精英,知存科技將作為存算一體領(lǐng)域的代表企業(yè)參會,共同探討前沿技術(shù)與行業(yè)發(fā)展趨勢。
    的頭像 發(fā)表于 07-16 15:20 ?873次閱讀

    洲明科技亮相2025深圳文博會

    此前,5月22-26日,第二十一屆文博會在深圳國際會展中心隆重舉行。
    的頭像 發(fā)表于 05-29 15:45 ?626次閱讀

    二十一屆文博會開幕,繪王用數(shù)字筆觸激活文創(chuàng)生產(chǎn)力

    5月22日,第二十一屆中國(深圳)國際文化產(chǎn)業(yè)博覽交易會開幕,該展被譽為“中國文化產(chǎn)業(yè)第一展”,在這里,新技術(shù)、新消費與文化的交融得到了充分展現(xiàn)。作為享譽全球的數(shù)字繪畫品牌,繪王(HUION)受邀攜
    的頭像 發(fā)表于 05-23 22:02 ?534次閱讀
    第<b class='flag-5'>二十一</b>屆文博會開幕,繪王用數(shù)字筆觸激活文創(chuàng)生產(chǎn)力

    逆變器綜合設(shè)計大全

    變技術(shù),發(fā)展二十世紀六、七十年代的晶閘管逆變技術(shù),而二十一世紀的逆變 技術(shù)多數(shù)采用了 MOSFET、IGBT、GTO、IGCT、MCT 等多種先進且易于控制的功率器件,控制電 路也從模擬集成電路
    發(fā)表于 05-06 17:43

    Honda與Momenta達成深度戰(zhàn)略合作

    在汽車產(chǎn)業(yè)變革的浪潮中,智能化技術(shù)已成為全球車企競相爭奪的戰(zhàn)略高地。4月23日,在第二十一屆上海國際汽車工業(yè)展覽會(簡稱“2025上海車展”)上,Honda宣布與Momenta達成深度戰(zhàn)略合作,共同
    的頭像 發(fā)表于 04-25 09:29 ?913次閱讀

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1313次閱讀

    逆變電源的原理及應(yīng)用

    發(fā)電機的旋轉(zhuǎn)方式逆變技術(shù),發(fā)展二十世紀六、七十年代的晶閘管逆變技術(shù),而二十一世紀的逆變技術(shù)多數(shù)采用了 MOSFET、IGBT、GTO、IGCT、MCT 等多種先進且易于控制的功率器件,控制電路也從
    發(fā)表于 03-10 17:23

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?844次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)展
    的頭像 發(fā)表于 02-12 15:15 ?1402次閱讀

    中國今年將發(fā)射兩艘載人飛船

    據(jù)新華社報道,中國載人航天工程辦公室公開發(fā)布了三次載人航天飛行任務(wù)的任務(wù)標識;包括有2025年將發(fā)射神舟二十號、神舟二十一號兩艘載人飛船和天舟九號貨運飛船。 ? ? ?根據(jù)飛行任務(wù)規(guī)劃,發(fā)射神舟二十
    的頭像 發(fā)表于 01-20 11:06 ?1056次閱讀