chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)框架PyTorch 關(guān)鍵發(fā)展節(jié)點(diǎn)概覽

電子工程師 ? 來源:YXQ ? 2019-05-30 09:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大家知道,深度學(xué)習(xí)的發(fā)展和推進(jìn),在某種程度上也是一場(chǎng)框架的爭(zhēng)奪戰(zhàn),其中 Google 發(fā)布的 TensorFlow 和 Facebook 主力支持的 PyTorch 是最耀眼的兩顆明星。我們今天就來看看其中一位明星 PyTorch,看看它為何值得學(xué)。

PyTorch 強(qiáng)調(diào)從研究到生產(chǎn)。來源:https://pytorch.org/

根據(jù)官網(wǎng)介紹,PyTorch 是一個(gè)開源的深度學(xué)習(xí)平臺(tái),提供從研究原型到生產(chǎn)部署的無縫路徑(An open source deep learning platform that provides a seamless path from research prototyping to production deployment)。

PyTorch 的流行度僅次于 TensorFlow。而最近一年,在 GitHub 關(guān)注度和貢獻(xiàn)者的增長(zhǎng)方面,PyTorch 跟 TensorFlow 基本持平。甚至,PyTorch 的搜索熱度持續(xù)上漲,加上 FastAI 的加持,PyTorch 無疑會(huì)得到越來越多的機(jī)器學(xué)習(xí)從業(yè)者的青睞。

流行度雖然可以說明問題,但是,你一定要知道更多,才能明白 PyTorch 為什么值得學(xué),你在什么情況下需要學(xué)習(xí) PyTorch 。

PyTorch 關(guān)鍵發(fā)展節(jié)點(diǎn)

2017 年 1 月,F(xiàn)acebook AI 研究團(tuán)隊(duì)發(fā)布 PyTorch,一個(gè)基于 Torch 的 Python 工具包,專門用于 GPU 加速的深度學(xué)習(xí)編程

2017 年 8 月,PyTorch V 0.2.0 發(fā)布,引入廣播、高級(jí)索引、高階梯度、新圖層,以及分布式訓(xùn)練等,前兩者進(jìn)一步方便了 Tensor 與 Numpy 互轉(zhuǎn)。

2018 年 4 月,Caffe2 代碼合并到 PyTorch。Facebook 打算將 PyTorch 的研究特性與 Caffe2 的生產(chǎn)特性更好地結(jié)合起來。

2018 年 4 月,PyTorch V 0.4.0 發(fā)布,新特性包括 Tensor 和 Variable 合并,強(qiáng)化 Numpy 風(fēng)格的 Tensor 構(gòu)建等,并正式支持 Windows 系統(tǒng)。

2018 年 10 月,PyTorch V 1.0.0 發(fā)布,融合 PyTorch 自身靈活性、研究?jī)?yōu)勢(shì)與 Caffe2 的后端與應(yīng)用能力、ONNX 的框架轉(zhuǎn)換能力于一體;同時(shí) FastAI V1.0 發(fā)布,可用單一 API 玩轉(zhuǎn)常見深度學(xué)習(xí)應(yīng)用,大大降低了深度學(xué)習(xí)的學(xué)習(xí)門檻。

2019 年 5 月,PyTorch V 1.1 發(fā)布,提供了新的 API,原生支持 TensorBoard 和自定義循環(huán)神經(jīng)網(wǎng)絡(luò),并提升了性能。

PyTorch 剛走過了 2 年 4 個(gè)月的時(shí)間,發(fā)展相當(dāng)迅速。

PyTorch 當(dāng)前穩(wěn)定版及相關(guān)配置。來源:https://pytorch.org/

受歡迎程度

Jeff Hale 4 月份在 Medium 上發(fā)表了一篇文章,比較了 TensorFlow、PyTorch、keras 和 FastAI 的流行度,全面涵蓋職位需求、使用、學(xué)術(shù)研究和興趣等維度。

Jeff 根據(jù)多個(gè)招聘網(wǎng)站在線職位搜索、Google Trends、GitHub 活躍度、Arxiv 文章數(shù)、Medium 文章數(shù)、Quora 相關(guān)問題關(guān)注人數(shù)統(tǒng)計(jì)計(jì)算出了一個(gè)綜合的增長(zhǎng)分?jǐn)?shù)。我們這里引用一下最終結(jié)果圖片:

深度學(xué)習(xí)框架半年增長(zhǎng)分?jǐn)?shù)。(2018 年 10 月-2019 年 3 月)

可以看到 TensorFlow 穩(wěn)居第一,而 PyTorch 表現(xiàn)也非常搶眼,未來的需求和發(fā)展非常值得期待。

PyTorch 核心優(yōu)勢(shì):動(dòng)態(tài)計(jì)算圖

PyTorch 是一款強(qiáng)大的動(dòng)態(tài)計(jì)算圖模式的深度學(xué)習(xí)框架。大部分框架是靜態(tài)計(jì)算圖模式,其應(yīng)用模型在運(yùn)行之前就已經(jīng)確定了,而 PyTorch 支持在運(yùn)行過程中根據(jù)運(yùn)行參數(shù)動(dòng)態(tài)改變應(yīng)用模型。

可以簡(jiǎn)單理解為:一種是先定義后使用,另一種是邊使用邊定義。動(dòng)態(tài)計(jì)算圖模式是 PyTorch 的天然優(yōu)勢(shì)之一,Google 今年 3 月份發(fā)布的 TensorFlow 2.0 Alpha 版本中的 Eager Execution,被認(rèn)為是在動(dòng)態(tài)計(jì)算圖模式上追趕 PyTorch 的舉措。

靜態(tài)計(jì)算圖模式框架在執(zhí)行計(jì)算圖之前需要先聲明和編譯。 雖然在實(shí)際生產(chǎn)中這種實(shí)現(xiàn)比較高效,但在研究和開發(fā)中非常繁瑣。

以 PyTorch 為代表的動(dòng)態(tài)計(jì)算圖框架則無需在每次執(zhí)行之前編譯模型。在建模 NLP 任務(wù)時(shí),每個(gè)輸入都可能導(dǎo)致不同的圖結(jié)構(gòu),因此動(dòng)態(tài)圖就絕對(duì)占優(yōu)了——這也是 PyTorch 在處理很多問題上(尤其是 RNN 相關(guān)問題)更高效的原因。

此外,動(dòng)態(tài)圖機(jī)制在調(diào)試方面非常方便,基本上,如果計(jì)算圖運(yùn)行出錯(cuò),就可以在堆棧跟蹤定義圖的代碼行。有人形容調(diào)試 PyTorch 就跟調(diào)試 Python 一樣,通過斷點(diǎn)檢查就可以高效解決問題。

PyTorch 更多優(yōu)勢(shì)

無縫接入 Python 生態(tài)圈,張量、變量與 Numpy 互轉(zhuǎn)

在張量之上封裝變量,方便構(gòu)建神經(jīng)網(wǎng)絡(luò)

強(qiáng)大的后端功能

命令式編程風(fēng)格

擴(kuò)展性極好

廣泛應(yīng)用于 NLP 之外的多種深度學(xué)習(xí)應(yīng)用

富有活力的社區(qū)和背后大廠 Facebook 支持

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6244

    瀏覽量

    110206
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5589

    瀏覽量

    123877
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    812

    瀏覽量

    14660

原文標(biāo)題:深度學(xué)習(xí)框架PyTorch為何值得學(xué)

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    摩爾線程發(fā)布Torch-MUSA v2.1.1版本

    近日,摩爾線程發(fā)布其面向PyTorch深度學(xué)習(xí)框架的MUSA擴(kuò)展庫——Torch-MUSA v2.1.1。該版本在v2.1.0的基礎(chǔ)上,進(jìn)一步擴(kuò)展了對(duì)大規(guī)模
    的頭像 發(fā)表于 09-10 11:02 ?690次閱讀

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】--全書概覽

    講解Deepseek的使用方法 第三章 深入剖析Deepseek-V3的模型架構(gòu)、訓(xùn)練框架、推理階段優(yōu)化、后訓(xùn)練優(yōu)化等關(guān)鍵技術(shù) 第四章關(guān)于DeepSeek-R1的技術(shù)剖析 第五章 從宏觀角度分析
    發(fā)表于 07-21 00:04

    Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    Nordic Semiconductor 于 2025 年收購了 Neuton.AI,這是一家專注于超小型機(jī)器學(xué)習(xí)(TinyML)解決方案的公司。 Neuton 開發(fā)了一種獨(dú)特的神經(jīng)網(wǎng)絡(luò)框架,能夠
    發(fā)表于 06-28 14:18

    數(shù)據(jù)采集的關(guān)鍵節(jié)點(diǎn)設(shè)備是什么

    數(shù)據(jù)采集是從各種數(shù)據(jù)源中獲取所需信息的過程,其關(guān)鍵節(jié)點(diǎn)設(shè)備根據(jù)應(yīng)用場(chǎng)景、采集對(duì)象和技術(shù)需求的不同而有所差異。以下是一些常見的數(shù)據(jù)采集關(guān)鍵節(jié)點(diǎn)設(shè)備及其功能和應(yīng)用場(chǎng)景的詳細(xì)介紹: 傳感器(
    的頭像 發(fā)表于 06-13 09:15 ?736次閱讀
    數(shù)據(jù)采集的<b class='flag-5'>關(guān)鍵</b><b class='flag-5'>節(jié)點(diǎn)</b>設(shè)備是什么

    海思SS626開發(fā)板

    識(shí)別/運(yùn)動(dòng)跟蹤等)。 主板集成常用視頻硬件接口,所有外設(shè)接口電路均通過嚴(yán)格的抗干擾測(cè)試,使產(chǎn)品在 EMC 及穩(wěn)定性方面 具有良好表現(xiàn);使用通過穩(wěn)定性測(cè)試及深度優(yōu)化的系統(tǒng)軟件(Linux 系統(tǒng)),支持業(yè)界主流深度學(xué)習(xí)
    發(fā)表于 04-24 10:04

    百度飛槳框架3.0正式版發(fā)布

    、推理等任務(wù)都離不開深度學(xué)習(xí)框架的優(yōu)化與支撐。 飛槳框架3.0,從設(shè)計(jì)理念上實(shí)現(xiàn)了從底層硬件適配到頂層開發(fā)體驗(yàn)的全面進(jìn)化,在訓(xùn)練效率、性能、兼容性等
    的頭像 發(fā)表于 04-02 19:03 ?1035次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1264次閱讀

    如何在Arm Ethos-U85上使用ExecuTorch

    在快速發(fā)展的機(jī)器學(xué)習(xí)領(lǐng)域,PyTorch 憑借其靈活性和全面的生態(tài)系統(tǒng),已成為模型開發(fā)的熱門框架。Arm 與 Meta 合作在 ExecuTorch 中引入了對(duì) Arm 平臺(tái)的支持,進(jìn)
    的頭像 發(fā)表于 02-14 14:23 ?999次閱讀
    如何在Arm Ethos-U85上使用ExecuTorch

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?809次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)展
    的頭像 發(fā)表于 02-12 15:15 ?1323次閱讀

    深度學(xué)習(xí)入門:簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,神經(jīng)元之間通過權(quán)重連接。我們構(gòu)建一個(gè)包含輸入層、隱藏層和輸出層的簡(jiǎn)單
    的頭像 發(fā)表于 01-23 13:52 ?832次閱讀

    Triton編譯器在機(jī)器學(xué)習(xí)中的應(yīng)用

    多種深度學(xué)習(xí)框架,如TensorFlow、PyTorch、ONNX等,使得開發(fā)者能夠輕松地將不同框架下訓(xùn)練的模型部署到GPU上。 2. Tr
    的頭像 發(fā)表于 12-24 18:13 ?1600次閱讀

    利用Arm Kleidi技術(shù)實(shí)現(xiàn)PyTorch優(yōu)化

    PyTorch 是一個(gè)廣泛應(yīng)用的開源機(jī)器學(xué)習(xí) (ML) 庫。近年來,Arm 與合作伙伴通力協(xié)作,持續(xù)改進(jìn) PyTorch 的推理性能。本文將詳細(xì)介紹如何利用 Arm Kleidi 技術(shù)提升 Arm
    的頭像 發(fā)表于 12-23 09:19 ?1593次閱讀
    利用Arm Kleidi技術(shù)實(shí)現(xiàn)<b class='flag-5'>PyTorch</b>優(yōu)化

    Arm KleidiAI助力提升PyTorch上LLM推理性能

    生成式人工智能 (AI) 正在科技領(lǐng)域發(fā)揮關(guān)鍵作用,許多企業(yè)已經(jīng)開始將大語言模型 (LLM) 集成到云端和邊緣側(cè)的應(yīng)用中。生成式 AI 的引入也使得許多框架和庫得以發(fā)展。其中,PyTorch
    的頭像 發(fā)表于 12-03 17:05 ?1921次閱讀
    Arm KleidiAI助力提升<b class='flag-5'>PyTorch</b>上LLM推理性能

    PyTorch 2.5.1: Bugs修復(fù)版發(fā)布

    ? 一,前言 在深度學(xué)習(xí)框架的不斷迭代中,PyTorch 社區(qū)始終致力于提供更穩(wěn)定、更高效的工具。最近,PyTorch 2.5.1 版本正式
    的頭像 發(fā)表于 12-03 16:11 ?1939次閱讀
    <b class='flag-5'>PyTorch</b> 2.5.1: Bugs修復(fù)版發(fā)布