chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook新推出了一個(gè)深度學(xué)習(xí)工具包:PyTorch Hub

DPVg_AI_era ? 來(lái)源:lq ? 2019-06-15 09:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

為了解決日益增長(zhǎng)的論文可復(fù)現(xiàn)性需求,F(xiàn)acebook推出了PyTorch Hub,類似TensorFlow Hub的一個(gè)模型共享庫(kù),加載ResNet、BERT、GPT、VGG、PGAN還是MobileNet等經(jīng)典模型只需一行代碼。用戶可以提交、瀏覽模型,極大的改善了論文的可復(fù)現(xiàn)性難題。

機(jī)器學(xué)習(xí)論文的可復(fù)現(xiàn)性一直是個(gè)難題。許多機(jī)器學(xué)習(xí)相關(guān)論文要么無(wú)法復(fù)現(xiàn),要么難以重現(xiàn)。有時(shí)候論文讀者經(jīng)常為了調(diào)用各種經(jīng)典機(jī)器學(xué)習(xí)模型,還要重復(fù)造輪子。

隨著提交給arXiv以及各種會(huì)議上的論文數(shù)量開(kāi)始暴漲,可復(fù)現(xiàn)性的重要性也越來(lái)越凸顯。

很多論文選擇隨文附上代碼和訓(xùn)練模型,在一定程度上對(duì)使用者起到了幫助作用,但成效并不明顯。復(fù)現(xiàn)過(guò)程中,仍有大量工作需要論文讀者自己摸索。

PyTorch Hub是什么?

近日,F(xiàn)acebook新推出了一個(gè)深度學(xué)習(xí)工具包:PyTorch Hub,這是一個(gè)簡(jiǎn)單的API和工作流,提供基本的構(gòu)建模塊從而可以改善機(jī)器學(xué)習(xí)研究的可重現(xiàn)性。

PyTorch Hub包含了一系列與圖像分類、圖像分割、生成以及轉(zhuǎn)換相關(guān)的預(yù)訓(xùn)練模型庫(kù),例如ResNet、BERT、GPT、VGG、PGAN、MobileNet等經(jīng)典模型,

PyTorch Hub試圖以最傻瓜的方式,提高研究工作的復(fù)現(xiàn)性。有多簡(jiǎn)單呢?圖靈獎(jiǎng)得主Yann LeCun發(fā)推表示,只需要一行代碼就可以調(diào)用所有倉(cāng)庫(kù)里的模型,通過(guò)一個(gè)pull請(qǐng)求來(lái)發(fā)布你自己的模型。

同時(shí),PyTorch Hub整合了Google Colab,并集成了論文代碼結(jié)合網(wǎng)站Papers With Code,可以直接找到論文的代碼。

PyTorch Hub怎么用?

復(fù)現(xiàn)別人的成果是PyTorch Hub主打功能,那么具體怎么樣用呢?PyTorch官方提出三步走策略:瀏覽可用模型;加載模型;探索已加載的模型。

瀏覽可用模型

直接用torch.hub.list() API列出所有可用的入口點(diǎn)即可。代碼示例:

>>> torch.hub.list('pytorch/vision')>>>['alexnet','deeplabv3_resnet101','densenet121',...'vgg16','vgg16_bn','vgg19', 'vgg19_bn']

加載模型

使用PyTorch加載模型很簡(jiǎn)單,正如LeCun所說(shuō),只需要一行代碼即可使用。比如從GitHub里加載一個(gè)模型:

mode = torch.hub.load(github, model, force_reload=False, *args, **kwargs)

加載一個(gè)PyTorch預(yù)訓(xùn)練的模型:

model=torch.hub.load('pytorch/vision','deeplabv3_resnet101',pretrained=True)

在此之外,我們還需要了解一些其它的相對(duì)比較復(fù)雜的事情,包括探索已加載的模型、復(fù)現(xiàn)別人成果的工作流,以及如何快速發(fā)布自己的模型。

探索已加載的模型

從PyTorch Hub加載模型后,可以使用dir(model)查看模型的所有可用方法,示例代碼:

>>> dir(model)>>>['forward'...'to''state_dict',]

還可以用help(model.forward)對(duì)運(yùn)行該模型所需參數(shù)有更深入的了解。

>>> help(model.forward)>>>Help on method forward in module pytorch_pretrained_bert.modeling:forward(input_ids, token_type_ids=None, attention_mask=None, masked_lm_labels=None)...我自己的模型也能發(fā)嗎?

只需要在預(yù)訓(xùn)練模型(包括模型定義及預(yù)訓(xùn)練權(quán)重)加入一個(gè)hubconf.py文件,就可以通過(guò)PyTorch Hub將模型發(fā)布到GitHub倉(cāng)庫(kù)。以torchvision的hubconf.py文件為例:

# Optional list of dependencies required by the packagedependencies = ['torch']from torchvision.models.alexnet import alexnetfrom torchvision.models.densenet import densenet121, densenet169, densenet201, densenet161from torchvision.models.inception import inception_v3from torchvision.models.resnet import resnet18, resnet34, resnet50, resnet101, resnet152, esnext50_32x4d, resnext101_32x8dfrom torchvision.models.squeezenet import squeezenet1_0, squeezenet1_1from torchvision.models.vgg import vgg11, vgg13, vgg16, vgg19, vgg11_bn, vgg13_bn, vgg16_bn, vgg19_bnfrom torchvision.models.segmentation import fcn_resnet101, deeplabv3_resnet101from torchvision.models.googlenet import googlenetfrom torchvision.models.shufflenetv2 import shufflenet_v2_x0_5, shufflenet_v2_x1_0from torchvision.models.mobilenet import mobilenet_v2

torchvision中,模型有3個(gè)特性:

每個(gè)模型文件可以被獨(dú)立執(zhí)行或?qū)崿F(xiàn)某個(gè)功能

不需要除了PyTorch之外的任何軟件包(在hubconf.py中編碼為 dependencies[‘torch’])

他們不需要單獨(dú)的入口點(diǎn),因?yàn)槟P驮趧?chuàng)建時(shí)可以無(wú)縫地開(kāi)箱即用

最小化包依賴性可減少用戶加載模型時(shí)遇到的困難。以HuggingFace’s BERT為例:

dependencies = ['torch', 'tqdm', 'boto3', 'requests', 'regex']from hubconfs.bert_hubconf import (bertTokenizer,bertModel,bertForNextSentencePrediction,bertForPreTraining,bertForMaskedLM,bertForSequenceClassification,bertForMultipleChoice,bertForQuestionAnswering,bertForTokenClassification和TensorFlow Hub有什么區(qū)別?

前Google Brain員工mat kelcey吐槽“Hub”這個(gè)詞簡(jiǎn)直是機(jī)器學(xué)習(xí)模型項(xiàng)目的共享單詞,TensorFlow Hub了,PyTorch也Hub了。

那么和PyTorch Hub相比,更早推出的TensorFlow Hub有什么區(qū)別呢?

TensorFlow Hub是一個(gè)共享可重用的機(jī)器學(xué)習(xí)平臺(tái),主要面向開(kāi)發(fā)者,谷歌希望TensorFlow Hub能夠?yàn)檠芯咳藛T和開(kāi)發(fā)人員提供一種便利的方式,能夠更方便的在社區(qū)中共享模型。從某種意義上來(lái)講,除了架構(gòu)本身,共享預(yù)訓(xùn)練模型的同時(shí),也共享了開(kāi)發(fā)模型的計(jì)算時(shí)間和數(shù)據(jù)集。示例代碼:

!pip install "tensorflow_hub==0.4.0"!pip install "tf-nightly"import tensorflow as tfimporttensorflow_hubashubtf.enable_eager_execution()module_url = "https://tfhub.dev/google/tf2-preview/nnlm-en-dim128/1"embed = hub.KerasLayer(module_url)embeddings = embed(["A long sentence.", "single-word","http://example.com"])print(embeddings.shape)#(3,128)

TensorFlow Hub還有一個(gè)非常關(guān)鍵的特性是它的Web端體驗(yàn)。開(kāi)發(fā)人員可以針對(duì)開(kāi)發(fā)用例來(lái)瀏覽TF模塊,通過(guò)TensorFlow Hub推出新的Web體驗(yàn)可以更容易的進(jìn)行搜索和瀏覽,同時(shí)為multi-publisher平臺(tái)奠定了基礎(chǔ)。

網(wǎng)址:

https://tfhub.dev/

從官方的介紹來(lái)看,TF Hub的出發(fā)點(diǎn)是開(kāi)發(fā)用例,而PyTorch Hub的出發(fā)點(diǎn)是論文復(fù)現(xiàn)。目前看來(lái)TF Hub的內(nèi)置模型更多一點(diǎn);此外,TF Hub提供的web方式瀏覽模型的體驗(yàn)更好,搜索模型更加方便。

相關(guān)資源,方便大家快速上手:

PyTorch Hub API手冊(cè):

https://pytorch.org/docs/stable/hub.html

模型提交地址:

https://github.com/pytorch/hub

瀏覽可用模型:

https://pytorch.org/hub

在 Paper with Code 上瀏覽更多模型:

https://paperswithcode.com/

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    58546
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5594

    瀏覽量

    124142
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14781

原文標(biāo)題:一行代碼即可調(diào)用18款主流模型!PyTorch Hub輕松解決論文可復(fù)現(xiàn)性

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不
    的頭像 發(fā)表于 01-07 15:37 ?108次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 <b class='flag-5'>個(gè)</b>常見(jiàn)錯(cuò)誤與局限性

    SEGGER推出Flasher BitStreamer軟件工具

    SEGGER推出了Flasher BitStreamer軟件工具,新的軟件解決方案擴(kuò)展了業(yè)界領(lǐng)先的Flasher系列工具的編程能力。
    的頭像 發(fā)表于 11-05 09:09 ?370次閱讀

    eForce無(wú)線通信軟件開(kāi)發(fā)工具包兼容WLAN模塊WKR612AA1

    近期,eForce株式會(huì)社宣布,其面向嵌入式設(shè)備的無(wú)線通信軟件開(kāi)發(fā)工具包(μC3-WLAN SDK)現(xiàn)已兼容 KAGA FEI 生產(chǎn)的無(wú)線局域網(wǎng)(WLAN)模塊"WKR612AA1"。
    的頭像 發(fā)表于 09-24 15:16 ?899次閱讀

    量化評(píng)估企業(yè)軟件測(cè)試能力的評(píng)估工具包

    “每次版本迭代,測(cè)試團(tuán)隊(duì)總是最晚下班的群人...”在汽車(chē)軟件快速迭代的今天,這樣的場(chǎng)景已成為行業(yè)常態(tài):開(kāi)發(fā)效率不斷提升,但測(cè)試環(huán)節(jié)卻逐漸成為拖慢交付的“最后公里”。復(fù)雜的工具鏈、割裂的流程、模糊
    的頭像 發(fā)表于 08-27 10:04 ?631次閱讀
    量化評(píng)估企業(yè)軟件測(cè)試能力的評(píng)估<b class='flag-5'>工具包</b>

    IQM 宣布 Resonance 量子云平臺(tái)重大升級(jí),推出全新軟件開(kāi)發(fā)工具包

    進(jìn)程,并為終端用戶帶來(lái)性能強(qiáng)大的新代量子系統(tǒng)。 此次升級(jí)將 Qrisp——個(gè)源自德國(guó)弗勞恩霍夫 FOKUS 研究所的項(xiàng)目——設(shè)為平臺(tái)新的默認(rèn)軟件開(kāi)發(fā)工具包 (SDK)。Qrisp
    的頭像 發(fā)表于 07-11 11:03 ?576次閱讀

    集成API設(shè)計(jì)+測(cè)試+文檔管理,全新站式解決方案SmartBear API Hub功能介紹

    SmartBear全新推出API Hub,助力高效應(yīng)對(duì)API開(kāi)發(fā)挑戰(zhàn)! API Hub專為API開(kāi)發(fā)者、架構(gòu)師、產(chǎn)品經(jīng)理和QA團(tuán)隊(duì)打造,將設(shè)計(jì)、測(cè)試、治理和文檔集成到
    的頭像 發(fā)表于 04-08 17:52 ?735次閱讀
    集成API設(shè)計(jì)+測(cè)試+文檔管理,全新<b class='flag-5'>一</b>站式解決方案SmartBear API <b class='flag-5'>Hub</b>功能介紹

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1409次閱讀

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無(wú)法導(dǎo)出INT8模型怎么解決?

    無(wú)法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    在Google Colab筆記本電腦上導(dǎo)入OpenVINO?工具包2021中的 IEPlugin類出現(xiàn)報(bào)錯(cuò),怎么解決?

    在 Google* Colab Notebook 上OpenVINO?工具包 2021 中使用了 IEPlugin 。 遇到: ImportError: cannot import name \'IEPlugin\' from \'openvino.inference_engine\'
    發(fā)表于 03-05 10:31

    構(gòu)建開(kāi)源OpenVINO?工具包后,使用MYRIAD插件成功運(yùn)行演示時(shí)報(bào)錯(cuò)怎么解決?

    構(gòu)建開(kāi)源OpenVINO?工具包后,使用 MYRIAD 插件成功運(yùn)行演示。 使用 CPU 插件運(yùn)行演示時(shí)遇到錯(cuò)誤: Cannot load library \'libarmPlugin.so
    發(fā)表于 03-05 09:57

    安裝OpenVINO?工具包穩(wěn)定擴(kuò)散后報(bào)錯(cuò),怎么解決?

    已安裝OpenVINO?工具包穩(wěn)定擴(kuò)散并收到錯(cuò)誤消息: \"BackendCompilerFailed: openvino_fx raised RuntimeError
    發(fā)表于 03-05 06:56

    云計(jì)算開(kāi)發(fā)工具包的功能

    隨著云計(jì)算技術(shù)的不斷成熟,越來(lái)越多的企業(yè)開(kāi)始將應(yīng)用和服務(wù)遷移到云端,以享受彈性計(jì)算資源、高可用性和成本效益等優(yōu)勢(shì)。為了加速這進(jìn)程,云計(jì)算服務(wù)提供商推出了各種開(kāi)發(fā)工具包。下面,AI部落小編帶您了解云計(jì)算開(kāi)發(fā)
    的頭像 發(fā)表于 02-21 11:02 ?648次閱讀

    TDC1000-TDC7200 GUI調(diào)試工具求助

    本帖最后由 匿名 于 2025-2-18 21:15 編輯 最近準(zhǔn)備玩TDC1000的開(kāi)發(fā)板,官網(wǎng)配套的GUI開(kāi)發(fā)工具包已不能下載了,跪求個(gè)壓縮,謝謝
    發(fā)表于 02-17 23:24

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    ,并廣泛介紹了深度學(xué)習(xí)在兩個(gè)主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報(bào)行動(dòng)和自主平臺(tái)。最后,討論了相關(guān)的威脅、機(jī)遇、技術(shù)和實(shí)際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無(wú)所不能,需要謹(jǐn)慎應(yīng)用,同時(shí)考慮到其局限性、網(wǎng)絡(luò)安全威脅以及
    的頭像 發(fā)表于 02-14 11:15 ?901次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是種多層前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、個(gè)或多個(gè)隱藏層和輸出層組成,通過(guò)逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度
    的頭像 發(fā)表于 02-12 15:15 ?1605次閱讀