chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

有多快?華為云刷新深度學習加速紀錄

DPVg_AI_era ? 2018-12-02 11:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導讀】華為云ModelArts在國際權威的深度學習模型基準測試平臺斯坦福DAWNBenchmark上取得了當前圖像識別訓練時間最佳成績,ResNet-50在ImageNet數(shù)據(jù)集上收斂僅用10分28秒,比第二名成績提升近44%。華為自研了分布式通用加速框架MoXing,在應用層和TensorFlow、MXNet、PyTorch等框架之間實現(xiàn)再優(yōu)化。ModelArts公測地址:https://www.huaweicloud.com/product/modelarts.html

日前,斯坦福大學發(fā)布了DAWNBenchmark最新成績,在圖像識別(ResNet50-on-ImageNet,93%以上精度)的總訓練時間上,華為云ModelArts排名第一,僅需10分28秒,比第二名提升近44%。

有多快?華為云刷新深度學習加速紀錄

斯坦福大學DAWNBenchmark圖像識別訓練時間最新成績,華為云ModelArts以10分28秒排名第一,超越了fast.ai、谷歌等勁敵。來源:dawn.cs.stanford.edu/benchmark/

作為人工智能最重要的基礎技術之一,近年來深度學習逐步延伸到更多的應用場景。除了精度,訓練時間和成本也是構建深度學習模型時需要考慮的核心要素。然而,當前的深度學習基準往往以衡量精度為主,斯坦福大學DAWNBench正是在此背景下提出。

斯坦福DAWNBench是衡量端到端深度學習模型訓練和推理性能的國際權威基準測試平臺,提供了一套通用的深度學習評價指標,用于評估不同優(yōu)化策略、模型架構、軟件框架、云和硬件上的訓練時間、訓練成本、推理延遲以及推理成本,吸引了谷歌、亞馬遜AWS、fast.ai等高水平隊伍參與,相應的排名反映了當前全球業(yè)界深度學習平臺技術的領先性。

正是在這樣高手云集的基準測試中,華為云ModelArts第一次參加國際排名,便實現(xiàn)了更低成本、更快速度的體驗。

華為云創(chuàng)造端到端全棧優(yōu)化新紀錄:128塊GPU,10分鐘訓練完ImageNet

為了達到更高的精度,通常深度學習所需數(shù)據(jù)量和模型都很大,訓練非常耗時。例如,在計算機視覺領域常用的經(jīng)典ImageNet數(shù)據(jù)集(1000個類別,共128萬張圖片)上,用1塊P100 GPU訓練一個ResNet-50模型, 耗時需要將近1周。這嚴重阻礙了深度學習應用的開發(fā)進度。因此,深度學習訓練加速一直是學術界和工業(yè)界所關注的重要問題,也是深度學習應用的主要痛點。

曾任Kaggle總裁和首席科學家的澳大利亞數(shù)據(jù)科學家和企業(yè)家Jeremy Howard,與其他幾位教授共同組建了AI初創(chuàng)公司fast.ai,專注于深度學習加速。他們用128塊V100 GPU,在上述ImageNet數(shù)據(jù)集上訓練ResNet-50模型,最短時間為18分鐘。

最近BigGAN、NASNet、BERT等模型的出現(xiàn),預示著訓練更好精度的模型需要更強大的計算資源??梢灶A見,在未來隨著模型的增大、數(shù)據(jù)量的增加,深度學習訓練加速將變得會更加重要。

只有擁有端到端全棧的優(yōu)化能力,才能使得深度學習的訓練性能做到極致。

有多快?華為云刷新深度學習加速紀錄

華為云ModelArts功能視圖

華為云ModelArts是一站式的AI開發(fā)平臺,已經(jīng)服務于華為公司內(nèi)部各大產(chǎn)品線的AI模型開發(fā),幾年下來已經(jīng)積累了跨場景、軟硬協(xié)同、端云一體等多方位的優(yōu)化經(jīng)驗。

ModelArts提供了自動學習、數(shù)據(jù)管理、開發(fā)管理、訓練管理、模型管理、推理服務管理、市場等多個模塊化的服務,使得不同層級的用戶都能夠很快地開發(fā)出自己的AI模型。

自研分布式通用加速框架MoXing,性能再加速

為什么ModelArts能在圖像識別的訓練時間上取得如此優(yōu)異的成績?

答案是“MoXing”。

在模型訓練部分,ModelArts通過硬件、軟件和算法協(xié)同優(yōu)化來實現(xiàn)訓練加速。尤其在深度學習模型訓練方面,華為將分布式加速層抽象出來,形成一套通用框架——MoXing(“模型”的拼音,意味著一切優(yōu)化都圍繞模型展開)。

有多快?華為云刷新深度學習加速紀錄

采用與fast.ai一樣的硬件、模型和訓練數(shù)據(jù),ModelArts可將訓練時長可縮短到10分鐘,創(chuàng)造了新的紀錄,為用戶節(jié)省44%的時間

MoXing是華為云ModelArts團隊自研的分布式訓練加速框架,它構建于開源的深度學習引擎TensorFlow、MXNet、PyTorch、Keras之上,使得這些計算引擎分布式性能更高,同時易用性更好。

有多快?華為云刷新深度學習加速紀錄

華為云MoXing架構圖

MoXing內(nèi)置了多種模型參數(shù)切分和聚合策略、分布式SGD優(yōu)化算法、級聯(lián)式混合并行技術、超參數(shù)自動調(diào)優(yōu)算法,并且在分布式訓練數(shù)據(jù)切分策略、數(shù)據(jù)讀取和預處理、分布式通信等多個方面做了優(yōu)化,結合華為云Atlas高性能服務器,實現(xiàn)了硬件、軟件和算法協(xié)同優(yōu)化的分布式深度學習加速。

有了MoXing后,上層開發(fā)者可以聚焦業(yè)務模型,無需關注下層分布式相關的API,只用根據(jù)實際業(yè)務定義輸入數(shù)據(jù)、模型以及相應的優(yōu)化器即可,訓練腳本與運行環(huán)境(單機或者分布式)無關,上層業(yè)務代碼和分布式訓練引擎可以做到完全解耦。

用數(shù)據(jù)說話:從吞吐量和收斂時間看加速性能

深度學習加速屬于一個從底層硬件到上層計算引擎、再到更上層的分布式訓練框架及其優(yōu)化算法多方面協(xié)同優(yōu)化的結果,具備全棧優(yōu)化能力才能將用戶訓練成本降到最低。

在模型訓練這方面,華為云ModelArts內(nèi)置的MoXing框架使得深度學習模型訓練速度有了很大的提升。

下圖是華為云團隊測試的模型收斂曲線(128塊V100 GPU,完成ResNet50-on-ImageNet)。一般在ImageNet數(shù)據(jù)集上訓練ResNet-50模型,當Top-5精度≥93%或者Top-1 精度≥75%時,即可認為模型收斂。

有多快?華為云刷新深度學習加速紀錄

ResNet50-on-ImageNet訓練收斂曲線(曲線上的精度為訓練集上的精度):(a)所對應的模型在驗證集上Top-1 精度≥75%,訓練耗時為10分06秒;(b) 所對應的模型在驗證集上Top-5精度≥93%,訓練耗時為10分28秒。

Top-1和Top-5精度為訓練集上的精度,為了達到極致的訓練速度,訓練過程中采用了額外進程對模型進行驗證,最終驗證精度如下表所示(包含與fast.ai的對比)。

有多快?華為云刷新深度學習加速紀錄

MoXing與fast.ai的訓練結果對比

華為云團隊介紹,衡量分布式深度學習框架加速性能時,主要看吞吐量和收斂時間。在與吞吐量和收斂時間相關的幾個關鍵指標上,團隊都做了精心處理:

在數(shù)據(jù)讀取和預處理方面,MoXing通過利用多級并發(fā)輸入流水線使得數(shù)據(jù)IO不會成為瓶頸;

在模型計算方面,MoXing對上層模型提供半精度和單精度組成的混合精度計算,通過自適應的尺度縮放減小由于精度計算帶來的損失;

在超參調(diào)優(yōu)方面,采用動態(tài)超參策略(如momentum、batch size等)使得模型收斂所需epoch個數(shù)降到最低;

在底層優(yōu)化方面,MoXing與底層華為自研服務器和通信計算庫相結合,使得分布式加速進一步提升

后續(xù),華為云ModelArts將進一步整合軟硬一體化的優(yōu)勢,提供從芯片(Ascend)、服務器(Atlas Server)、計算通信庫(CANN)到深度學習引擎(MindSpore)和分布式優(yōu)化框架(MoXing)全棧優(yōu)化的深度學習訓練平臺。

ModelArts會逐步集成更多的數(shù)據(jù)標注工具,擴大應用范圍,將繼續(xù)服務于智慧城市、智能制造、自動駕駛及其它新興業(yè)務場景,在公有云上為用戶提供更普惠的AI服務。

目前華為云ModelArts已經(jīng)在公測中。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6238

    瀏覽量

    109828
  • 華為
    +關注

    關注

    216

    文章

    35573

    瀏覽量

    259285
  • 華為云
    +關注

    關注

    3

    文章

    2797

    瀏覽量

    18927

原文標題:華為云刷新深度學習加速紀錄:128塊GPU,10分鐘訓練完ImageNet

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

      華為深度學習服務,讓企業(yè)智能從此不求人

      近日,華為發(fā)布了深度學習服務,要讓企業(yè)智能從此不求人。那么企業(yè)深度
    發(fā)表于 08-02 20:44

    華為如何進行全面轉型?

    華為接下來的動作可能是這家公司在AI領域最大的投入:發(fā)布華為數(shù)據(jù)中心AI芯片,并跟國際巨頭達成合作;推出類似TensorFlow、Caffe、PaddlePaddle的深度
    發(fā)表于 09-11 11:51

    華為FPGA加速服務器如何加速讓硬件應用高效上?

    華為FPGA加速服務器讓“硬用”上成為新增長點隨著通信和互聯(lián)網(wǎng)產(chǎn)業(yè)的快速發(fā)展,F(xiàn)PGA作為高性能計算加速器在大數(shù)據(jù)、
    發(fā)表于 10-22 07:12

    【福利活動】深度體驗OpenHarmony對接華為IoT

    本文主要介紹基于OpenHarmony 3.0來接入IoTDA,以BearPi-HM_Nano開發(fā)板為例,使用huaweicloud_iot_link SDK對接華為物聯(lián)網(wǎng)平臺的簡單流程。文末為
    發(fā)表于 07-28 10:55

    Xilinx 助力華為加速服務器

    華為全聯(lián)接大會上華為首發(fā) FP1 實例!其 FPGA 加速服務器 (FACS) 平臺可支持用戶在華為公有
    的頭像 發(fā)表于 09-19 11:03 ?5206次閱讀

    首款基于FPGA的原創(chuàng)深度學習語音識別加速解決方案面世,深鑒引領FPGA加速市場

    高效語音識別引擎。該方案在亞馬遜AWS發(fā)布之后,迅速移植上線國內(nèi)公有市場。以語音識別為應用載體,對AI類應用推理計算進行全面加速。成為目前國內(nèi)公有市場上,首款基于FPGA平臺的原創(chuàng)深度
    發(fā)表于 07-27 14:25 ?2066次閱讀

    華為刷新深度學習加速紀錄

    華為ModelArts在國際權威的深度學習模型基準測試平臺斯坦福DAWNBenchmark上取得了當前圖像識別訓練時間最佳成績,ResNet-50在ImageNet數(shù)據(jù)集上收斂僅用1
    的頭像 發(fā)表于 12-03 10:29 ?3370次閱讀

    深度學習模型壓縮與加速綜述

    更好的性能,但是高額的存儲空間、計算資源消耗是使其難以有效的應用在各硬件平臺上的重要原因。所以,卷積神經(jīng)網(wǎng)絡日益增長的深度和尺寸為深度學習在移動端的部署帶來了巨大的挑戰(zhàn),深度
    的頭像 發(fā)表于 06-08 17:26 ?5787次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>模型壓縮與<b class='flag-5'>加速</b>綜述

    微軟推出基于FPGA的深度學習加速平臺

    微軟團隊推出了一個新的深度學習加速平臺,其代號為腦波計劃(Project Brainwave),機器之心將簡要介紹該計劃。
    發(fā)表于 09-03 14:36 ?2202次閱讀

    FPGA做深度學習加速的技能總結

    深度學習加速器已經(jīng)兩年了,從RTL設計到仿真驗證,以及相應的去了解了Linux驅動,深度學習壓縮方法等等。
    的頭像 發(fā)表于 03-08 16:29 ?9360次閱讀
    FPGA做<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>加速</b>的技能總結

    機器學習深度學習什么區(qū)別?

    深度學習算法現(xiàn)在是圖像處理軟件庫的組成部分。在他們的幫助下,可以學習和訓練復雜的功能;但他們的應用也不是萬能的。 “機器學習”和“深度
    的頭像 發(fā)表于 03-12 16:11 ?8792次閱讀
    機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>有</b>什么區(qū)別?

    基于AdderNet的深度學習推理加速

    電子發(fā)燒友網(wǎng)站提供《基于AdderNet的深度學習推理加速器.zip》資料免費下載
    發(fā)表于 10-31 11:12 ?0次下載
    基于AdderNet的<b class='flag-5'>深度</b><b class='flag-5'>學習</b>推理<b class='flag-5'>加速</b>器

    深度學習算法簡介 深度學習算法是什么 深度學習算法哪些

    深度學習算法簡介 深度學習算法是什么?深度學習算法
    的頭像 發(fā)表于 08-17 16:02 ?1w次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?846次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領域的一個熱門研究方向。以下是一些FPGA加速
    的頭像 發(fā)表于 10-25 09:22 ?1527次閱讀