chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器學(xué)習(xí)如何滿足DNN推理的要求

lPCU_elecfans ? 來源:電子發(fā)燒友網(wǎng) ? 作者:電子發(fā)燒友網(wǎng) ? 2022-09-14 09:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/周凱揚)10年前谷歌作為互聯(lián)網(wǎng)巨頭,就已經(jīng)嗅到了機器學(xué)習(xí)的潛力,尤其是在深度神經(jīng)網(wǎng)絡(luò)(DNN)模型上。就拿語音識別這樣的功能來說,如果要考慮到1億安卓用戶每天和手機對話三分鐘這樣的高并發(fā)情況,單單只靠CPU的話,他們需要將現(xiàn)有數(shù)據(jù)中心的規(guī)模擴大至兩倍,才能滿足DNN推理的要求。

但擴建數(shù)據(jù)中心是一個投入極高的工作,于是他們考慮用定制的特定域架構(gòu)的硬件來減少完成推理任務(wù)的總擁有成本,而且又要能運行已經(jīng)為CPU和GPU開發(fā)的應(yīng)用。谷歌在2014年開啟了TPUv1的項目,15個月后,全新的TPU硬件就已經(jīng)應(yīng)用到了谷歌的數(shù)據(jù)中心里,連帶架構(gòu)、編譯器、測試和部署都全部更新了一遍。

那時GPU在推理這塊的性能也還是超過CPU的,但TPU的出現(xiàn)改變了這個格局。與當(dāng)時英特爾的Haswell CPU相比,TPUv1的能耗比有了80倍的提升,相較當(dāng)時的英偉達Tesla K80 GPU,其能耗比也高達它的30倍。

8da5c3c4-33b8-11ed-ba43-dac502259ad0.png

每代TPU的性能指標(biāo) / 谷歌

谷歌此舉引爆了整個市場,大家發(fā)現(xiàn)了還有除了CPU、GPU之外的方案。英特爾察覺后也收購了一系列深度學(xué)習(xí)DSA芯片公司,比如Nervana、Movidius、Mobileye和Habana。谷歌在云服務(wù)上的競爭對手們,阿里巴巴和亞馬遜也開始打造自己的推理、訓(xùn)練芯片。能耗比之戰(zhàn)下,大家很快也意識到機器學(xué)習(xí)帶來的碳足跡成了下一個急需解決的問題。

碳足跡的反噬

根據(jù)去年在IEEE Spectrum上發(fā)布的《深度學(xué)習(xí)受益遞減》一文中提到,隨著機器學(xué)習(xí)的發(fā)展,到了2025年,最強的深度學(xué)習(xí)系統(tǒng)在ImageNet數(shù)據(jù)集中進行物體識別時,錯誤率最高只有5%。但訓(xùn)練這樣一個系統(tǒng)所需要的算力和能耗都是龐大的,更糟糕的是,其排放的二氧化碳將是紐約市一整個月的排放量。

機器學(xué)習(xí)的碳排放可以被分為兩種,一種是運營排放,也就是數(shù)據(jù)中心在運行機器學(xué)習(xí)硬件中產(chǎn)生的碳排放;第二種是整個生命周期內(nèi)的排放,不僅包含運營排放,還包含了各個環(huán)節(jié)的碳排放,比如芯片制造、數(shù)據(jù)中心建造等等??紤]到后者涉及更加復(fù)雜的研究,所以大部分碳足跡的研究都集中在運營排放上。

至于如何記錄碳排放,這也很簡單,只需要將訓(xùn)練/推理的時長x處理器數(shù)量x每個處理器的平均功耗x PUE x 每千瓦時的二氧化碳排放即可。除了最后一項參數(shù)需要從數(shù)據(jù)中心那獲取外,其他的數(shù)據(jù)基本都是公開,或取決于機器學(xué)習(xí)研究者自己的選擇。

如何減少機器學(xué)習(xí)的碳足跡圖靈獎得主、谷歌杰出工程師David Patterson教授對現(xiàn)有的機器學(xué)習(xí)的研究和工作提出了以下幾點建議。首先,從模型開始著手,機器學(xué)習(xí)研究者需要繼續(xù)開發(fā)效率更高的模型,比如谷歌去年發(fā)布的GLaM通用稀疏語言模型,相較GPT-3,它多出了7倍的參數(shù),在自然語言推理等任務(wù)上都要優(yōu)于GPT-3。但同樣重要的是它的能耗和碳足跡指標(biāo),根據(jù)谷歌公布的數(shù)據(jù),與使用V100的GPT-3相比,使用TPUv4的GLaM二氧化碳排放減少了14倍,可見模型對于碳足跡的影響。其次,在發(fā)布新模型的時候,他建議也把能耗和碳足跡這樣的數(shù)據(jù)公開,這樣有助于促進機器學(xué)習(xí)模型在質(zhì)量上的良性競爭。

接著是硬件,他指出我們需要像TPUv4或者A100 GPU等,這類機器學(xué)習(xí)能效比更高的硬件。其實這一點反倒是最不需要擔(dān)心的,這幾乎是每個初創(chuàng)AI芯片公司都在嘗試的做法,即便在峰值上不敵這些硬件,也絕對會在能效比上盡可能做大極致。

8de675fe-33b8-11ed-ba43-dac502259ad0.png

全球大規(guī)模數(shù)據(jù)中心的平均PUE / Uptime Institute

還有就是常見的能效衡量指標(biāo)PUE,大型機器學(xué)習(xí)負載往往要在數(shù)據(jù)中心上運行,而要讓數(shù)據(jù)中心的PUE接近1并不是一件簡單的事。根據(jù)Uptime Institute的統(tǒng)計,各家廠商旗下最大數(shù)據(jù)中心的年度PUE為1.57,就連我國工信部印發(fā)的《新型數(shù)據(jù)中心發(fā)展三年行動計劃(2021-2023)》中提出的最終目標(biāo)也只是將新建大型數(shù)據(jù)中心PUE降低至1.3以下。但好在新建的數(shù)據(jù)中心往往都不會只滿足于這個目標(biāo),而是往1.1乃至1.06這樣的指標(biāo)推進。

可這個指標(biāo)并不是一個死數(shù)據(jù),隨著負載和用量的變動,PUE是在持續(xù)波動的,不少數(shù)據(jù)中心僅僅在建成時發(fā)布了能效指標(biāo),之后就再未公布過任何數(shù)據(jù)了。在這塊做得最好的也還是谷歌,谷歌每年都會發(fā)布年度能效報告,將各個數(shù)據(jù)中心每個季度的PUE公布出來。

不過僅僅只有極低的PUE只能體現(xiàn)出高能耗比,David Patterson教授認為還必須一并公布每個地區(qū)數(shù)據(jù)中心的清潔能源占比。比如阿里巴巴首次發(fā)布的《2022阿里巴巴環(huán)境、社會和治理報告》中就提到了2021年,阿里巴巴在中國企業(yè)可再生能源購買者中排名第一,2022財年阿里云21.6%的電力來自清潔能源。

在雙碳目標(biāo)的提出下,我國其實已經(jīng)落實到了機器學(xué)習(xí)的硬件上,但在軟件和碳足跡透明度這方面還有可以改善的空間。機器學(xué)習(xí)要想做到消耗更低的算力來實現(xiàn)更優(yōu)的效果,就必須從各個環(huán)節(jié)做到節(jié)能減排。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11189

    瀏覽量

    221489
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4819

    瀏覽量

    106132
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8528

    瀏覽量

    135907

原文標(biāo)題:機器學(xué)習(xí)的雙碳目標(biāo)

文章出處:【微信號:elecfans,微信公眾號:電子發(fā)燒友網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    FPGA在機器學(xué)習(xí)中的具體應(yīng)用

    隨著機器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2337次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    學(xué)習(xí)、大規(guī)模數(shù)據(jù)分析等前沿技術(shù)。DeepSeek-R1具備卓越的邏輯推理、多模態(tài)分析(文本/圖像/語音)和實時交互能力,能夠高效處理代碼生成、復(fù)雜問題求解、跨模態(tài)學(xué)習(xí)等高階任務(wù)。憑借其開源、高效、多
    發(fā)表于 07-16 15:29

    Aux-Think打破視覺語言導(dǎo)航任務(wù)的常規(guī)推理范式

    視覺語言導(dǎo)航(VLN)任務(wù)的核心挑戰(zhàn),是讓機器人在復(fù)雜環(huán)境中聽懂指令、看懂世界,并果斷行動。我們系統(tǒng)性地引入推理任務(wù),探索其在導(dǎo)航策略學(xué)習(xí)中的作用,并首次揭示了VLN中的“推理崩塌”現(xiàn)
    的頭像 發(fā)表于 07-08 10:00 ?309次閱讀
    Aux-Think打破視覺語言導(dǎo)航任務(wù)的常規(guī)<b class='flag-5'>推理</b>范式

    大模型推理顯存和計算量估計方法研究

    過程中需要占用大量顯存,導(dǎo)致推理速度變慢,甚至無法進行。 計算量過大:大模型的計算量較大,導(dǎo)致推理速度慢,難以滿足實時性要求。 為了解決這些問題,本文將針對大模型
    發(fā)表于 07-03 19:43

    邊緣計算中的機器學(xué)習(xí):基于 Linux 系統(tǒng)的實時推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來到Medium的這一角落。在本文中,我們將把一個機器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實時數(shù)據(jù)來預(yù)測一臺復(fù)古音頻放大器的當(dāng)前健康狀況。你將
    的頭像 發(fā)表于 06-11 17:22 ?600次閱讀
    邊緣計算中的<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實時<b class='flag-5'>推理</b>模型部署與工業(yè)集成!

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴展推理時間計算、運用強化學(xué)習(xí)、開展監(jiān)督微調(diào)和進行提煉等。本文將深入探討
    的頭像 發(fā)表于 04-03 12:09 ?954次閱讀
    詳解 LLM <b class='flag-5'>推理</b>模型的現(xiàn)狀

    使用OpenVINO?進行推理時的內(nèi)存泄漏怎么解決?

    使用 OpenVINO? 進行推理時,內(nèi)存會隨著時間的推移而增加,并導(dǎo)致程序崩潰。
    發(fā)表于 03-06 08:29

    嵌入式機器學(xué)習(xí)的應(yīng)用特性與軟件開發(fā)環(huán)境

    設(shè)備和智能傳感器)上,這些設(shè)備通常具有有限的計算能力、存儲空間和功耗。本文將您介紹嵌入式機器學(xué)習(xí)的應(yīng)用特性,以及常見的機器學(xué)習(xí)開發(fā)軟件與開發(fā)環(huán)境。 嵌入式
    的頭像 發(fā)表于 01-25 17:05 ?986次閱讀
    嵌入式<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>的應(yīng)用特性與軟件開發(fā)環(huán)境

    傳統(tǒng)機器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)機器
    的頭像 發(fā)表于 12-30 09:16 ?1618次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    如何選擇云原生機器學(xué)習(xí)平臺

    當(dāng)今,云原生機器學(xué)習(xí)平臺因其彈性擴展、高效部署、低成本運營等優(yōu)勢,逐漸成為企業(yè)構(gòu)建和部署機器學(xué)習(xí)應(yīng)用的首選。然而,市場上的云原生機器
    的頭像 發(fā)表于 12-25 11:54 ?617次閱讀

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機器人需要毫米級的精確控制,書中有介紹基于視覺伺服的實時控制算法,以及如何利用大模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場景中,協(xié)作機器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智能通過在線學(xué)習(xí)
    發(fā)表于 12-24 15:03

    CPU推理:AI算力配置新范式

    在當(dāng)前的人工智能領(lǐng)域,尤其是涉及到深度學(xué)習(xí)推理階段,行業(yè)普遍認為GPU是唯一的選擇。然而,GPU的成本相對較高,且對于某些特定的應(yīng)用場景,其高昂的價格和較高的能耗成為了一大負擔(dān)。相比之下,CPU
    的頭像 發(fā)表于 11-21 01:03 ?1194次閱讀
    CPU<b class='flag-5'>推理</b>:AI算力配置新范式

    什么是機器學(xué)習(xí)?通過機器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機器學(xué)習(xí)”最初的研究動機是讓計算機系統(tǒng)具有人的學(xué)習(xí)能力以便實現(xiàn)人工智能。因為沒有學(xué)習(xí)能力的系統(tǒng)很難被認為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?1355次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    NPU與機器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機器學(xué)習(xí)算法是實現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計算資源的需求也在不斷增長。NPU作為一種專門為深度學(xué)習(xí)機器
    的頭像 發(fā)表于 11-15 09:19 ?1675次閱讀

    具身智能與機器學(xué)習(xí)的關(guān)系

    (如機器人、虛擬代理等)通過與物理世界或虛擬環(huán)境的交互來獲得、發(fā)展和應(yīng)用智能的能力。這種智能不僅包括認知和推理能力,還包括感知、運動控制和環(huán)境適應(yīng)能力。具身智能強調(diào)智能體的身體和環(huán)境在智能發(fā)展中的重要性。 2. 機器
    的頭像 發(fā)表于 10-27 10:33 ?1389次閱讀