chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPU的歷史性時刻!

芯司機(jī) ? 來源:芯司機(jī) ? 2023-08-29 15:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

8月23日,GPU巨頭Nvidia發(fā)布了2023年二季度財報,其結(jié)果遠(yuǎn)超預(yù)期。總體來說,Nvidia二季度的收入達(dá)到了135億美元,相比去年同期增長了101%;凈利潤達(dá)到了61億美元,相比去年同期增長了843%。Nvidia公布的這一驚人的財報一度在盤后讓Nvidia股票大漲6%,甚至還帶動了眾多人工智能相關(guān)的科技股票在盤后跟漲。

Nvidia收入在二季度如此大漲,主要靠的就是目前方興未艾的人工智能風(fēng)潮。ChatGPT為代表的大模型技術(shù)從去年第三季度以來,正在得到全球幾乎所有互聯(lián)網(wǎng)公司的追捧,包括美國硅谷的谷歌、亞馬遜以及中國的百度、騰訊、阿里巴巴等等巨頭。而這些大模型能進(jìn)行訓(xùn)練和推理的背后,都離不開人工智能加速芯片,Nvidia的GPU則是大模型訓(xùn)練和推理加速目前的首選方案。由于個大科技巨頭以及初創(chuàng)公司都在大規(guī)模購買Nvidia的A系列和H系列高端GPU用于支持大模型訓(xùn)練算力,這也造成了Nvidia的數(shù)據(jù)中心GPU供不應(yīng)求,當(dāng)然這反映到財報中就是收入和凈利潤的驚人增長。

9ac214b6-4633-11ee-a2ef-92fbcf53809c.png

事實(shí)上,從Nvidia的財報中,除了亮眼的收入和凈利潤數(shù)字之外,還有一個關(guān)鍵的數(shù)字值得我們關(guān)注,就是Nvidia二季度的數(shù)據(jù)中心業(yè)務(wù)收入。根據(jù)財報,Nvidia二季度的數(shù)據(jù)中心業(yè)務(wù)收入超過了100億美元,相比去年同期增長171%。Nvidia數(shù)據(jù)中心業(yè)務(wù)數(shù)字本身固然非常驚人,但是如果聯(lián)系到其他公司的同期相關(guān)收入并進(jìn)行對比,我們可以看到這個數(shù)字背后更深遠(yuǎn)的意義。同樣在2023年第二季度,Intel的數(shù)據(jù)中心業(yè)務(wù)收入是40億美元,相比去年同期下降15%;AMD的數(shù)據(jù)中心業(yè)務(wù)收入是13億美元,相比去年同期下降11%。我們從中可以看到,在數(shù)據(jù)中心業(yè)務(wù)的收入數(shù)字上,Nvidia在2023年第二季度的收入已經(jīng)超過了Intel和AMD在相同市場收入的總和。

這樣的對比的背后,體現(xiàn)出了在人工智能時代,人工智能加速芯片(GPU)和通用處理器芯片(CPU)地位的反轉(zhuǎn)。目前,在數(shù)據(jù)中心,人工智能加速芯片/GPU事實(shí)上最主流的供貨商就是Nvidia,而通用處理器芯片/CPU的兩大供貨商就是Intel和AMD,因此比較Nvidia和Intel+AMD在數(shù)據(jù)中心領(lǐng)域的收入數(shù)字就相當(dāng)于比較GPU和CPU之間的出貨規(guī)模。雖然人工智能從2016年就開始火熱,但是在數(shù)據(jù)中心,人工智能相關(guān)的芯片和通用芯片CPU相比,獲得的市場份額增長并不是一蹴而就的:在2023年之前,數(shù)據(jù)中心CPU的份額一直要遠(yuǎn)高于GPU的份額;甚至在2023年第一季度,Nvidia在數(shù)據(jù)中心業(yè)務(wù)上的收入(42億美元)仍然要低于Intel和AMD在數(shù)據(jù)中心業(yè)務(wù)的收入總和;而在第二季度,這樣的力量對比反轉(zhuǎn)了,在數(shù)據(jù)中心GPU的收入一舉超過了CPU的收入。

這也是一個歷史性的時刻。從上世紀(jì)90年代PC時代開始,CPU一直是摩爾定律的領(lǐng)軍者,其輝煌從個人電腦時代延續(xù)到了云端數(shù)據(jù)中心時代,同時也推動了半導(dǎo)體領(lǐng)域的持續(xù)發(fā)展;而在2023年,隨著人工智能對于整個高科技行業(yè)和人類社會的影響,用于通用計算的CPU在半導(dǎo)體芯片領(lǐng)域的地位正在讓位于用于人工智能加速的GPU(以及其他相關(guān)的人工智能加速芯片)。

摩爾定律的故事在GPU上仍然在發(fā)生

眾所周知,CPU的騰飛離不開半導(dǎo)體摩爾定律。根據(jù)摩爾定律,半導(dǎo)體工藝特征尺寸每18個月演進(jìn)一代,同時晶體管的性能也得大幅提升,這就讓CPU在摩爾定律的黃金時代(上世紀(jì)80年代至本世紀(jì)第一個十年)突飛猛進(jìn):一方面CPU性能每一年半就迭代一次,推動新的應(yīng)用出現(xiàn),另一方面新的應(yīng)用出現(xiàn)又進(jìn)一步推動對于CPU性能的需求,這樣兩者就形成了一個正循環(huán)。這樣的正循環(huán)一直到2010年代,隨著摩爾定律逐漸接近物理瓶頸而慢慢消失——我們可以看到,最近10年中,CPU性能增長已經(jīng)從上世紀(jì)8、90年代的15%年復(fù)合增長率(即性能每18個月翻倍)到了2015年后的3%年復(fù)合增長率(即性能需要20年才翻倍)。

9ad18676-4633-11ee-a2ef-92fbcf53809c.png

但是,摩爾定律對于半導(dǎo)體晶體管性能增長的驅(qū)動雖然已經(jīng)消失,但是摩爾定律所預(yù)言的性能指數(shù)級增長并沒有消失,而是從CPU轉(zhuǎn)到了GPU上。如果我們看2005年之后GPU的性能(算力)增長,我們會發(fā)現(xiàn)它事實(shí)上一直遵循了指數(shù)增長規(guī)律,大約2.2年性能就會翻倍!

9af32e8e-4633-11ee-a2ef-92fbcf53809c.png

同樣是芯片,為什么GPU能延續(xù)指數(shù)級增長?這里,我們可以從需求和技術(shù)支撐兩方面來分析:需求意味著市場上是不是有應(yīng)用對于GPU的性能指數(shù)級增長有強(qiáng)大的需求?而技術(shù)支撐則是,從技術(shù)上有沒有可能實(shí)現(xiàn)指數(shù)級性能增長?

從需求上來說,人工智能確實(shí)存在著這樣強(qiáng)烈需求。我們可以看到,從2012年(神經(jīng)網(wǎng)絡(luò)人工智能復(fù)興怨念開始)到至今,人工智能模型的算力需求確實(shí)在指數(shù)級增長。2012年到2018年是卷積神經(jīng)網(wǎng)絡(luò)最流行的年份,在這段時間里我們看到人工智能模型的算力需求增長大約是每兩年15倍。在那個時候,GPU主要負(fù)責(zé)的是模型訓(xùn)練,而在推理部分GPU的性能一般都是綽綽有余。而從2018年進(jìn)入以Transformer架構(gòu)為代表的大模型時代后,人工智能模型對于算力需求的演進(jìn)速度大幅提升,已經(jīng)到了每兩年750倍的地步。在大模型時代,即使是模型的推理也離不開GPU,甚至單個GPU都未必能滿足推理的需求;而訓(xùn)練更是需要數(shù)百塊GPU才能在合理的時間內(nèi)完成。這樣的性能需求增長速度事實(shí)上讓GPU大約每兩年性能翻倍的速度都相形見拙,事實(shí)上目前GPU性能提升速度還是供不應(yīng)求!因此,如果從需求側(cè)去看,GPU性能指數(shù)級增長的曲線預(yù)計還會延續(xù)很長一段時間,在未來十年內(nèi)GPU很可能會從CPU那邊接過摩爾定律的旗幟,把性能指數(shù)級增長的神話續(xù)寫下去。

9b0c3032-4633-11ee-a2ef-92fbcf53809c.png

GPU性能指數(shù)增長背后的技術(shù)支撐

除了需求側(cè)之外,為了能讓GPU性能真正維持指數(shù)增長,背后必須有相應(yīng)的芯片技術(shù)支撐。我們認(rèn)為,在未來幾年內(nèi),有三項(xiàng)技術(shù)將會是GPU性能維持指數(shù)級增長背后的關(guān)鍵。

第一個技術(shù)就是領(lǐng)域?qū)S茫╠omain-specific)芯片設(shè)計。同樣是芯片,GPU性能可以指數(shù)級增長而CPU卻做不到,其中的一個重要因素就是GPU性能增長不僅僅來自于晶體管性能提升和電路設(shè)計改進(jìn),更來自于使用領(lǐng)域?qū)S迷O(shè)計的思路。例如,在2016年之前,GPU支持的計算主要是32位浮點(diǎn)數(shù)(fp32),這也是在高性能計算領(lǐng)域的默認(rèn)數(shù)制;但是在人工智能興起之后,研究表明人工智能并不需要32位浮點(diǎn)數(shù)怎么高的精度,而事實(shí)上16位浮點(diǎn)數(shù)已經(jīng)足夠用于訓(xùn)練,而推理使用8位整數(shù)甚至4位整數(shù)都夠了。而由于低精度計算的開銷比較小,因此使用領(lǐng)域?qū)S糜嬎愕脑O(shè)計思路,為這樣的低精度計算做專用優(yōu)化可以以較小的代價就實(shí)現(xiàn)人工智能領(lǐng)域較大的性能提升。從Nvidia GPU的設(shè)計我們可以看到這樣的思路,我們看到了計算數(shù)制方面在過去的10年中從fp32到fp16到int8和int4的高效支持,可以說是一種低成本快速提高性能的思路。除此之外,還有對于神經(jīng)網(wǎng)絡(luò)的支持(TensorCore),稀疏計算的支持,以及Transformer的硬件支持等等,這些都是領(lǐng)域?qū)S迷O(shè)計在GPU上的很好體現(xiàn)。在未來,GPU性能的提升中,可能是有很大一部分來自于這樣的領(lǐng)域?qū)S迷O(shè)計,往往一兩個專用加速模塊的引入就能打破最新人工智能模型的運(yùn)行瓶頸來大大提升整體性能,從而實(shí)現(xiàn)四兩撥千斤的效果。

第二個技術(shù)就是高級封裝技術(shù)。高級封裝技術(shù)對于GPU的影響來自兩部分:高速內(nèi)存和更高的集成度。在大模型時代,隨著模型參數(shù)量的進(jìn)一步提升,內(nèi)存訪問性能對于GPU整體性能的影響越來越重要——即使GPU芯片本身性能極強(qiáng),但是內(nèi)存訪問速度不跟上的話,整體性能還是會被內(nèi)存訪問帶寬所限制,換句話說就是會遇到“內(nèi)存墻”問題。為了避免內(nèi)存訪問限制整體性能,高級封裝是必不可少的,目前的高帶寬內(nèi)存訪問接口(例如已經(jīng)在數(shù)據(jù)中心GPU上廣泛使用的HBM內(nèi)存接口)就是一種針對高級封裝的標(biāo)準(zhǔn),而在未來我們預(yù)期看到高級封裝在內(nèi)存接口方面起到越來越重要的作用,從而助推GPU性能的進(jìn)一步提升。高級封裝對于GPU性能提升的另一方面來自于更高的集成度。最尖端半導(dǎo)體工藝(例如3nm和以下)中,隨著芯片規(guī)模變大,芯片良率會遇到挑戰(zhàn),而GPU可望是未來芯片規(guī)模提升最激進(jìn)的芯片品類。在這種情況下,使用芯片粒將一塊大芯片分割成多個小芯片粒,并且使用高級封裝技術(shù)集成到一起,將會是GPU突破芯片規(guī)模限制的重要方式之一。目前,AMD的數(shù)據(jù)中心GPU已經(jīng)使用上了芯片粒高級封裝技術(shù),而Nvidia預(yù)計在不久的未來也會引入這項(xiàng)技術(shù)來進(jìn)一步繼續(xù)提升GPU芯片集成度。

最后,高速數(shù)據(jù)互聯(lián)技術(shù)將會進(jìn)一步確保GPU分布式計算性能提升。如前所述,大模型的算力需求提升速度是每兩年750倍,遠(yuǎn)超GPU摩爾定律提升性能的速度。這樣,單一GPU性能趕不上模型算力需求,那么就必須用數(shù)量來湊,即把模型分到多塊GPU上進(jìn)行分布式計算。未來幾年我們可望會看到大模型使用越來越激進(jìn)的分布式計算策略,使用數(shù)百塊,上千塊甚至上萬塊GPU來完成訓(xùn)練。在這樣的大規(guī)模分布式計算中,高速數(shù)據(jù)互聯(lián)將會成為關(guān)鍵,否則不同計算單元之間的數(shù)據(jù)交換將會成為整體計算的瓶頸。這些數(shù)據(jù)互聯(lián)包括近距離的基于電氣互聯(lián)的SerDes技術(shù):例如在Nvidia的Grace Hopper Superchip中,使用NVLINK C2C做數(shù)據(jù)互聯(lián),該互聯(lián)可以提供高達(dá)900GB/s的數(shù)據(jù)互聯(lián)帶寬(相當(dāng)于x16 PCIe Gen5的7倍)。另一方面,基于光互聯(lián)的長距離數(shù)據(jù)互聯(lián)也會成為另一個核心技術(shù),當(dāng)分布式計算需要使用成千上萬個計算節(jié)點(diǎn)的時候,這樣的長距離數(shù)據(jù)交換也會變得很常見并且可能會成為系統(tǒng)性能的決定性因素之一。

我們認(rèn)為,在人工智能火熱的年代,GPU將會進(jìn)一步延續(xù)摩爾定律的故事,讓性能指數(shù)級發(fā)展繼續(xù)下去。為了滿足人工智能模型對于性能強(qiáng)烈的需求,GPU將會使用領(lǐng)域?qū)S迷O(shè)計、高級封裝和高速數(shù)據(jù)互聯(lián)等核心技術(shù)來維持性能的快速提升,而GPU以及它所在的人工智能加速芯片也將會成為半導(dǎo)體領(lǐng)域技術(shù)和市場進(jìn)步的主要推動力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5108

    瀏覽量

    134509
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49775

    瀏覽量

    261847
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3460

    瀏覽量

    4995

原文標(biāo)題:GPU的歷史性時刻!

文章出處:【微信號:芯司機(jī),微信公眾號:芯司機(jī)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Shell歷史命令history用法

    1. 顯示歷史命令列表 「介紹」:history 命令用于顯示當(dāng)前會話中執(zhí)行過的命令的列表,以及每個命令對應(yīng)的編號?!甘纠a」:history 2. 使用歷史命令重復(fù)執(zhí)行命令 「介紹」:通過
    發(fā)表于 12-02 06:10

    奧托立夫祝賀一汽大眾達(dá)成3000萬輛里程碑

    2025年10月30日,我們重要的合作伙伴一汽-大眾迎來第3000萬輛整車下線的歷史性時刻,標(biāo)志著其成為國內(nèi)首家達(dá)成這一里程碑的乘用車企業(yè)!奧托立夫受邀出席下線儀式,共同見證這一中國汽車工業(yè)發(fā)展的重大里程碑。
    的頭像 發(fā)表于 11-03 09:56 ?364次閱讀

    首款全國產(chǎn)通用GPU芯片發(fā)布 沐曦集成推出曦云C600

    沐曦集成電路(南京)有限公司近日正式發(fā)布了首款全國產(chǎn)通用GPU——曦云C600,這標(biāo)志著國產(chǎn)高性能GPU實(shí)現(xiàn)歷史性突破。 據(jù)新華日報報道顯示,沐曦發(fā)布的曦云C600集成了大容量存儲與多種精度混合算力
    的頭像 發(fā)表于 10-19 20:04 ?4.5w次閱讀

    aicube的n卡gpu索引該如何添加?

    請問有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經(jīng)安裝了cuda和cudnn,在全局的py里添加了torch,能夠調(diào)用gpu,當(dāng)還是只能看到默認(rèn)的gpu0,顯示不了gpu1
    發(fā)表于 07-25 08:18

    營收破百億創(chuàng)歷史,士蘭微做了什么?

    %。 圖/士蘭微 杭州士蘭微表示,公司營業(yè)收入首次突破100億元,創(chuàng)造了中國大陸本土成長起來的半導(dǎo)體IDM公司的歷史性時刻。 杭州士蘭微取得如此亮眼的營收成績,其成功的關(guān)鍵究竟有哪些? 細(xì)分市場紅利釋放,IDM模式持續(xù)賦能 2024年,杭州士蘭微在多個高增長細(xì)分市場迎來發(fā)
    的頭像 發(fā)表于 07-17 13:56 ?847次閱讀
    營收破百億創(chuàng)<b class='flag-5'>歷史</b>,士蘭微做了什么?

    奇瑞墨甲機(jī)器人全球批量交付

    近日,奇瑞與AiMOGA團(tuán)隊(duì)聯(lián)合研發(fā)的墨甲人形機(jī)器人在奇瑞國際公司園區(qū)完成首批220臺全球交付。來自30多個國家和地區(qū)的合作伙伴、海外經(jīng)銷商及媒體記者共同見證了這一歷史性時刻。
    的頭像 發(fā)表于 05-06 14:54 ?1164次閱讀

    可以手動構(gòu)建imx-gpu-viv嗎?

    使用 imx-gpu-viv-6.4.3.p4.2.aarch64.bin。 https://www.nxp.com/lgfiles/NMG/MAD/YOCTO//imx-gpu-viv-6.4.3.p4.2-aarch64.bin 我需要
    發(fā)表于 03-28 06:35

    無法在GPU上運(yùn)行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 上運(yùn)行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 上推理成功,但在 GPU 上失敗。
    發(fā)表于 03-06 08:02

    OpenVINO?檢測到GPU,但網(wǎng)絡(luò)無法加載到GPU插件,為什么?

    OpenVINO?安裝在舊的 Windows 10 版本 Windows? 10 (RS1) 上。 已安裝 GPU 驅(qū)動程序版本 25.20.100.6373,檢測到 GPU,但網(wǎng)絡(luò)無法加載
    發(fā)表于 03-05 06:01

    仁芯科技榮獲ISO 26262 ASIL B功能安全產(chǎn)品認(rèn)證證書

    近日,仁芯科技迎來了一個歷史性時刻。國際知名的測試、檢驗(yàn)和認(rèn)證機(jī)構(gòu)SGS,正式為其R-LinC系列產(chǎn)品頒發(fā)了ISO 26262:2018 ASIL B Compliant功能安全產(chǎn)品認(rèn)證證書。這一
    的頭像 發(fā)表于 01-23 16:36 ?939次閱讀

    Altera正式獨(dú)立運(yùn)營:FPGA行業(yè)格局將迎來新變局

    迎來了一個歷史性時刻,正式以Altera的名義獨(dú)立運(yùn)營,以我們的靈活性和專注力,引領(lǐng)未來的創(chuàng)新,塑造FPGA技術(shù)的新時代?!?/div>
    的頭像 發(fā)表于 01-23 15:15 ?1339次閱讀

    GPU按需計費(fèi)的優(yōu)勢

    GPU按需計費(fèi),是指用戶根據(jù)實(shí)際使用的GPU資源和時間進(jìn)行費(fèi)用結(jié)算,而非傳統(tǒng)的一次購買或固定租賃模式。以下,是對GPU按需計費(fèi)優(yōu)勢的總結(jié),由AI部落小編整理。
    的頭像 發(fā)表于 01-14 10:43 ?649次閱讀

    東風(fēng)汽車全球造型設(shè)計中心封頂

    東風(fēng)汽車副總經(jīng)理、黨委常委尤崢,武漢經(jīng)開區(qū)工委委員、漢南區(qū)委常委、經(jīng)開區(qū)管委會副主任、漢南區(qū)副區(qū)長劉茂華,以及東風(fēng)汽車研發(fā)總院相關(guān)負(fù)責(zé)人、項(xiàng)目合作伙伴相關(guān)負(fù)責(zé)人等共同見證這一歷史性時刻。
    的頭像 發(fā)表于 12-30 13:55 ?709次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    GPU Computing Guide》是由Dassault Systèmes Deutschland GmbH發(fā)布的有關(guān)CST Studio Suite 2024的GPU計算指南。涵蓋GPU計算
    發(fā)表于 12-16 14:25