chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達的反擊:挾H100以令諸侯

Linelayout ? 來源:IC大家談 ? 2023-10-18 15:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

論騷操作,硅谷恐怕沒有CEO能比得上黃仁勛。

去年,黃仁勛向微軟、谷歌和亞馬遜這些云計算廠商提出了一個計劃:這些廠商都有很多搭載了英偉達GPU的服務(wù)器,由英偉達租用這些服務(wù)器,然后讓英偉達的工程師對其進行“優(yōu)化”,再以英偉達的名義租給普通的AI企業(yè),從中賺取差價。

說簡單點,以前微軟會直接把云服務(wù)賣給中小公司,現(xiàn)在由英偉達進來當(dāng)中間商。當(dāng)然按照英偉達官方的說法,此舉是為了“向云計算廠商展示在數(shù)據(jù)中心配置GPU的正確方法”[1]。

服務(wù)器還是那個服務(wù)器,但經(jīng)過英偉達“優(yōu)化”后,客戶就從微軟優(yōu)化到英偉達了。但就是這樣一個匪夷所思的提議,除了亞馬遜之外,各大云計算廠商居然都同意了。

2023年3月,英偉達正式上線云計算服務(wù)DGX Cloud。事實證明,經(jīng)過英偉達工程師的優(yōu)化后,DGX Cloud在訓(xùn)練大模型時表現(xiàn)得的確更好;在此基礎(chǔ)上,英偉達還破例允許短期租賃。僅僅半年時間,英偉達就拿下了軟件公司ServiceNow等大客戶。

科技公司愿意配合英偉達騷操作的真實原因,可能還是因為英偉達手中握有大模型時代最稀缺的資源——H100。

當(dāng)下,幾乎所有的企業(yè)都沒有足夠的算力。連OpenAI創(chuàng)始人阿爾特曼,都曾在一次聽證會上無奈地表示:“如果人們減少使用ChatGPT,我們會非常高興,因為我們的GPU非常短缺[2]?!?/p>

買了多少H100,甚至可以成為決定AI成就的關(guān)鍵因素。這也讓英偉達有了“挾H100以令諸侯”的底氣。

計算機的“稀土”

通常來說,科技企業(yè)會通過購買云計算廠商的服務(wù),來滿足算力需求。從2023年3月開始,微軟Azure、亞馬遜AWS等云計算廠商也先后上架了HGX H100的租賃服務(wù),HGX H100是由4個或8個H100組成的服務(wù)器。

然而,當(dāng)下供需嚴重失衡,云計算廠商這點H100存貨已經(jīng)遠遠滿足不了市場的胃口。2023年H1的財報中,微軟專門更新了一條風(fēng)險因素:如果無法獲得足夠多的AI芯片,云計算業(yè)務(wù)可能會中斷。

許多初創(chuàng)公司需要排隊等待3-12個月,一旦友商搶在自己前面,那可能就是幾十上百億估值的損失。

無數(shù)“H100窮人”們,只能被迫發(fā)揮主觀能動性,看誰的路子更野。

面對《紐約時報》的采訪,一位創(chuàng)業(yè)者將H100比作“稀土”。早些時候,他跑去請求美國國家科學(xué)基金會投資自己,僅僅因為基金會底下一個項目剛好有少數(shù)空置的H100。

在硅谷,AI創(chuàng)業(yè)者打招呼的方式,都變成了“我認識一個有H100的家伙”——不知道的還以為在買賣毒品[4]。

GPU Utils曾測算過H100搶購潮背后具體的需求數(shù)據(jù):

對需要自己訓(xùn)練大模型、追求大力出奇跡的企業(yè)來說,沒有個上萬塊H100都不好意思出門。由前DeepMind聯(lián)合創(chuàng)始人蘇萊曼創(chuàng)辦的InflectionAI,成立方才一年,已買了2.2萬個H100;至于Meta這樣財大氣粗的公司,很可能會購買10萬個甚至更多。

對微軟Azure等云計算廠商來說,每一家也都需要至少3萬個H100。而其余幾家私有云,還將消耗總計約10萬個H100。

測算后發(fā)現(xiàn),僅美國大型科技公司和少數(shù)幾家明星初創(chuàng)公司,需求量已達到約43萬個[5]。如果再算上其他初創(chuàng)企業(yè)、研究機構(gòu)、大學(xué),乃至富裕國家的追逐、再加之黃牛、黑市等不可控因素,實際需求很可能遠大于這個數(shù)字。然而據(jù)英國《金融時報》爆料,今年H100的出貨量大約是55萬個[6]。

H100之所以令人如饑似渴,其中一個核心原因在于其近乎壟斷的市場地位。

面對大模型訓(xùn)練對極致效率的需求,H100在大多數(shù)情況下都是最優(yōu)解。

MPT-30B是第一個使用H100訓(xùn)練的開源LLM(大語言模型),實際訓(xùn)練只耗費了11.6天;相比之下,使用前一代的A100訓(xùn)練則需要28.3天[7]。如若換成參數(shù)規(guī)模更龐大的AI,例如1800B的GPT-4,效率差異會更加明顯。跑馬圈地的時代,時間就是一切。

除此之外,H100在模型推理上的效率也遠高于A100。盡管H100的首發(fā)價約為3.3萬美元,如今二手市場價格更上漲至4-5萬美元;但若將H100和A100的性能分別除以各自的價格,能發(fā)現(xiàn)H100的性價比實際也高于A100。

6cee980e-6d00-11ee-939d-92fbcf53809c.png

6cf36992-6d00-11ee-939d-92fbcf53809c.png

MPT-30B的具體訓(xùn)練、推理情況

黃仁勛說,“Buy more GPUs , the more money you save(買得多,省得多)”,似乎不無道理。

也正因為如此,即便美國限制了H/A100的對華出口,國內(nèi)科技公司仍在搶購閹割版的H/A800——盡管閹割版的芯片間數(shù)據(jù)傳輸速度只有前者一半,意味著需要在大模型訓(xùn)練上花費更多時間。

除需求量龐大之外,造成H100短缺的另一個原因是產(chǎn)能的嚴重不足。

H100芯片需要使用SK海力士的HBM內(nèi)存,以及臺積電的CoWoS封裝——兩者都因過于昂貴,此前并沒能大規(guī)模市場化,預(yù)備產(chǎn)能并不多。由于產(chǎn)能爬坡尚需時間,有分析師預(yù)測H100的短缺至少會持續(xù)至明年一季度,也有人認為要到明年年底才有可能有所緩解[9]。

6d08e13c-6d00-11ee-939d-92fbcf53809c.png

H100內(nèi)部結(jié)構(gòu)

H100的空前盛況,讓黃仁勛在短短一年時間內(nèi)體驗了一回坐過山車的感覺。

去年二季度,消費市場萎靡不振加上挖礦企業(yè)扎堆倒閉,英偉達交出了一份不及格的財報,“GPU滯銷,幫幫我們”的表情包一度遍地都是。一年之后,黃仁勛成功向資本市場展示了什么叫“反向暴雷”,同比營收暴漲854%,大幅超出了最樂觀分析師的預(yù)測。

巔峰換來了漫天的吹捧,但黃仁勛心里清楚,英偉達的頭上一直懸著一把劍。

不可避免的戰(zhàn)爭

今年8月,傳奇工程師吉姆·凱勒對媒體評論道,“我不認為GPU是運行AI的全部,世界憎惡壟斷[11]?!?/p>

此番發(fā)言雖有給自家AI芯片打廣告之嫌,卻也是業(yè)界的共識。

事實上,那些購買了最多H100的大型科技公司,基本都不太“安分”:微軟、谷歌、Meta,或多或少都嘗試過自研AI芯片。

這讓英偉達面臨著一個異常尷尬的處境:在AI芯片領(lǐng)域,自己與“大客戶”之間,未來幾乎必有一戰(zhàn)。

大型科技公司們選擇自研AI芯片,最初都源于一個非常質(zhì)樸的需求——省錢,其中最典型的便是谷歌。

早在2014年,谷歌已啟動了自研芯片計劃。彼時,OpenAI的首席科學(xué)家伊利亞還在谷歌工作,打造出了一套頗具顛覆性的AI模型。該模型脫胎于伊利亞的“大力出奇跡”理念,只需要灌入足夠多且正確的數(shù)據(jù),它便能更好地完成翻譯、語音識別等工作。然而待到實際應(yīng)用時,谷歌卻犯了難:

如果將AI服務(wù)安裝至10億多臺安卓手機中,哪怕每個人每天只使用3分鐘,谷歌都需要2倍于當(dāng)前數(shù)據(jù)中心的算力。當(dāng)時谷歌已經(jīng)建了15個數(shù)據(jù)中心,每個造價上億美金,“超級加倍”顯然不切實際。

最終,谷歌自研出了性能更強、功耗更低的TPU,大大提升了單個數(shù)據(jù)中心的算力供應(yīng),以一種更經(jīng)濟實惠的方式解決了算力難題。

TPU的出現(xiàn),令黃仁勛如坐針氈,開始了“爆改GPU”,很快在性能上實現(xiàn)了反超,其最新成果便是H100。不過,H100的售價實在過于昂貴。

如果按重量售賣H100,那么其每盎司售價將達到黃金的一半;即便對地球上最賺錢的科技公司而言,這筆“英偉達稅”也堪稱天文數(shù)字。

然而,H100的實際制造成本并不高。據(jù)金融咨詢公司Raymond James測算,H100的成本約為3320美金,僅占首發(fā)價的1/10,黃仁勛含淚賺10倍[12]。

自研芯片的經(jīng)濟收益毋庸置疑,但除此之外其實還有另一個好處:垂直整合打造差異化。

堆疊算力不是簡單的往車里加汽油,需要考慮軟件適配性、自身業(yè)務(wù)需求等一系列問題。例如AI所使用的深度學(xué)習(xí)框架有多個派別,谷歌是TensorFlow,Meta用的PyTorch,而百度則有PaddlePaddle,硬件需要根據(jù)不同框架做適配。

專門定制的AI芯片,可以更加緊貼自身AI業(yè)務(wù)的需求。所以Meta在今年又重啟了自研芯片計劃,針對PyTorch框架定制了全新的MTIA芯片。

對大公司來說,考量芯片的核心其實不是算力,而是“單位美元提供的算力”,也就是成本。谷歌的TPU和特斯拉的Dojo都證明了,定制服務(wù)的成本是可以接受的。

眼下,“反抗的星火”已經(jīng)點燃。據(jù)外媒爆料,大型科技公司的云計算團隊,已開始頻繁勸說客戶改用其自研芯片,而不是英偉達的GPU。英偉達固然是目前為止絕對的贏家,但沒人知道平衡什么時候會被打破。

不過,面對這場不可避免的戰(zhàn)爭,英偉達也留了后手。

挾H100以令諸侯

英偉達打出的第一張牌,叫CoreWeave。

CoreWeave成立于2017年,最初是一家以太坊挖礦公司,后來轉(zhuǎn)型做起了云計算業(yè)務(wù)。據(jù)CoreWeave創(chuàng)始人透露,2022年公司收入為3000萬美金,僅有微軟Azure的1/1133,在硅谷幾乎沒什么存在感。

然而到了2023年,CoreWeave突然一夜成名,接連簽下Inflection AI和Stability AI兩個大客戶,年營收預(yù)計將達到5億美金,一年翻16倍。除此之外,微軟甚至決定在未來幾年花費數(shù)十億美金購買其服務(wù);其中僅2024年的訂單,已有20億美金。

改變CoreWeave命運的貴人,正是英偉達。

今年4月,英偉達參與了對CoreWeave的投資;但比起美元,英偉達還給了它一項更稀有的資源——H100。CoreWeave是全球第一家上線HGX H100租賃服務(wù)的云計算企業(yè),比微軟Azure還要早一個月。

這番安排,其實是黃仁勛的有意為之。

H100近乎壟斷的市場地位加之嚴重短缺的現(xiàn)狀,讓英偉達手中多了一層權(quán)力:他可以自由決定優(yōu)先供貨的對象。

相比自己跟Big Tech們同床異夢的塑料友誼,CoreWeave和英偉達是實打?qū)嵉母锩鼞?zhàn)友。因此,英偉達削減了對大型科技公司的H100供應(yīng),轉(zhuǎn)而將這部分產(chǎn)能交給了CoreWeave等“自家兄弟”——它們曾確保不會自研芯片。

從結(jié)果來看,這一戰(zhàn)略不僅避免了囤積現(xiàn)象的出現(xiàn),也確實搶到了大型科技公司的蛋糕:

例如前文提到的Stability AI,在2022年底時一直將亞馬遜AWS視作唯一云服務(wù)商;然而到了今年3月,困于算力不足的Stability AI,悄悄叩開了CoreWeave的大門。

事實上,英偉達手中并非僅有CoreWeave一張牌。這位手握H100的投資人,還投資了同為云計算公司的Lambda Labs,以及三家從事大模型、應(yīng)用開發(fā)的明星初創(chuàng)企業(yè)。

在畝產(chǎn)十萬大模型的當(dāng)下,H100是比美元還珍貴的硬通貨,也為英偉達創(chuàng)造了一個寶貴的窗口期:盡可能讓更多公司用上H100,趁早建立起生態(tài),“把朋友搞得多多的”。

那么這個窗口期能持續(xù)多久呢?

尾聲

英偉達的一系列“騷操作”已經(jīng)引來了美國反壟斷機構(gòu)的注意,同時,全球瘋搶H100的現(xiàn)狀,很可能不會長期持續(xù)下去。

正如前文所述,H100產(chǎn)能受限是因為臺積電和SK海力士的預(yù)備產(chǎn)能不足;隨著新產(chǎn)線陸續(xù)落地,短缺狀況會逐漸得到緩解。

除此之外,旺盛的需求也未必會延續(xù)下去。

事實上,越來越多的科技公司和研究機構(gòu)都選擇將大模型開源。隨著市場上的優(yōu)質(zhì)開源模型越來越多,初創(chuàng)企業(yè)和研究機構(gòu)可以不必再自己動手訓(xùn)練,轉(zhuǎn)而直接下載開源模型,根據(jù)自身業(yè)務(wù)需求進行開發(fā)或者推理。

Meta發(fā)布開源大模型Llama后,斯坦福、卡內(nèi)基梅隆等多所高校的研究人員就曾聯(lián)合起來,以此為基礎(chǔ)打造了開源大模型Vicuna,很快便突破了200萬次下載。

6d435de4-6d00-11ee-939d-92fbcf53809c.png

Vicuna

在肉眼可見的未來,算力的主要使用場景很可能會從訓(xùn)練轉(zhuǎn)向推理——屆時,H100便不再是獨孤求敗了。因為不同于追求極致效率的訓(xùn)練場景,AI推理其實更看重性價比。

另一方面,以大模型為代表的生成式AI如今面臨的問題在于:面對高昂的算力成本,除了英偉達,大家都還沒賺到錢。

2006年CUDA平臺推出時,英偉達以超脫于行業(yè)的前瞻性推動了AI的飛速進步。而如今,英偉達氣勢如虹的業(yè)績似乎也是一種拷問:它是不是已經(jīng)從AI的推動者,變成了AI前進的阻力?

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 云計算
    +關(guān)注

    關(guān)注

    39

    文章

    7993

    瀏覽量

    142097
  • 英偉達
    +關(guān)注

    關(guān)注

    23

    文章

    4016

    瀏覽量

    96820
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2031

    瀏覽量

    36380

原文標題:英偉達的反擊:挾H100以令諸侯

文章出處:【微信號:IC大家談,微信公眾號:IC大家談】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    英偉達官宣H20恢復(fù)中國供應(yīng),新款GPU震撼來襲

    電子發(fā)燒友原創(chuàng) 章鷹 今天,命運多舛的英偉H20芯片迎來了新轉(zhuǎn)機。4月,美國政府決定禁止英偉向中國市場銷售
    的頭像 發(fā)表于 07-16 02:01 ?8812次閱讀
    <b class='flag-5'>英偉</b>達官宣<b class='flag-5'>H</b>20恢復(fù)中國供應(yīng),新款GPU震撼來襲

    英偉 H100 GPU 掉卡?做好這五點,讓算力穩(wěn)如泰山!

    H100服務(wù)器停工一天損失的算力成本可能比維修費還高。今天,我們給大家總結(jié)一套“防掉卡秘籍”,從日常管理到環(huán)境把控,手把手教你把掉卡風(fēng)險壓到最低。一、供電是“生命線”,這3點必須盯緊H100滿載功耗
    的頭像 發(fā)表于 09-05 11:03 ?480次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b> <b class='flag-5'>H100</b> GPU 掉卡?做好這五點,讓算力穩(wěn)如泰山!

    英偉被傳暫停生產(chǎn)H20芯片 外交部回應(yīng)

    據(jù)外媒《the Information》在當(dāng)?shù)貢r間的8月21日下午爆料稱,英偉可能已經(jīng)暫停生產(chǎn)H20芯片。據(jù)稱,英偉已正式下達指示給到供
    的頭像 發(fā)表于 08-22 15:58 ?2278次閱讀

    搞定英偉 H100 ECC 報錯:從原理到維修,一步到位解煩憂

    最近,捷智算GPU維修室收到了不少H100服務(wù)器需要維修,故障問題集中為ECC報錯。為了幫大家更好地認識和了解情況,下面就詳細分享一下ECC報錯系統(tǒng)化排查方法和維修流程。一、ECC報錯
    的頭像 發(fā)表于 08-14 18:05 ?936次閱讀
    搞定<b class='flag-5'>英偉</b><b class='flag-5'>達</b> <b class='flag-5'>H100</b> ECC 報錯:從原理到維修,一步到位解煩憂

    H20中國區(qū)賣爆!英偉緊急向臺積電加訂30萬塊

    ,性能上相當(dāng)于英偉另一款主流GPU芯片H100的20%左右。 ? 盡管如此,在美國解禁對H20芯片的出口后,需求仍然超出了想象。據(jù)路透社報道,中國市場的需求比預(yù)想中藥強勁得多。因此
    的頭像 發(fā)表于 07-30 08:08 ?2792次閱讀

    英偉獲美批準恢復(fù)H20在華銷售,同步推出全新兼容GPU

    7月15日上午,央廣財經(jīng)記者從英偉方面確認,英偉已經(jīng)獲得美國批準,將恢復(fù) H20 在中國的銷售,并推出面向中國市場的全新且完全兼容的 G
    的頭像 發(fā)表于 07-16 17:49 ?538次閱讀

    中方回應(yīng)英偉將對華銷售H20芯片 反對將科技和經(jīng)貿(mào)問題政治化

    對于英偉將對華銷售H20芯片我們怎么回應(yīng)的?來看看外交部發(fā)言人的表述。 在15日的例行記者會上,有記者就英偉黃仁勛表示
    的頭像 發(fā)表于 07-15 16:22 ?1879次閱讀

    GPU 維修干貨 | 英偉 GPU H100 常見故障有哪些?

    ABSTRACT摘要本文主要介紹英偉H100常見的故障類型和問題。JAEALOT2025年5月5日今年,國家政府報告提出要持續(xù)推進“人工智能+”行動,大力發(fā)展人工智能行業(yè),市場上對算力的需求持續(xù)
    的頭像 發(fā)表于 05-05 09:03 ?2034次閱讀
    GPU 維修干貨 | <b class='flag-5'>英偉</b><b class='flag-5'>達</b> GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    特朗普要叫停英偉對華特供版 英偉H20出口限制 或損失55億美元

    是“中國特供版”人工智能芯片;是英偉公司為符合美國出口規(guī)定專門為中國市場開發(fā)的定制芯片,H20芯片在訓(xùn)練AI模型方面不如英偉其他芯片速度
    的頭像 發(fā)表于 04-16 16:59 ?1718次閱讀

    英偉A100H100比較

    英偉A100H100都是針對高性能計算和人工智能任務(wù)設(shè)計的GPU,但在性能和特性上存在顯著差異。以下是對這兩款GPU的比較: 1. 架構(gòu)與核心規(guī)格: A
    的頭像 發(fā)表于 02-10 17:05 ?1w次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比較

    英偉發(fā)布DeepSeek R1于NIM平臺

    網(wǎng)站上發(fā)布。 據(jù)悉,DeepSeek R1 NIM微服務(wù)是英偉在人工智能領(lǐng)域的一項重要創(chuàng)新,旨在為用戶提供高效、精準的推理服務(wù)。在單個英偉HGX
    的頭像 發(fā)表于 02-05 14:48 ?822次閱讀

    英偉被立案調(diào)查 英偉回應(yīng)反壟斷調(diào)查

    決定的公告》(市場監(jiān)管總局公告〔2020〕第 16 號),市場監(jiān)管總局依法對英偉公司開展立案調(diào)查。 因為在2020年英偉69億美元收購
    的頭像 發(fā)表于 12-10 15:03 ?682次閱讀

    英偉超越蘋果成為市值最高 英偉取代英特爾加入道指

    在AI浪潮下英偉被各路資本競相追逐,2024年英偉公司的股價累計上漲高達180%。在11月4日,英偉
    的頭像 發(fā)表于 11-05 15:22 ?973次閱讀

    英偉H100芯片市場降溫

    隨著英偉新一代AI芯片GB200需求的不斷攀升,其上一代明星產(chǎn)品H100芯片卻遭遇了市場的冷落。據(jù)業(yè)內(nèi)人士透露,搭載H100的服務(wù)器通常以8卡的形式進行出售或出租,而在去年,這類服務(wù)
    的頭像 發(fā)表于 10-28 15:42 ?2248次閱讀