chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

刷屏的Groq芯片,速度遠(yuǎn)超英偉達(dá)GPU!成本卻遭質(zhì)疑

Carol Li ? 來(lái)源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-02-22 09:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)英偉達(dá)遇到勁敵了?近日,Groq芯片計(jì)算速度超過(guò)英偉達(dá)GPU的消息刷屏。Groq是一家成立于2016年的AI創(chuàng)企,該公司近日開(kāi)放了自家產(chǎn)品的免費(fèi)試用,相比其他AI聊天機(jī)器人,Groq閃電般的響應(yīng)速度迅速引爆朋友圈,經(jīng)網(wǎng)友測(cè)試,Groq每秒生成速度接近500 tok/s,碾壓GPT-4的40 tok/s。

而這樣的速度背后,源于Groq自研了一種名為張量流處理器(TSP)的新型處理單元,Groq將其命名為語(yǔ)言處理單元,即LPU,它的工作原理與GPU截然不同。

Groq芯片跑大模型的速度有多快

Groq芯片跑大模型最突出的特點(diǎn),便是快。有網(wǎng)友震驚地說(shuō):“它回復(fù)的速度比我眨眼還快?!痹趥鹘y(tǒng)生成AI中,等待是很平常的事,經(jīng)常是字符一個(gè)個(gè)往外蹦,回答完需要挺長(zhǎng)時(shí)間。而有網(wǎng)友稱(chēng),在Groq近日開(kāi)放的云服務(wù)體驗(yàn)平臺(tái)上,你可以看到,當(dāng)模型收到提示后,幾乎能夠立即生成答案。

電子郵件初創(chuàng)企業(yè)OthersideAI的首席執(zhí)行官兼聯(lián)合創(chuàng)始人馬特·舒默在演示中親自體驗(yàn)了Groq的強(qiáng)大功能。他稱(chēng)贊Groq快如閃電,能夠在不到一秒鐘的時(shí)間內(nèi)生成數(shù)百個(gè)單詞的事實(shí)性、引用性答案。更令人驚訝的是,它超過(guò)3/4的時(shí)間用于搜索信息,而生成答案的時(shí)間卻短到只有幾分之一秒。

需要說(shuō)明的是,Groq并沒(méi)有研發(fā)新模型,它只是一個(gè)模型啟動(dòng)器,主頁(yè)上運(yùn)行的是開(kāi)源模型Mixtral 8x7B-32k和Llama 270B-4k。而驅(qū)動(dòng)模型的硬件便是Groq自研的一種名為張量流處理器(TSP)的新型處理單元,Groq將其命名為語(yǔ)言處理單元,即LPU(Language Processing Units),它的工作原理與GPU截然不同。

各種測(cè)試結(jié)果和網(wǎng)友的體驗(yàn),都顯示Groq LPU的計(jì)算速度相當(dāng)快。根據(jù)2024年一月的測(cè)試結(jié)果,由Groq LPU驅(qū)動(dòng)Meta Llama 2模型,推理性能遙遙領(lǐng)先,是頂級(jí)云計(jì)算供應(yīng)商的18倍。有報(bào)道稱(chēng),Groq LPU搭配Meta Llama 2 70B能在7分鐘內(nèi)就能生成與莎士比亞《哈姆雷特》相同數(shù)量的單詞,比普通人的打字速度快75倍。

有網(wǎng)友測(cè)試同時(shí)用Gemini、GPT-4和Groq完成一個(gè)代碼調(diào)試問(wèn)題,結(jié)果,Groq的輸出速度比Gemini快10倍,比GPT-4快18倍。

有從事人工智能開(kāi)發(fā)的用戶稱(chēng)贊,Groq是追求低延遲產(chǎn)品的“游戲規(guī)則改變者”。有用戶認(rèn)為,Groq的LPU可能成為英偉達(dá)A100和H100芯片的“高性能硬件”的有力替代品。不過(guò),也有AI行業(yè)的專(zhuān)家表示,Groq的LPU從成本上來(lái)看并不具優(yōu)勢(shì),目前并不能代替英偉達(dá)。

Groq 開(kāi)發(fā)的LPU與GPU有何不同

Groq開(kāi)發(fā)的LPU到底是個(gè)怎樣的產(chǎn)品?據(jù)其官網(wǎng)介紹,LPU是一種專(zhuān)為AI推理所設(shè)計(jì)的芯片。驅(qū)動(dòng)包括GPT等主流大模型的GPU,是一種為圖形渲染而設(shè)計(jì)的并行處理器,有數(shù)百個(gè)內(nèi)核。而LPU架構(gòu)則與GPU使用的SIMD(單指令,多數(shù)據(jù))不同,這種設(shè)計(jì)可以讓芯片更有效地利用每個(gè)時(shí)鐘周期,確保一致的延遲和吞吐量,也降低了復(fù)雜調(diào)度硬件的需求。

Groq的LPU推理引擎不是普通的處理單元;它是一個(gè)端到端系統(tǒng),專(zhuān)為需要大量計(jì)算和連續(xù)處理的應(yīng)用(如LLM)提供最快的推理而設(shè)計(jì)。通過(guò)消除外部?jī)?nèi)存瓶頸,LPU推理引擎的性能比傳統(tǒng)GPU高出幾個(gè)數(shù)量級(jí)。

根據(jù)與Groq關(guān)系密切的投資人k_zeroS分享,LPU的工作原理與GPU截然不同。它采用了時(shí)序指令集計(jì)算機(jī)(TemporalInstructionSetComputer)架構(gòu),這意味著它無(wú)需像使用高帶寬存儲(chǔ)器(HBM)的GPU那樣頻繁地從內(nèi)存中加載數(shù)據(jù)。這一特點(diǎn)不僅有助于避免HBM短缺的問(wèn)題,還能有效降低成本。

Groq創(chuàng)始人兼首席執(zhí)行官Jonathan Ross此前在接受采訪的時(shí)候就談到,在大模型推理場(chǎng)景,Groq LPU芯片的速度比英偉達(dá)GPU快10倍,但價(jià)格和耗電量都僅為后者的十分之一。

Ross認(rèn)為,對(duì)于在產(chǎn)品中使用人工智能的公司來(lái)說(shuō),推理成本正在成為一個(gè)問(wèn)題,因?yàn)殡S著使用這些產(chǎn)品的客戶數(shù)量增加,運(yùn)行模型的成本也在迅速增加。與英偉達(dá)GPU相比,Groq LPU集群將為大模型推理提供更高的吞吐量、更低的延遲和更低的成本。

他強(qiáng)調(diào),由于技術(shù)路徑不同,Groq的LPU芯片不依賴于三星或SK海力士的HBM,也不依賴于臺(tái)積電將外部HBM焊接到芯片上的CoWoS封裝技術(shù)。它在供應(yīng)方面比英偉達(dá)更充足,不會(huì)被臺(tái)積電或者SK海力士等供應(yīng)商卡脖子。

可以看到,Groq LPU芯片相當(dāng)于是去掉了HBM,而只是依靠SRAM來(lái)計(jì)算。雖然這樣計(jì)算速度確實(shí)相當(dāng)驚艷,然而其更低成本的問(wèn)題卻遭到質(zhì)疑。

有AI專(zhuān)家表示,Groq芯片的實(shí)際成本并不低,如人工智能專(zhuān)家賈揚(yáng)清分析稱(chēng),因?yàn)镚roq小的可憐的內(nèi)存容量(230MB),在運(yùn)行Llama-270b模型時(shí),需要305張Groq卡才足夠,而用H100則只需要8張卡。從目前的價(jià)格來(lái)看,這意味著在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。

當(dāng)然也有SRAM行業(yè)的專(zhuān)家非常看好這種架構(gòu)模式,他認(rèn)為,賈揚(yáng)清對(duì)Groq成本的估算不是很對(duì),因?yàn)闆](méi)有考慮到Groq的per token cost明顯低于GPGPU。

可以看到,作為一種新的架構(gòu)模式,Groq LPU當(dāng)前必然還面臨一些潛在問(wèn)題,然而它的出現(xiàn),也讓人們看到GPU之外的可能路徑。

Groq LPU芯片未來(lái)能否肩負(fù)起運(yùn)行大模型的重任,或許再等等,就能看到明確答案。事實(shí)上,在去年年底的采訪中,Ross就表示,考慮到GPU的短缺和高昂的成本,他相信Groq未來(lái)的發(fā)展?jié)摿?。他說(shuō)到:“在未來(lái)12個(gè)月內(nèi),我們可以部署10萬(wàn)個(gè)LPU,在24個(gè)月內(nèi),我們可以部署100萬(wàn)個(gè)LPU。”

寫(xiě)在最后

過(guò)去一年多時(shí)間,全球眾多科技公司都在研發(fā)大模型,今年將會(huì)是大模型落地部署的重要一年,而如眾多大模型的訓(xùn)練和推理卻依賴英偉達(dá)的GPU。業(yè)界亟需除英偉達(dá)GPU之外的芯片,能夠用于大模型的部署推理,Groq的LPU芯片可以說(shuō)是帶來(lái)了新的探索方向。

雖然Groq公司對(duì)自己的LPU芯片在性能和成本上都自信滿滿,然而業(yè)界對(duì)于其成本問(wèn)題還是有所質(zhì)疑。如果今年LPU芯片能夠如規(guī)劃那樣進(jìn)行較大規(guī)模的部署,或許就能一定程度證明LPU芯片在成本上也在眾多用戶所能接受的范圍之內(nèi)。












聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5050

    瀏覽量

    133981
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4021

    瀏覽量

    97014
  • Groq
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    181
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    堪稱(chēng)史上最強(qiáng)推理芯片!英偉達(dá)發(fā)布 Rubin CPX,實(shí)現(xiàn)50倍ROI

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)近日,英偉達(dá)在AI infra峰會(huì)上發(fā)布了專(zhuān)為大規(guī)模上下文推理設(shè)計(jì)的全新GPU系列Rubin CPX,性能堪稱(chēng)炸裂! ? 英偉
    的頭像 發(fā)表于 09-11 08:25 ?9245次閱讀
    堪稱(chēng)史上最強(qiáng)推理<b class='flag-5'>芯片</b>!<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>發(fā)布 Rubin CPX,實(shí)現(xiàn)50倍ROI

    今日看點(diǎn):蘋(píng)果認(rèn)證中國(guó)快充品牌美調(diào)查;英偉達(dá)擬向OpenAI投資最高1000億美元

    系統(tǒng)建設(shè)并部署至少10吉瓦的人工智能(AI)數(shù)據(jù)中心,用于訓(xùn)練和運(yùn)行下一代模型。這一耗電量相當(dāng)于800萬(wàn)戶美國(guó)家庭的用電量。 英偉達(dá)CEO黃仁勛曾表示,10吉瓦相當(dāng)于400萬(wàn)至500萬(wàn)塊圖形處理器(GPU),約等于
    發(fā)表于 09-23 10:09 ?192次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    的我我們講解了這幾種芯片的應(yīng)用場(chǎng)景,設(shè)計(jì)流程、結(jié)構(gòu)等。 CPU: 還為我們講解了一種算法:哈希表算法 GPU: 介紹了英偉達(dá)H100GP
    發(fā)表于 09-12 16:07

    英偉達(dá)自研HBM基礎(chǔ)裸片

    "后的下一代AI GPU "Feynman"。 ? 有分析指出,英偉達(dá)此舉或是將部分GPU功能集成到基礎(chǔ)裸片中,旨在提高HBM和GPU的整體
    的頭像 發(fā)表于 08-21 08:16 ?2358次閱讀

    aicube的n卡gpu索引該如何添加?

    請(qǐng)問(wèn)有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經(jīng)安裝了cuda和cudnn,在全局的py里添加了torch,能夠調(diào)用gpu,當(dāng)還是只能看到默認(rèn)的gpu0,顯示不了gpu1
    發(fā)表于 07-25 08:18

    英偉達(dá)黃仁勛:將向中國(guó)市場(chǎng)銷(xiāo)售H20芯片 中國(guó)市場(chǎng)至關(guān)重要

    英偉達(dá)CEO黃仁勛在北京訪問(wèn)期間發(fā)表聲明稱(chēng),將恢復(fù)在中國(guó)銷(xiāo)售其H20 GPU芯片,并根據(jù)美國(guó)出口限制為中國(guó)市場(chǎng)推出一款新的GPU
    的頭像 發(fā)表于 07-15 14:32 ?911次閱讀

    英偉達(dá)擬再推中國(guó)特供GPU,今年6月量產(chǎn)!

    電子發(fā)燒友網(wǎng)綜合報(bào)道 近年來(lái),美國(guó)政府對(duì)華半導(dǎo)體出口管制政策不斷收緊,英偉達(dá)等半導(dǎo)體企業(yè)面臨嚴(yán)峻挑戰(zhàn)。為保持在中國(guó)市場(chǎng)的競(jìng)爭(zhēng)力,英偉達(dá)推出了多款特供版
    發(fā)表于 05-27 00:03 ?4543次閱讀

    新思科技攜手英偉達(dá)加速芯片設(shè)計(jì),提升芯片電子設(shè)計(jì)自動(dòng)化效率

    解決方案在英偉達(dá) GPU英偉達(dá) CUDA-X庫(kù)上所實(shí)現(xiàn)的加速 基于英偉
    發(fā)表于 03-19 17:59 ?366次閱讀

    英偉達(dá)殺瘋了!Blackwell橫掃市場(chǎng),AMD、英特爾加入降本浪潮

    電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)2月27日凌晨,英偉達(dá)公布了2025財(cái)年第四財(cái)季的財(cái)務(wù)數(shù)據(jù),這是DeepSeek面世后的第一份財(cái)報(bào),業(yè)內(nèi)人士尤為關(guān)注DeepSeek給英偉達(dá)或者是
    的頭像 發(fā)表于 03-02 00:02 ?2276次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>殺瘋了!Blackwell橫掃市場(chǎng),AMD、英特爾加入降本浪潮

    微軟大手筆采購(gòu)英偉達(dá)AI芯片

    ,微軟計(jì)劃購(gòu)買(mǎi)的英偉達(dá)Hopper架構(gòu)芯片數(shù)量將遠(yuǎn)超英偉達(dá)在美國(guó)的第二大客戶——“元”公司。不僅
    的頭像 發(fā)表于 12-20 15:50 ?870次閱讀

    英偉達(dá)新應(yīng)用引發(fā)用戶不滿:游戲幀率受影響

    提供更加出色的游戲優(yōu)化體驗(yàn)。 然而,一些用戶在安裝并使用這款新應(yīng)用后,發(fā)現(xiàn)自己的游戲幀率出現(xiàn)了明顯的下降。這一問(wèn)題在多個(gè)游戲和硬件配置上都得到了驗(yàn)證,使得不少用戶開(kāi)始質(zhì)疑這款新應(yīng)用的性能和穩(wěn)定性。 英偉
    的頭像 發(fā)表于 12-17 14:17 ?758次閱讀

    科技動(dòng)態(tài):蘋(píng)果宣布與百度達(dá)成合作協(xié)議 英偉達(dá)將與亞馬遜攜手 馬斯克Neuralink指控

    給大家?guī)?lái)一些科技巨頭的動(dòng)態(tài)消息;比如蘋(píng)果宣布與百度達(dá)成合作協(xié)議;英偉達(dá)將與亞馬遜攜手; 馬斯克Neuralink指控 ; 歐盟專(zhuān)員談考慮拆分谷歌業(yè)務(wù)等相關(guān)信息。 消息稱(chēng)臺(tái)積電正與英偉
    的頭像 發(fā)表于 12-06 18:01 ?1170次閱讀

    軟銀升級(jí)人工智能計(jì)算平臺(tái),安裝4000顆英偉達(dá)Hopper GPU

    軟銀公司宣布,其正在擴(kuò)展的日本頂級(jí)人工智能計(jì)算平臺(tái)已安裝了約4000顆英偉達(dá)Hopper GPU。這一舉措顯著提升了平臺(tái)的計(jì)算能力。據(jù)悉,該平臺(tái)自2023年9月開(kāi)始運(yùn)行,最初配備了大約2000顆
    的頭像 發(fā)表于 11-04 16:18 ?1178次閱讀

    英偉達(dá)下一代GPU或?qū)⒏挠萌逻B接器

    近年來(lái),服務(wù)器和PC連接器不斷升級(jí),坊間傳聞,英偉達(dá)GPU也要采用全新的連接器,鴻騰精密、嘉澤以及得潤(rùn)電子等廠商將從中受益。
    的頭像 發(fā)表于 10-25 17:56 ?856次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>下一代<b class='flag-5'>GPU</b>或?qū)⒏挠萌逻B接器