chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Groq推出大模型推理芯片 超越了傳統(tǒng)GPU和谷歌TPU

汽車電子設(shè)計(jì) ? 來源:芝能汽車 ? 2024-02-26 10:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動(dòng),超越了傳統(tǒng)GPU和谷歌TPU。該芯片采用了全球首個(gè)LPU方案,解決了計(jì)算密度和內(nèi)存帶寬的瓶頸,推理速度提高了10倍,成本降低十分之一,性價(jià)比提高了100倍。芯片搭載了230MB大SRAM,內(nèi)存帶寬高達(dá)80TB/s,算力強(qiáng)大,支持多種機(jī)器學(xué)習(xí)框架進(jìn)行推理。 Groq在演示中展示了多種模型的強(qiáng)大性能,并宣稱在三年內(nèi)將超越英偉達(dá)。產(chǎn)品特色包括API訪問速度快、支持多種開源LLM模型、價(jià)格優(yōu)勢(shì)等,成為大模型推理領(lǐng)域的新興力量。

Groq 公司的創(chuàng)始于2016年,旗艦產(chǎn)品是 Groq Tensor Streaming Processor Chip(TSP)和相應(yīng)的軟件,主要應(yīng)用于人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等領(lǐng)域。目標(biāo)市場(chǎng)包括人工智能和機(jī)器學(xué)習(xí)超大規(guī)模應(yīng)用、政府部門、高性能計(jì)算集群、自動(dòng)駕駛車輛以及高性能邊緣設(shè)備。

Groq產(chǎn)品以其出色的推理性能、對(duì)多種開源LLM模型的支持以及具有競(jìng)爭(zhēng)力的價(jià)格政策等特色,成為一個(gè)引人注目的選擇。這個(gè)芯片到底是怎么做的呢?

6563bedc-d440-11ee-a297-92fbcf53809c.png

Part 1

Groq的做法

隨著人工智能(AI)和高性能計(jì)算(HPC)的融合發(fā)展,對(duì)于同時(shí)處理AI和HPC工作負(fù)載的需求日益增加。在這一背景下,Groq公司推出了其最新的AI推理加速器,旨在簡(jiǎn)化計(jì)算、提高效率,并實(shí)現(xiàn)更高的可擴(kuò)展性,軟件定義張量流多處理器(TSP),采用了一種全新的硬件軟件結(jié)合的方法,為人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)應(yīng)用提供更高效的計(jì)算支持。

Groq AI推理加速器的設(shè)計(jì)思想是結(jié)合了HPC與AI的工作負(fù)載需求,提供了一種創(chuàng)新的可擴(kuò)展計(jì)算架構(gòu)。

相比傳統(tǒng)的GPU,GroqChip 1具有更簡(jiǎn)化的編程模型,更高的響應(yīng)速度以及更可靠的執(zhí)行。該芯片擁有多個(gè)特色組件,包括高速網(wǎng)絡(luò)、數(shù)據(jù)交換器、指令控制、SRAM內(nèi)存以及Groq TruePoint矩陣,使其具備了強(qiáng)大的計(jì)算能力和靈活性。

傳統(tǒng)的 CPU 架構(gòu)在控制邏輯方面隱藏了大量復(fù)雜性,如緩存、預(yù)取、亂序執(zhí)行和分支預(yù)測(cè),但這些控制邏輯會(huì)減少可用于原始計(jì)算的面積。

與此相反,Groq 公司重新審視了硬件軟件的合約,創(chuàng)造出了更加可預(yù)測(cè)和基于流的硬件,并將更多的控制權(quán)交給了軟件。

硬件(CPU)定義了軟件,但隨著數(shù)據(jù)流型計(jì)算需求的增長(zhǎng)以及摩爾定律和 Dennard 縮放的減速,CPU“抽象”不再是軟件開發(fā)的唯一基礎(chǔ)。因此,Hennessy 和 Patterson 提出了“計(jì)算機(jī)體系結(jié)構(gòu)的新黃金時(shí)代”的觀點(diǎn),Lattner 提出了“編譯器的新黃金時(shí)代”的觀點(diǎn),Karpathy 則提出了“軟件 2.0”的概念,這都預(yù)示著硬件與軟件的抽象合約已經(jīng)重新開啟,實(shí)現(xiàn)了“軟件定義硬件”的機(jī)會(huì)。

GroqChip 的可擴(kuò)展架構(gòu)以簡(jiǎn)化計(jì)算,通過使用大量單級(jí)劃分 SRAM 和顯式分配張量,實(shí)現(xiàn)了可預(yù)測(cè)的性能。

此外,Groq 公司設(shè)計(jì)了功能劃分的微體系結(jié)構(gòu),重新組織了多核網(wǎng)格,使得編譯器可以對(duì)程序執(zhí)行進(jìn)行精確控制,從而提高了執(zhí)行效率。

659b1602-d440-11ee-a297-92fbcf53809c.png

Groq AI推理加速器支持各種規(guī)模的計(jì)算節(jié)點(diǎn),從單個(gè)卡片到整個(gè)機(jī)架,都能實(shí)現(xiàn)高效的并行計(jì)算。

65aae5d2-d440-11ee-a297-92fbcf53809c.png

通過GroqRack和GroqNode等組件的組合,用戶可以根據(jù)實(shí)際需求靈活搭建計(jì)算集群,實(shí)現(xiàn)對(duì)不同規(guī)模工作負(fù)載的處理。

Groq 公司提供了強(qiáng)大的編譯器支持,通過在編譯時(shí)和運(yùn)行時(shí)之間建立靜態(tài)-動(dòng)態(tài)接口和硬件-軟件接口,賦予了軟件更多的數(shù)據(jù)編排權(quán)力。該編譯器能夠?qū)崿F(xiàn) SOTA(State of the Art)級(jí)別的性能,對(duì)于一些重要的矩陣操作如通用矩陣乘法(GEMM),Cholesky 分解等,取得了令人矚目的成果。

65aff626-d440-11ee-a297-92fbcf53809c.png

在系統(tǒng)拓?fù)浣Y(jié)構(gòu)方面,Groq 公司采用了低直徑網(wǎng)絡(luò) Dragonfly,以最小化網(wǎng)絡(luò)中的跳數(shù),提高了數(shù)據(jù)傳輸效率。

同時(shí),通過 Chip-to-Chip(C2C)鏈接和流量控制,實(shí)現(xiàn)了多芯片間的通信。此外,Groq 公司還提出了一種多芯片間的分區(qū)和流水線并行執(zhí)行的方法,以進(jìn)一步提高多芯片系統(tǒng)的性能。

65b4d1f0-d440-11ee-a297-92fbcf53809c.png

Part 2

實(shí)際案例

除了傳統(tǒng)的計(jì)算流體動(dòng)力學(xué)(CFD)應(yīng)用外,Groq AI推理加速器還可應(yīng)用于圖神經(jīng)網(wǎng)絡(luò)(GNN)等領(lǐng)域。GNN廣泛應(yīng)用于非歐幾里得數(shù)據(jù)的建模和預(yù)測(cè),例如化學(xué)分子結(jié)構(gòu)、社交媒體推薦系統(tǒng)等。Groq芯片在處理這類非結(jié)構(gòu)化數(shù)據(jù)時(shí)表現(xiàn)出色,通過深度學(xué)習(xí)算法的加速,能夠大幅提升模型訓(xùn)練和推理的效率。軟件定義張量流多處理器提供了一種全新的硬件軟件結(jié)合的方法,通過重新審視硬件軟件合約,將更多的控制權(quán)交給了軟件,從而實(shí)現(xiàn)了更高效的計(jì)算性能。隨著人工智能和深度學(xué)習(xí)應(yīng)用的不斷發(fā)展,這種方法將有望在未來的計(jì)算領(lǐng)域發(fā)揮重要作用。

在實(shí)際應(yīng)用中,Groq AI推理加速器已經(jīng)在化學(xué)分子屬性預(yù)測(cè)、藥物發(fā)現(xiàn)等領(lǐng)域取得了顯著的成果。

65d0a9f2-d440-11ee-a297-92fbcf53809c.png

借助其高性能和可擴(kuò)展性,Groq芯片在處理大規(guī)模數(shù)據(jù)集時(shí)能夠?qū)崿F(xiàn)極大的加速,從而提升了科學(xué)研究和工程實(shí)踐的效率。

65ff0b4e-d440-11ee-a297-92fbcf53809c.png

小結(jié)

總的來說,Groq AI推理加速器以其創(chuàng)新的設(shè)計(jì)思想和強(qiáng)大的性能,在處理融合HPC與AI工作負(fù)載的應(yīng)用中展現(xiàn)出了巨大的潛力。隨著對(duì)于高性能計(jì)算和人工智能技術(shù)的不斷發(fā)展,相信Groq芯片將在各個(gè)領(lǐng)域展現(xiàn)出更廣泛的應(yīng)用前景。

?



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1811

    文章

    49498

    瀏覽量

    258204
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8528

    瀏覽量

    135872
  • TSP
    TSP
    +關(guān)注

    關(guān)注

    1

    文章

    25

    瀏覽量

    17353
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3348

    瀏覽量

    4717
  • Groq
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    176

原文標(biāo)題:Groq AI推理加速器: 三年內(nèi)超越英偉達(dá)?

文章出處:【微信號(hào):QCDZSJ,微信公眾號(hào):汽車電子設(shè)計(jì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    的我我們講解了這幾種芯片的應(yīng)用場(chǎng)景,設(shè)計(jì)流程、結(jié)構(gòu)等。 CPU: 還為我們講解了一種算法:哈希表算法 GPU: 介紹英偉達(dá)H100GPU
    發(fā)表于 09-12 16:07

    ?Groq LPU 如何讓萬億參數(shù)模型「飛」起來?揭秘 Kimi K2 40 倍提速背后的黑科技

    開放預(yù)覽,引發(fā)了開發(fā)者社區(qū)的瘋狂討論——?為什么 Groq 能跑得這么快?? 傳統(tǒng) AI 推理硬件(如 GPU)往往面臨一個(gè)兩難選擇: ? ?快?(但犧牲精度) ? ?準(zhǔn)?(但延遲高到
    的頭像 發(fā)表于 08-07 10:01 ?538次閱讀

    模型推理顯存和計(jì)算量估計(jì)方法研究

    ,為實(shí)際應(yīng)用提供有益的參考。 未來,我們將繼續(xù)深入研究大模型推理的優(yōu)化方法,以降低顯存和計(jì)算資源的需求,提高深度學(xué)習(xí)模型在實(shí)際應(yīng)用中的性能。
    發(fā)表于 07-03 19:43

    為什么無法在GPU上使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU 上使用 OpenVINO? 運(yùn)行推理。 沒有可用的
    發(fā)表于 06-23 07:11

    智算加速卡是什么東西?它真能在AI戰(zhàn)場(chǎng)上干掉GPUTPU!

    隨著AI技術(shù)火得一塌糊涂,大家都在談"大模型"、"AI加速"、"智能計(jì)算",可真到了落地環(huán)節(jié),算力才是硬通貨。你有沒有發(fā)現(xiàn),現(xiàn)在越來越多的AI企業(yè)不光用GPU,也不怎么迷信TPU?他
    的頭像 發(fā)表于 06-05 13:39 ?1025次閱讀
    智算加速卡是什么東西?它真能在AI戰(zhàn)場(chǎng)上干掉<b class='flag-5'>GPU</b>和<b class='flag-5'>TPU</b>!

    Google推出第七代TPU芯片Ironwood

    在 Google Cloud Next 25 大會(huì)上,我們隆重推出第 7 代 Tensor Processing Unit (TPU) — Ironwood。這不僅是我們迄今為止性能最高、擴(kuò)展性最佳的定制 AI 加速器,更是第一款專為
    的頭像 發(fā)表于 04-16 11:20 ?1040次閱讀
    Google<b class='flag-5'>推出</b>第七代<b class='flag-5'>TPU</b><b class='flag-5'>芯片</b>Ironwood

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命 Google 發(fā)布 Ironwood,這是其第七代張量處理單元 (TPU
    的頭像 發(fā)表于 04-12 11:10 ?2414次閱讀
    <b class='flag-5'>谷歌</b>第七代<b class='flag-5'>TPU</b> Ironwood深度解讀:AI<b class='flag-5'>推理</b>時(shí)代的硬件革命

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 李彎彎)日前,谷歌在 Cloud Next 大會(huì)上,隆重推出了最新一代 TPU AI 加速芯片 ——Ironwood。據(jù)悉,該
    的頭像 發(fā)表于 04-12 00:57 ?2858次閱讀

    無法在GPU上運(yùn)行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 上運(yùn)行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 上推理成功,但在 GPU 上失敗。
    發(fā)表于 03-06 08:02

    無法調(diào)用GPU插件推理的遠(yuǎn)程張量API怎么解決?

    運(yùn)行了使用 GPU 插件的遠(yuǎn)程張量 API 的推理。但是,它未能共享 OpenCL* 內(nèi)存,但結(jié)果不正確。
    發(fā)表于 03-06 06:13

    AI變革正在推動(dòng)終端側(cè)推理創(chuàng)新

    尖端AI推理模型DeepSeek R1一經(jīng)問世,便在整個(gè)科技行業(yè)引起波瀾。因其性能能夠媲美甚至超越先進(jìn)的同類模型,顛覆關(guān)于AI發(fā)展的傳統(tǒng)認(rèn)
    的頭像 發(fā)表于 02-20 10:54 ?763次閱讀

    阿里云開源推理模型QwQ

    近日,阿里云通義團(tuán)隊(duì)宣布推出全新AI推理模型QwQ-32B-Preview,并同步實(shí)現(xiàn)開源。這一舉措標(biāo)志著阿里云在AI推理領(lǐng)域邁出了重要一步。 據(jù)評(píng)測(cè)數(shù)據(jù)顯示,QwQ預(yù)覽版本已具備研
    的頭像 發(fā)表于 11-29 11:30 ?1410次閱讀

    《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    在數(shù)據(jù)挖掘工作中,我經(jīng)常需要處理海量數(shù)據(jù)的深度學(xué)習(xí)任務(wù),這讓我對(duì)GPU架構(gòu)和張量運(yùn)算充滿好奇。閱讀《算力芯片》第7-9章,讓我對(duì)這些關(guān)鍵技術(shù)有全新認(rèn)識(shí)。 GPU架構(gòu)從早期的固定功能流
    發(fā)表于 11-24 17:12

    高效大模型推理綜述

    模型推理的文獻(xiàn)進(jìn)行了全面的綜述總結(jié)。首先分析模型推理效率低下的主要原因,即大模型參數(shù)規(guī)模、
    的頭像 發(fā)表于 11-15 11:45 ?2028次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來越多,從目前的市場(chǎng)來說,有些公司已經(jīng)有專門做推理的ASIC,像Groq的LPU,專門針對(duì)大語言
    的頭像 發(fā)表于 10-29 14:12 ?2442次閱讀
    FPGA和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速中的應(yīng)用