chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

AI推理的存儲,看好SRAM?

晶芯觀察 ? 來源:電子發(fā)燒友網(wǎng) ? 作者:黃晶晶 ? 2025-03-03 08:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/黃晶晶)近幾年,生成式AI引領行業(yè)變革,AI訓練率先崛起,帶動高帶寬內(nèi)存HBM一飛沖天。但我們知道AI推理的廣泛應用才能推動AI普惠大眾。在AI推理方面,業(yè)內(nèi)巨頭、初創(chuàng)公司等都看到了其前景并提前布局。AI推理也使得存儲HBM不再是唯一熱門,更多存儲芯片與AI推理芯片結合,擁有了市場機會。

已經(jīng)有不少AI推理芯片、存算一體芯片將SRAM替代DRAM,從而獲得更快的訪問速度、更低的刷新延遲等。

靜態(tài)隨機存取存儲器(Static Random-Access Memory,SRAM)是隨機存取存儲器的一種。這種存儲器只要保持通電,里面儲存的數(shù)據(jù)就可以恒常保持。相對之下,動態(tài)隨機存取存儲器(DRAM)里面所儲存的數(shù)據(jù)就需要周期性地更新。但當電力供應停止時,SRAM儲存的數(shù)據(jù)還是會消失,這與在斷電后還能儲存資料的ROM或閃存不同。

SRAM具有較高的性能,但SRAM的集成度較低,功耗較DRAM大,SRAM需要很大的面積。同樣面積的硅片可以做出更大容量的DRAM,因此SRAM顯得更貴。SRAM可作為置于CPU與主存間的高速緩存,不需要定期刷新,響應速度非常快,可用于CPU的一級緩沖、二級緩沖。

GroqLPU近存計算

在AI推理大潮下,Groq公司開發(fā)的語言處理單元(Language Processing Unit,即LPU),以其獨特的架構,帶來了極高的推理性能的表現(xiàn)。

Groq的芯片采用14nm制程,搭載了230MB SRAM以保證內(nèi)存帶寬,片上內(nèi)存帶寬達80TB/s。
SRAM 的訪問速度比 DRAM 快得多,這使得它在某些計算密集型應用中表現(xiàn)得非常出色。Groq LPU 芯片采用大容量 SRAM內(nèi)存有助于提高機器學習人工智能等計算密集型工作負載的效率。

Groq成立于 2016 年,總部位于美國加利福尼亞州山景城,是一家 AI 推理芯片廠商。該公司核心團隊來源于谷歌最初的張量處理單元(TPU)工程團隊。Groq 創(chuàng)始人兼CEO Jonathan Ross是谷歌TPU項目的核心研發(fā)人員。

2024年8月,Groq 在最新一輪融資中籌集了 6.4 億美元,由 BlackRock Inc. 基金領投,并得到了思科和三星投資部門的支持。

2024 年 12 月Groq在沙特阿拉伯達曼構建了中東地區(qū)最大的推理集群,該集群包括了 19000 個Groq LPU,并在 8 天內(nèi)上線。

今年2月,Groq成功從沙特阿拉伯籌集 15 億美元融資,用于擴展其位于沙特阿拉伯的 AI 基礎設施。

AxeleraAIPU芯片:內(nèi)存計算+RISC-V架構

Axelera公司介紹,內(nèi)存計算是一種完全不同的數(shù)據(jù)處理方法,在這種方法中,存儲器設備的橫桿陣列可以用來存儲矩陣,并在沒有中間數(shù)據(jù)移動的情況下“就地”執(zhí)行矩陣向量乘法。專有的數(shù)字內(nèi)存計算(D-IMC)技術是實現(xiàn)高能效和卓越性能的關鍵。基于SRAM(靜態(tài)隨機訪問存儲器)和數(shù)字計算相結合,每個存儲單元有效地成為一個計算單元。這從根本上增加了每個計算機周期的操作數(shù)(每個存儲單元每個周期一次乘法和一次累加),而不受噪音或較低精度等問題的影響。

Axelera的AIPU芯片采用了創(chuàng)新的內(nèi)存計算技術。與傳統(tǒng)的磁盤存儲相比,內(nèi)存計算將數(shù)據(jù)存儲在主內(nèi)存(RAM)中,從而加快了數(shù)據(jù)處理速度。這一技術使得Axelera的芯片在提供高計算性能的同時,能以更低的成本和能耗來進行邊緣AI計算。該芯片還采用了開源的RISC-V指令集架構(ISA)。RISC-V作為一種低成本、高效且靈活的ISA,允許根據(jù)特定的應用需求進行定制。它為Axelera提供了極大的設計自由度和創(chuàng)新空間。

去年,Axelera獲得了來自三星電子風險投資部門三星Catalyst的大力支持,成功籌集了6800萬美元,至此Axelera的總?cè)谫Y額已達到1.2億美元。新投資者包括三星基金、歐洲創(chuàng)新委員會基金、創(chuàng)新產(chǎn)業(yè)戰(zhàn)略伙伴關系基金和Invest-NL。

EnCharge AI模擬存內(nèi)計算

AI 芯片初創(chuàng)公司 EnCharge AI表示,已開發(fā)出一種用于 AI 推理的新型內(nèi)存計算架構,EnCharge AI的核心技術是基于模擬存內(nèi)計算的AI芯片。這種創(chuàng)新的芯片設計采用"基于電荷的存儲器",通過讀取存儲平面上的電流而非單個比特單元來處理數(shù)據(jù),使用更精確的電容器替代了傳統(tǒng)的半導體。

GPU等數(shù)字加速器相比,每瓦性能提高了 20 倍。EnCharge AI的推理芯片僅需一瓦的功率就能以8位元精度提供150 TOPS的AI運算。

EnCharge AI源自普林斯頓大學,該公司創(chuàng)始人兼CEO Naveen Verma的相關研究項目涉及到內(nèi)存計算。用于機器學習計算的內(nèi)存計算采用在RAM中運行計算的方式,以減少存儲設備帶來的延遲。

今年初,EnCharge AI完成超額認購的1億美元b輪融資。此輪超額認購融資使EnCharge AI的總?cè)谫Y額超過1.44億美元,將推動其首款以客戶端運算為主的AI加速器產(chǎn)品,并在2025年實現(xiàn)商業(yè)化。

d-Matrix數(shù)字內(nèi)存計算DIMC架構

d-Matrix采用數(shù)字內(nèi)存計算(DIMC)的引擎架構將計算移動到RAM(內(nèi)存)附近,該數(shù)字存算一體技術將存儲器與計算單元中的乘法累加器(MAC)進行了合并,獲得了更大的計算帶寬和效率,降低延遲,減少能耗。首批采用d-Matrix的DIMC架構的產(chǎn)品Jayhawk II處理器,包含約165億晶體管的Chiplet。每個Jayhawk II Chiplet都包含一個RISC-V核心對Chiplet進行管理,每個核心有八個并行操作的DIMC單元。

去年底d-Matrix首款人工智能芯片Corsair開始出貨。每張Corsair卡由多個DIMC計算核心驅(qū)動,具有2400 TFLOP的8位峰值計算能力、2GBSRAM和高達256GB的LPDDR6。

d-Matrix公司是一家位于加利福尼亞州圣克拉拉市的初創(chuàng)公司,專注于人工智能芯片的研發(fā)。該公司的主要產(chǎn)品是針對數(shù)據(jù)中心云計算中的AI服務器設計的芯片,旨在優(yōu)化人工智能推理工作負載。d-Matrix公司已經(jīng)獲得了多家知名投資機構的支持,包括微軟風險投資部門、新加坡投資公司淡馬錫、Palo Alto Networks等,D-Matrix曾在2022年4月獲得了4400萬美元融資,由 M12 和韓國半導體制造商 SK 海力士公司領投。累計融資超過1.6億美元。

雖然說SRAM的擁有成本比較高,但其在AI推理運算中能夠減少數(shù)據(jù)來回傳輸?shù)难舆t,避免拖慢整個AI處理的速度。在AI推理的浪潮下,SRAM將發(fā)揮更大的作用。還有哪些存儲芯片因AI推理而贏得機會,我們將持續(xù)關注報道。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 存儲
    +關注

    關注

    13

    文章

    4889

    瀏覽量

    90280
  • sram
    +關注

    關注

    6

    文章

    833

    瀏覽量

    117720
  • AI
    AI
    +關注

    關注

    91

    文章

    41101

    瀏覽量

    302576
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為破解HBM依賴!AI推理黑科技UCM上線,9月正式開源

    8月12日,在2025金融AI推理應用落地與發(fā)展論壇上,華為公司副總裁、數(shù)據(jù)存儲產(chǎn)品線總裁周越峰宣布,華為此次和銀聯(lián)聯(lián)合創(chuàng)新,推出AI推理創(chuàng)
    的頭像 發(fā)表于 08-13 08:58 ?1.1w次閱讀
    華為破解HBM依賴!<b class='flag-5'>AI</b><b class='flag-5'>推理</b>黑科技UCM上線,9月正式開源

    sram存儲器是什么,sram存儲芯片選型要點

    在半導體存儲芯片領域,SRAM(靜態(tài)隨機存取存儲器)一直以高速、低延遲的特性占據(jù)著獨特位置。與需要不斷刷新的DRAM不同,SRAM采用4T或6T晶體管構成的雙穩(wěn)態(tài)觸發(fā)器結構,只要通電就
    的頭像 發(fā)表于 04-14 15:07 ?189次閱讀

    大為創(chuàng)芯進軍AI眼鏡存儲,端側(cè)AI存儲全面布局

    當前大模型應用持續(xù)滲透,AI 產(chǎn)業(yè)正迎來一輪關鍵的架構遷移,AI 存儲正從以云端集中處理為主,逐步向終端與邊緣側(cè)下沉延伸。這一趨勢讓端側(cè)存儲從傳統(tǒng)的數(shù)據(jù)載體,升級為支撐本地
    的頭像 發(fā)表于 04-03 10:20 ?4085次閱讀
    大為創(chuàng)芯進軍<b class='flag-5'>AI</b>眼鏡<b class='flag-5'>存儲</b>,端側(cè)<b class='flag-5'>AI</b><b class='flag-5'>存儲</b>全面布局

    端側(cè)AI進入爆發(fā)期,江波龍“集成存儲”引領AI PC/手機、可穿戴存儲創(chuàng)新

    從DeepSeek AI推理大模型到今年爆火的OpenClaw AI智能體,端側(cè)AI市場被徹底引爆。如果說AI大模型訓練成就了HBM高帶寬
    的頭像 發(fā)表于 04-01 10:06 ?5051次閱讀
    端側(cè)<b class='flag-5'>AI</b>進入爆發(fā)期,江波龍“集成<b class='flag-5'>存儲</b>”引領<b class='flag-5'>AI</b> PC/手機、可穿戴<b class='flag-5'>存儲</b>創(chuàng)新

    是德科技推出全新AI推理仿真平臺

    是德科技(NYSE: KEYS)近日推出KAI推理構建器(Keysight AI Inference Builder),這款仿真與分析平臺旨在大規(guī)模驗證針對推理進行優(yōu)化的AI基礎設施。
    的頭像 發(fā)表于 03-20 17:27 ?809次閱讀
    是德科技推出全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>仿真平臺

    國產(chǎn)芯片偽SRAM存儲器psram

    SRAM本質(zhì)上是一種經(jīng)過優(yōu)化的DRAM(動態(tài)隨機存取存儲器),其核心技術在于通過內(nèi)置的控制邏輯電路,模擬傳統(tǒng)SRAM的接口時序,從而在使用上具備SRAM的簡便性。用戶無需關心內(nèi)部復雜
    的頭像 發(fā)表于 03-03 16:23 ?144次閱讀

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    電子發(fā)燒友網(wǎng)綜合報道,在人工智能迅猛發(fā)展的當下,AI推理芯片需求正呈爆發(fā)式增長。 ? AI推理,即支撐如ChatGPT這類AI模型響應用戶問
    的頭像 發(fā)表于 02-03 17:15 ?3251次閱讀

    使用NORDIC AI的好處

    原始傳感器數(shù)據(jù),可顯著降低功耗、延長電池壽命。[Edge AI 概述; Nordic Edge AI 技術頁] 降低云依賴與時延 直接在設備上做推理,很多決策可以“本地實時”完成,不必等云端響應
    發(fā)表于 01-31 23:16

    華為數(shù)據(jù)存儲與「DaoCloud 道客」發(fā)布AI推理加速聯(lián)合解決方案

    AI產(chǎn)業(yè)已從“追求模型能力極限”轉(zhuǎn)向“追求推理體驗最優(yōu)化”,推理體驗決定用戶與AI的交互質(zhì)感。當前推理應用快速發(fā)展,Token調(diào)用量爆發(fā)式增
    的頭像 發(fā)表于 11-28 10:03 ?482次閱讀
    華為數(shù)據(jù)<b class='flag-5'>存儲</b>與「DaoCloud 道客」發(fā)布<b class='flag-5'>AI</b><b class='flag-5'>推理</b>加速聯(lián)合解決方案

    雙口SRAM靜態(tài)隨機存儲存儲原理

    在各類存儲設備中,SRAM(靜態(tài)隨機存儲器)因其高速、低功耗和高可靠性,被廣泛應用于高性能計算、通信和嵌入式系統(tǒng)中。其中,雙口SRAM靜態(tài)隨機存儲
    的頭像 發(fā)表于 11-25 14:28 ?777次閱讀

    PSRAM融合SRAM與DRAM優(yōu)勢的存儲解決方案

    PSRAM(偽靜態(tài)隨機存儲器)是一種兼具SRAM接口協(xié)議與DRAM內(nèi)核架構的特殊存儲器。它既保留了SRAM無需復雜刷新控制的易用特性,又繼承了DRAM的高密度低成本優(yōu)勢。這種獨特的設計
    的頭像 發(fā)表于 11-11 11:39 ?983次閱讀

    高速存儲sram,帶ECC的異步SRAM系列存儲方案

    在要求高性能與高可靠性的電子系統(tǒng)中,存儲器的選擇往往成為設計成敗的關鍵。Netsol推出的高速異步SRAM系列,憑借其出色的性能表現(xiàn)與獨有的錯誤校正(ECC)能力,為工業(yè)控制、通信設備及高精度計算等應用提供了值得信賴的存儲解決方
    的頭像 發(fā)表于 11-05 16:21 ?540次閱讀

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎,該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1460次閱讀

    華為亮相2025金融AI推理應用落地與發(fā)展論壇

    近日,2025金融AI推理應用落地與發(fā)展論壇在上海舉行。中國銀聯(lián)執(zhí)行副總裁涂曉軍、華為數(shù)字金融軍團CEO曹沖出席本次論壇并發(fā)表致辭。論壇上,華為公司副總裁、數(shù)據(jù)存儲產(chǎn)品線總裁周躍峰博士發(fā)布AI
    的頭像 發(fā)表于 08-15 09:45 ?1379次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎技術研究有限公司開發(fā)的新一代AI大模型。其核心優(yōu)勢在于強大的推理引擎能力,融合了自然語言處理(
    發(fā)表于 07-16 15:29