chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

最新MLPerf v3.1測試結(jié)果認(rèn)證,Gaudi2在GPT-J模型上推理性能驚人

looger123 ? 來源:looger123 ? 作者:looger123 ? 2023-09-12 17:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

英特爾產(chǎn)品在全新MLCommons AI推理性能測試中盡顯優(yōu)勢

今日,MLCommons公布針對 60 億參數(shù)大語言模型及計算機(jī)視覺與自然語言處理模型GPT-J的 MLPerf推理v3.1 性能基準(zhǔn)測試結(jié)果,其中包括英特爾所提交的基于Habana?Gaudi?2 加速器、第四代英特爾?至強(qiáng)?可擴(kuò)展處理器,以及英特爾?至強(qiáng)?CPU Max 系列的測試結(jié)果。該結(jié)果顯示了英特爾在AI推理方面極具競爭力的表現(xiàn),并進(jìn)一步加強(qiáng)了其對加速從云到網(wǎng)絡(luò)到邊緣再到端的工作負(fù)載中大規(guī)模部署AI的承諾。

英特爾執(zhí)行副總裁兼數(shù)據(jù)中心人工智能事業(yè)部總經(jīng)理Sandra Rivera表示:“正如最新的 MLCommons結(jié)果顯示,我們擁有強(qiáng)大的、具有競爭力的人工智能產(chǎn)品組合以滿足客戶對高性能、高效率的深度學(xué)習(xí)推理及訓(xùn)練的需求,同時,針對各種規(guī)模的人工智能模型,英特爾產(chǎn)品組合均具有領(lǐng)先的性價比優(yōu)勢。”

根據(jù)6月披露的MLCommonsAI訓(xùn)練結(jié)果和Hugging Face性能基準(zhǔn)測試驗證,Gaudi2 在先進(jìn)的視覺語言模型上,性能可以超越英偉達(dá)的H100處理器,而今天的結(jié)果進(jìn)一步證明了英特爾能夠提供滿足AI計算需求的、英偉達(dá)H100和A100的唯一可行的替代方案。

考慮到客戶的個性化需求,英特爾正在通過能夠幫助解決AI工作負(fù)載中推理與訓(xùn)練問題的產(chǎn)品,讓AI無處不在。英特爾的AI產(chǎn)品為客戶提供了可根據(jù)各自性能、效率及目標(biāo)成本進(jìn)行靈活匹配以獲取最佳AI解決方案的理想選擇,同時亦幫助客戶開放生態(tài)系統(tǒng)。

關(guān)于Habana Gaudi2的測試結(jié)果:

Habana Gaudi2在GPT-J模型上的推理結(jié)果強(qiáng)有力地驗證了其具有競爭力的性能。

·Gaudi2 在GPT-J-99 和GPT-J-99.9 上的服務(wù)器查詢和離線樣本的推理性能分別為78.58 次/秒和84.08 次/秒。

·與英偉達(dá)H100相比,Gaudi2提供了令人信服的卓越性能,H100相對于Gaudi2僅表現(xiàn)出 1.09 倍(服務(wù)器)和 1.28 倍(離線)的輕微性能優(yōu)勢。

·Gaudi2 擁有高于英偉達(dá)A100 2.4 倍(服務(wù)器)、 2 倍(離線)的性能。

·Gaudi2 提交的結(jié)果采用 FP8數(shù)據(jù)類型,并在這種新數(shù)據(jù)類型上達(dá)到了 99.9% 的準(zhǔn)確率。

隨著每6-8周公布的 Gaudi2 軟件更新,英特爾將繼續(xù)在 MLPerf 基準(zhǔn)測試中展現(xiàn)其產(chǎn)品的性能提升,以及持續(xù)擴(kuò)大的模型覆蓋范圍。

wKgZomUANVWAY6S7AAJVP79DRaA450.png

Habana Gaudi2 在GPT-J模型上的推理結(jié)果驗證了其具有競爭力的性能

關(guān)于第四代至強(qiáng)可擴(kuò)展處理器的測試結(jié)果:

英特爾提交了基于第四代英特爾至強(qiáng)可擴(kuò)展處理器的7個推理基準(zhǔn)測試,其中包括GPT-J模型。結(jié)果顯示,包括視覺、語言處理、語音和音頻翻譯模型,以及更大的 DLRM v2 深度學(xué)習(xí)推薦模型及ChatGPT-J 模型在內(nèi),第四代至強(qiáng)處理器對于通用 AI 工作負(fù)載擁有出色的性能。此外,截至目前,英特爾仍是唯一一家使用行業(yè)標(biāo)準(zhǔn)的深度學(xué)習(xí)生態(tài)系統(tǒng)軟件提交公開 CPU 結(jié)果的廠商。

·第四代英特爾至強(qiáng)可擴(kuò)展處理器是通過流行的AI框架與庫構(gòu)建及部署通用AI工作負(fù)載的理想選擇。對于GPT-J對約 1000-1500 字新聞稿進(jìn)行100 字總結(jié)的任務(wù),第四代至強(qiáng)可擴(kuò)展處理器可在離線模式下完成每秒兩段的總結(jié)提要,在實時服務(wù)器模式下完成每秒一段的總結(jié)提要。

·英特爾首次提交了英特爾至強(qiáng)CPU Max 系列的MLPerf 結(jié)果,該系列可提供高達(dá)64 GB的高帶寬內(nèi)存。對于 GPT-J而言,它是僅有的能夠達(dá)到 99.9% 準(zhǔn)確度的 CPU,這對于對精度要求極高的應(yīng)用來說至關(guān)重要。

·英特爾與OEM廠商合作提交了測試結(jié)果,進(jìn)一步展示了其AI性能的可擴(kuò)展性,以及基于英特爾至強(qiáng)處理器的通用服務(wù)器的可獲取性,充分滿足客戶服務(wù)水平協(xié)議 (SLA)。

wKgZomUANVeAKtKpAAF_ItEkqC0102.png

第四代至強(qiáng)可擴(kuò)展處理器是構(gòu)建及部署通用AI工作負(fù)載的理想選擇

MLPerf 是業(yè)內(nèi)享有盛名的 AI 性能基準(zhǔn)測試,旨在實現(xiàn)公平、可重復(fù)的產(chǎn)品性能比較。英特爾計劃為下一個 MLPerf測試提交新的AI訓(xùn)練性能結(jié)果。持續(xù)的性能更新彰顯了英特爾致力于幫助客戶、助力AI技術(shù)演進(jìn)所邁出的每一步,無論是低成本的AI處理器,還是面向網(wǎng)絡(luò)、云和企業(yè)用戶的高性能AI硬件加速器或是 GPU。

更多內(nèi)容:基于MLPerf v.31 推理的性能指標(biāo)(基準(zhǔn)結(jié)果)|MLCommons公告

說明:相關(guān)配置說明,請查看MLCommons網(wǎng)頁。 結(jié)果可能不同。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20143

    瀏覽量

    246657
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16705
  • MLPerf
    +關(guān)注

    關(guān)注

    0

    文章

    37

    瀏覽量

    940
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    DeepSeek V3.1發(fā)布!擁抱國產(chǎn)算力芯片

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)2025年8月21日,DeepSeek正式官宣發(fā)布DeepSeek-V3.1模型。新版本不僅在技術(shù)架構(gòu)實現(xiàn)重大升級,更通過參數(shù)精度優(yōu)化與國產(chǎn)芯片深度適配。從混合
    的頭像 發(fā)表于 08-23 07:55 ?1.6w次閱讀
    DeepSeek <b class='flag-5'>V3.1</b>發(fā)布!擁抱國產(chǎn)算力芯片

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺上的推理性能瓶頸。為實現(xiàn)這一目標(biāo),其構(gòu)建了多維度的核心實現(xiàn)路徑:一方面,針對需
    的頭像 發(fā)表于 10-21 11:04 ?717次閱讀

    使用OpenVINO將PP-OCRv5模型部署Intel顯卡

    是一個用于優(yōu)化和部署人工智能(AI)模型,提升AI推理性能的開源工具集合,不僅支持以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心組件的預(yù)測式AI模型(Predictive AI),還支持以Transformer為核心組件的生成式AI
    的頭像 發(fā)表于 09-20 11:17 ?827次閱讀
    使用OpenVINO將PP-OCRv5<b class='flag-5'>模型</b>部署<b class='flag-5'>在</b>Intel顯卡<b class='flag-5'>上</b>

    英特爾Gaudi 2E AI加速器為DeepSeek-V3.1提供加速支持

    英特爾? Gaudi 2EAI加速器現(xiàn)已為DeepSeek-V3.1提供深度優(yōu)化支持。憑借出色的性能和成本效益,英特爾Gaudi
    的頭像 發(fā)表于 08-26 19:18 ?2547次閱讀
    英特爾<b class='flag-5'>Gaudi</b> <b class='flag-5'>2</b>E AI加速器為DeepSeek-<b class='flag-5'>V3.1</b>提供加速支持

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    的發(fā)布持續(xù)深化了雙方的 AI 創(chuàng)新合作。NVIDIA NVIDIA Blackwell 架構(gòu)優(yōu)化了這兩款全新的開放權(quán)重模型并實現(xiàn)了推理性能加速,
    的頭像 發(fā)表于 08-15 20:34 ?1942次閱讀
    NVIDIA從云到邊緣加速OpenAI <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實現(xiàn)150萬TPS<b class='flag-5'>推理</b>

    西部數(shù)據(jù)通過 MLPerfa Storage V2 測試結(jié)果,驗證其真實場景下的AI存儲性能

    。西部數(shù)據(jù)(NASDAQ: WDC)近日公布其 MLPerf? Storage V2?測試結(jié)果,驗證了旗下 OpenFlex? Data24 4000?系列?NVMe-oF??存儲平臺
    發(fā)表于 08-05 18:15 ?659次閱讀

    模型推理顯存和計算量估計方法研究

    、顯存估計方法 基于模型結(jié)構(gòu)的顯存估計 根據(jù)深度學(xué)習(xí)模型的層次結(jié)構(gòu)和參數(shù)數(shù)量,可以估算模型推理過程中所需的顯存大小。具體方法如下: (1)
    發(fā)表于 07-03 19:43

    1.9倍性能提升!英特爾至強(qiáng)6MLPerf基準(zhǔn)測試中表現(xiàn)卓越

    與第五代至強(qiáng)處理器相比,英特爾至強(qiáng)6性能核的性能平均提高了1.9倍。 今日,MLCommons公布了最新的MLPerf推理v5.0基準(zhǔn)
    的頭像 發(fā)表于 04-07 10:58 ?504次閱讀

    英偉達(dá)GTC25亮點:NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    NVIDIA Dynamo 提高了推理性能,同時降低了擴(kuò)展測試時計算 (Scaling Test-Time Compute) 的成本; NVIDIA Blackwell
    的頭像 發(fā)表于 03-20 15:03 ?1064次閱讀

    探討DeepSeek-R1滿血版的推理部署與優(yōu)化策略

    DeepSeek的原廠方案. 1. 前情回顧2. 推理性能指標(biāo)概述3. 推理系統(tǒng)性能約束3.1 用戶SLA的約束3.2 內(nèi)存
    的頭像 發(fā)表于 02-14 10:19 ?3182次閱讀
    探討DeepSeek-R1滿血版的<b class='flag-5'>推理</b>部署與優(yōu)化策略

    英特爾Gaudi 2D AI加速器助力DeepSeek Janus Pro模型性能提升

    Pro模型進(jìn)行了深度優(yōu)化。 這一優(yōu)化舉措使得AI開發(fā)者能夠以更低的成本和更高的效率實現(xiàn)復(fù)雜任務(wù)的部署與優(yōu)化。英特爾Gaudi 2D AI加速器通過其卓越的計算能力和高度優(yōu)化的軟件棧,為Janus Pro
    的頭像 發(fā)表于 02-10 11:10 ?919次閱讀

    DeepSeek發(fā)布Janus Pro模型,英特爾Gaudi 2D AI加速器優(yōu)化支持

    Gaudi 2D AI加速器現(xiàn)已針對該模型進(jìn)行了全面優(yōu)化。這一優(yōu)化舉措使得AI開發(fā)者能夠更輕松地實現(xiàn)復(fù)雜任務(wù)的部署與優(yōu)化,從而有效滿足行業(yè)應(yīng)用對于推理算力的迫切需求。 英特爾
    的頭像 發(fā)表于 02-08 14:35 ?908次閱讀

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1290次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺提高AI<b class='flag-5'>推理性能</b>

    助力AIoT應(yīng)用:米爾FPGA開發(fā)板實現(xiàn)Tiny YOLO V4

    受限的設(shè)備運行,尤其低功耗、實時檢測的邊緣計算設(shè)備中表現(xiàn)出色。相比傳統(tǒng) GPU,F(xiàn)PGA 能在小面積和低功耗下實現(xiàn)類似的推理性能,非常契合 AIoT 應(yīng)用。像米爾 ZU3EG 這樣的 FPGA
    發(fā)表于 12-06 17:18

    Arm KleidiAI助力提升PyTorchLLM推理性能

    熱門的深度學(xué)習(xí)框架尤為突出,許多企業(yè)均會選擇其作為開發(fā) AI 應(yīng)用的庫。通過部署 Arm Kleidi 技術(shù),Arm 正在努力優(yōu)化 PyTorch,以加速基于 Arm 架構(gòu)的處理器運行 LLM 的性能。Arm 通過將 Kle
    的頭像 發(fā)表于 12-03 17:05 ?1921次閱讀
    Arm KleidiAI助力提升PyTorch<b class='flag-5'>上</b>LLM<b class='flag-5'>推理性能</b>