chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Nvidia打破實(shí)時(shí)對(duì)話AI的訓(xùn)練和推理用時(shí)記錄

YCqV_FPGA_EETre ? 來源:YXQ ? 2019-08-15 14:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Nvidia用于開發(fā)和運(yùn)行可理解和響應(yīng)請求的對(duì)話式AIGPU強(qiáng)化平臺(tái),已經(jīng)達(dá)成了一些重要的里程碑,并打破了一些記錄。

這對(duì)任何基于其技術(shù)進(jìn)行開發(fā)的人來說意義重大——當(dāng)中包括大大小小的公司,因?yàn)?a href="http://www.brongaenegriffin.com/tags/英偉達(dá)/" target="_blank">英偉達(dá)將很多用于實(shí)現(xiàn)這些進(jìn)步的代碼開源。那些代碼用PyTorch編寫,易于運(yùn)行。

英偉達(dá)今天宣布的最大成果包括:BERT訓(xùn)練用時(shí)打破記錄,進(jìn)入1小時(shí)關(guān)口。BERT是世界上最先進(jìn)的人工智能語言模型之一,也被廣泛認(rèn)為是自然語言處理(NLP)標(biāo)桿的先進(jìn)模型。Nvidia的AI平臺(tái)僅僅需要53分鐘就能夠完成模型訓(xùn)練,經(jīng)過訓(xùn)練的模型在短短2毫秒多一點(diǎn)的時(shí)間里(10毫秒在業(yè)內(nèi)被認(rèn)為是高水平線)就能夠成功地做出推理(即利用通過訓(xùn)練學(xué)習(xí)到的能力得出結(jié)果)——又一個(gè)記錄。

英偉達(dá)的這些突破不僅僅是吹噓的資本——這些進(jìn)步可為任何使用NLP對(duì)話式人工智能和GPU硬件的人提供切實(shí)的好處。Nvidia在它的其中一個(gè)SuperPOD系統(tǒng)上打破了訓(xùn)練時(shí)間記錄,該SuperPOD系統(tǒng)由運(yùn)行1472個(gè)V100 GPU的92個(gè)Nvidia DGX-2H系統(tǒng)組成;在運(yùn)行Nvidia TensorRT的Nvidia T4 GPU上完成推理過程。Nvidia TensorRT在性能上超出高度優(yōu)化的CPU許多個(gè)量級(jí)。不過,該公司將公開BERT訓(xùn)練代碼和經(jīng)過TensorRT優(yōu)化的BERT樣本,讓所有人都可以通過GitHub利用。

除了這些里程碑以外,英偉達(dá)的研究部門還建立并訓(xùn)練了有史以來最大的一個(gè)基于“Transformer”的語言模型。這也是BERT的技術(shù)基礎(chǔ)。該定制模型包含的參數(shù)多達(dá)83億個(gè),規(guī)模是當(dāng)前最大的核心BERT模型BERT-Large的24倍。英偉達(dá)將這個(gè)模型命名為“Megatron”,它也對(duì)外提供了用于訓(xùn)練這個(gè)模型的PyTorch代碼,因而其他人能夠自行訓(xùn)練出類似的基于“Transformer”的大型語言模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37210

    瀏覽量

    291814
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4022

    瀏覽量

    97064

原文標(biāo)題:【網(wǎng)上研討會(huì)】如何從海量的非結(jié)構(gòu)化數(shù)據(jù)中提取和分析關(guān)鍵信息?

文章出處:【微信號(hào):FPGA-EETrend,微信公眾號(hào):FPGA開發(fā)圈】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI推理的存儲(chǔ),看好SRAM?

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)近幾年,生成式AI引領(lǐng)行業(yè)變革,AI訓(xùn)練率先崛起,帶動(dòng)高帶寬內(nèi)存HBM一飛沖天。但我們知道AI推理的廣泛應(yīng)用才
    的頭像 發(fā)表于 03-03 08:51 ?2228次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存儲(chǔ),看好SRAM?

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?598次閱讀

    一文看懂AI訓(xùn)練、推理與訓(xùn)推一體的底層關(guān)系

    我們正在參加全球電子成就獎(jiǎng)的評(píng)選,歡迎大家?guī)臀覀兺镀薄x謝支持很多人聽過“大模型”,但沒搞懂兩件事。我們總說AI有多強(qiáng),但真正決定AI能否落地的,是它的兩個(gè)階段:訓(xùn)練(Training)和
    的頭像 發(fā)表于 09-19 11:58 ?1237次閱讀
    一文看懂<b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>、<b class='flag-5'>推理</b>與訓(xùn)推一體的底層關(guān)系

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1195次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理</b>模型發(fā)布

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    網(wǎng)絡(luò)智能診斷平臺(tái)。通過對(duì)私有化網(wǎng)絡(luò)數(shù)據(jù)的定向訓(xùn)練,信而泰打造了高性能、高可靠性的網(wǎng)絡(luò)診斷模型,顯著提升了AI輔助診斷的精準(zhǔn)度與實(shí)用性。該方案實(shí)現(xiàn)了網(wǎng)絡(luò)全流量深度解析能力與AI智能推理
    發(fā)表于 07-16 15:29

    英偉達(dá)GTC2025亮點(diǎn):Oracle與NVIDIA合作助力企業(yè)加速代理式AI推理

    Oracle 數(shù)據(jù)庫與 NVIDIA AI 相集成,使企業(yè)能夠更輕松、快捷地采用代理式 AI Oracle 和 NVIDIA 宣布,NVIDIA
    的頭像 發(fā)表于 03-21 12:01 ?1035次閱讀
    英偉達(dá)GTC2025亮點(diǎn):Oracle與<b class='flag-5'>NVIDIA</b>合作助力企業(yè)加速代理式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>

    英偉達(dá)GTC2025亮點(diǎn) NVIDIA推出Cosmos世界基礎(chǔ)模型和物理AI數(shù)據(jù)工具的重大更新

    新模型可實(shí)現(xiàn)物理 AI 的預(yù)測、可控世界生成和推理。 兩款全新Blueprint為機(jī)器人和自動(dòng)駕駛汽車后訓(xùn)練提供海量物理 AI 合成數(shù)據(jù)生成技術(shù)。 1X、Agility Robotic
    的頭像 發(fā)表于 03-20 19:01 ?1071次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Blackwell Ultra 開啟 AI 推理新時(shí)代

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Blackwell Ultra 開啟 AI 推理新時(shí)代
    的頭像 發(fā)表于 03-20 15:35 ?1100次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴(kuò)展 AI 工廠中的
    的頭像 發(fā)表于 03-20 15:03 ?937次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首
    發(fā)表于 03-19 15:24 ?441次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作助力企業(yè)加速代理式 <b class='flag-5'>AI</b> <b class='flag-5'>推理</b>

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺(tái)

    NVIDIA訓(xùn)練的全新 Llama Nemotron 推理模型,為代理式 AI 提供業(yè)務(wù)就緒型基礎(chǔ) 埃森哲、Amdocs、Atlassian、Box、Cadence、Crowd
    發(fā)表于 03-19 09:31 ?312次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放<b class='flag-5'>推理</b> <b class='flag-5'>AI</b> 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 <b class='flag-5'>AI</b> 平臺(tái)

    使用NVIDIA推理平臺(tái)提高AI推理性能

    NVIDIA推理平臺(tái)提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1119次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺(tái)提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    NVIDIA技術(shù)助力Pantheon Lab數(shù)字人實(shí)時(shí)交互解決方案

    、NVIDIA Triton,Pantheon Lab 訓(xùn)練速度提高 10 倍、推理延遲降低 50%,以及用戶參與度提升 30%。這些進(jìn)步使對(duì)話
    的頭像 發(fā)表于 01-14 11:19 ?843次閱讀

    NVIDIA助力Figure發(fā)布新一代對(duì)話式人形機(jī)器人

    該初創(chuàng)公司展示了新型機(jī)器人,其使用 NVIDIA Isaac Sim 處理合成數(shù)據(jù),并使用基于 NVIDIA 加速計(jì)算進(jìn)行實(shí)時(shí)推理訓(xùn)練的生成
    的頭像 發(fā)表于 11-04 10:10 ?994次閱讀

    NVIDIA助力麗蟾科技打造AI訓(xùn)練推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺(tái)集成 NVIDIA AI Enterprise,為企業(yè)和科研機(jī)構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練推理
    的頭像 發(fā)表于 10-27 10:03 ?1491次閱讀
    <b class='flag-5'>NVIDIA</b>助力麗蟾科技打造<b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>與<b class='flag-5'>推理</b>加速解決方案