chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

亞馬遜云科技與英偉達(dá)攜手開發(fā)下一代基礎(chǔ)設(shè)施

全球TMT ? 來源:全球TMT ? 作者:全球TMT ? 2023-03-22 18:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

助力大型機(jī)器學(xué)習(xí)模型訓(xùn)練和生成式AI應(yīng)用程序構(gòu)建

部署在Amazon EC2 UltraCluster中的新型Amazon EC2 P5實例經(jīng)過充分優(yōu)化,可以利用英偉達(dá)Hopper GPU加速生成式AI的大規(guī)模訓(xùn)練和推理

北京2023年3月22日/美通社/ --亞馬遜旗下的亞馬遜云科技和英偉達(dá)宣布了一項多方合作,致力于構(gòu)建全球最具可擴(kuò)展性且按需付費的人工智能(AI)基礎(chǔ)設(shè)施,以便訓(xùn)練日益復(fù)雜的大語言模型(LLM)和開發(fā)生成式AI應(yīng)用程序。

借助由NVIDIA H100 Tensor Core GPU支持的下一代Amazon Elastic Compute Cloud(Amazon EC2)P5實例,以及亞馬遜云科技最先進(jìn)的網(wǎng)絡(luò)和可擴(kuò)展性,此次合作將提供高達(dá)20 exaFLOPS的計算性能來幫助構(gòu)建和訓(xùn)練更大規(guī)模的深度學(xué)習(xí)模型。P5實例將是第一個利用亞馬遜云科技第二代Amazon Elastic Fabric Adapter(EFA)網(wǎng)絡(luò)技術(shù)的GPU實例,可提供3200 Gbps的低延遲和高帶寬網(wǎng)絡(luò)吞吐量。因此客戶能夠在Amazon EC2 UltraCluster中擴(kuò)展多達(dá)2萬個H100 GPU,滿足按需訪問超級計算機(jī)的AI性能需求。

"亞馬遜云科技和英偉達(dá)合作已超過12年,為人工智能、機(jī)器學(xué)習(xí)、圖形、游戲和高性能計算(HPC)等各種應(yīng)用提供了大規(guī)模、低成本的GPU解決方案。"亞馬遜云科技首席執(zhí)行官Adam Selipsky表示,"亞馬遜云科技在交付基于GPU的實例方面擁有無比豐富的經(jīng)驗,每一代實例都大大增強(qiáng)了可擴(kuò)展性,如今眾多客戶將機(jī)器學(xué)習(xí)訓(xùn)練工作負(fù)載擴(kuò)展到1萬多個GPU。借助第二代Amazon EFA,客戶能夠?qū)⑵銹5實例擴(kuò)展到超過2萬個英偉達(dá)H100 GPU,為包括初創(chuàng)公司、大企業(yè)在內(nèi)的所有規(guī)??蛻籼峁┧璧某売嬎隳芰?。"

"加速計算和人工智能已經(jīng)到來,而且適逢其時。加速計算提升性能的同時,降低了成本和功耗,讓企業(yè)事半功倍。生成式AI已促使企業(yè)重新思考產(chǎn)品和商業(yè)模式,力求成為顛覆者,而不是被顛覆。"英偉達(dá)創(chuàng)始人兼首席執(zhí)行官黃仁勛表示,"亞馬遜云科技是英偉達(dá)的長期合作伙伴,也是首家提供英偉達(dá)GPU的云服務(wù)提供商。我們很高興能夠結(jié)合各自的專長、規(guī)模和業(yè)務(wù)范圍,幫助客戶利用加速計算和生成式AI抓住未來的大好機(jī)遇。"

新的超級計算集群

新的P5實例構(gòu)建于亞馬遜云科技和英偉達(dá)十多年來在AI和HPC基礎(chǔ)設(shè)施交付方面的合作基礎(chǔ)之上,也立足于雙方在P2、P3、P3dn和P4d(e)前四代實例方面的合作。P5實例是基于英偉達(dá)GPU的第五代亞馬遜云科技產(chǎn)品,與最初部署的英偉達(dá)GPU(始于CG1實例)已相隔近13年。

P5實例非常適合對日益復(fù)雜的LLM和計算機(jī)視覺模型進(jìn)行訓(xùn)練和運行推理,并應(yīng)用于要求嚴(yán)苛的計算密集型生成式AI應(yīng)用程序,包括問題回答、代碼生成、視頻圖像生成和語音識別等領(lǐng)域。

對于致力于以可擴(kuò)展和安全的方式將AI賦能的創(chuàng)新推向市場的企業(yè)和初創(chuàng)公司而言,P5實例是不二之選。P5實例采用8個英偉達(dá)H100 GPU,能夠在一個Amazon EC2實例中實現(xiàn)16 petaFLOPs的混合精度性能、640 GB的高帶寬內(nèi)存和3200 Gbps的網(wǎng)絡(luò)連接(比上一代實例高出8倍)。P5實例性能的提升使機(jī)器學(xué)習(xí)模型訓(xùn)練時間加快了6倍(將訓(xùn)練時間從數(shù)天縮短到數(shù)小時),額外的GPU內(nèi)存可幫助客戶訓(xùn)練更龐大更復(fù)雜的模型。預(yù)計P5實例的機(jī)器學(xué)習(xí)模型訓(xùn)練成本將比上一代降低40%。相比靈活性較差的云產(chǎn)品或昂貴的本地系統(tǒng),它為客戶提供了更高的效率。

Amazon EC2 P5實例部署在Amazon EC2 UltraCluster的超大規(guī)模集群中,該集群由云端最高性能的計算、網(wǎng)絡(luò)和存儲系統(tǒng)組成。每個EC2 UltraCluster都是世界上功能最強(qiáng)大的超級計算機(jī)之一,助力客戶運行最復(fù)雜的多節(jié)點機(jī)器學(xué)習(xí)訓(xùn)練和分布式HPC工作負(fù)載。它們采用PB級無阻塞網(wǎng)絡(luò),基于Amazon EFA,這種面向Amazon EC2實例的網(wǎng)絡(luò)接口使客戶能夠在亞馬遜云科技上運行需要在大規(guī)模高級節(jié)點間通信的應(yīng)用程序。EFA的定制操作系統(tǒng)繞過硬件接口,并與英偉達(dá)GPUDirect RDMA整合,可降低延遲、提高帶寬利用率,從而提升實例間通信性能,這對于在數(shù)百個P5節(jié)點上擴(kuò)展深度學(xué)習(xí)模型的訓(xùn)練至關(guān)重要。借助P5實例和EFA,機(jī)器學(xué)習(xí)應(yīng)用程序可以使用NVIDIA Collective Communications Library(NCCL)擴(kuò)展到多達(dá)2萬個H100 GPU。因此,客戶可以通過亞馬遜云科技的按需彈性和靈活擴(kuò)展能力,獲得本地HPC集群的應(yīng)用性能。除了這些出色的計算能力外,客戶可以使用業(yè)界最廣泛最深入的服務(wù)組合,比如面向?qū)ο蟠鎯Φ腁mazon S3、面向高性能文件系統(tǒng)的Amazon FSx,以及用于構(gòu)建、訓(xùn)練和部署深度學(xué)習(xí)應(yīng)用的Amazon SageMaker。P5實例將在今后幾周提供有限預(yù)覽版。欲了解詳情,請訪問https://pages.awscloud.com/EC2-P5-Interest.html。

借助新的Amazon EC2 P5實例,Anthropic、Cohere、Hugging Face、Pinterest和Stability AI等客戶將能夠大規(guī)模構(gòu)建和訓(xùn)練最龐大的機(jī)器學(xué)習(xí)模型?;谄渌鼛状鶤mazon EC2實例的合作將幫助初創(chuàng)公司、大企業(yè)和研究人員無縫擴(kuò)展來滿足各自的機(jī)器學(xué)習(xí)需求。

Anthropic構(gòu)建了可靠、可解釋和可操控的AI系統(tǒng),將創(chuàng)造巨大商業(yè)價值并造福公眾。"Anthropic正在努力構(gòu)建可靠、可解釋和可操控的AI系統(tǒng)。雖然當(dāng)前已有的大型通用AI系統(tǒng)大有助益,但它們卻是不可預(yù)測、不可靠和不透明的。我們的目的是解決這些問題,為人們部署更實用的系統(tǒng)。"Anthropic的聯(lián)合創(chuàng)始人Tom Brown表示,"我們是全球為數(shù)不多的在深度學(xué)習(xí)研究領(lǐng)域建立基礎(chǔ)模型的組織之一。這種模型高度復(fù)雜,為了開發(fā)和訓(xùn)練先進(jìn)的模型,我們需要在龐大的GPU集群中有效地分布這些模型。我們正在廣泛應(yīng)用Amazon EC2 P4實例,我們更為即將發(fā)布的P5實例感到興奮。預(yù)計P5實例會提供比P4d實例更顯著的性價比優(yōu)勢,它們可以滿足構(gòu)建下一代大語言模型和相關(guān)產(chǎn)品的大規(guī)模需求。"

Cohere是自然語言AI領(lǐng)域的先驅(qū),它幫助開發(fā)者和企業(yè)使用世界領(lǐng)先的自然語言處理(NLP)技術(shù)構(gòu)建出色的產(chǎn)品,同時確保數(shù)據(jù)的隱私和安全。"Cohere不遺余力地幫助企業(yè)利用自然語言AI的強(qiáng)大功能,以自然直觀的方式探索、生成和搜索信息,并做出反應(yīng),并將產(chǎn)品部署在多云的數(shù)據(jù)環(huán)境中,為客戶提供最佳體驗。"Cohere首席執(zhí)行官Aidan Gomez表示,"基于英偉達(dá)H100的Amazon EC2 P5實例將釋放企業(yè)潛能,利用計算能力以及Cohere最先進(jìn)的LLM和生成式AI能力,更快地開發(fā)產(chǎn)品、拓展業(yè)務(wù)和擴(kuò)大規(guī)模。"

Hugging Face的使命是普及優(yōu)秀的機(jī)器學(xué)習(xí)。"作為發(fā)展最迅猛的機(jī)器學(xué)習(xí)開源社區(qū),我們?nèi)缃裨诿嫦騈LP、計算機(jī)視覺、生物學(xué)和強(qiáng)化學(xué)習(xí)等領(lǐng)域的平臺上提供逾15萬個預(yù)訓(xùn)練模型和2.5萬個數(shù)據(jù)集。"Hugging Face首席技術(shù)官兼聯(lián)合創(chuàng)始人Julien Chaumond表示,"鑒于大語言模型和生成式AI取得了顯著進(jìn)步,我們正與亞馬遜云科技合作,以構(gòu)建和貢獻(xiàn)未來的開源模型。我們希望在結(jié)合了EFA的UltraCluster集群中通過大規(guī)模Amazon SageMaker使用Amazon EC2 P5實例,加快為所有客戶交付新的基礎(chǔ)AI模型。"

如今,全球超過4.5億人通過Pinterest尋找視覺靈感,以購買符合自己品味的個性化產(chǎn)品、尋求線下創(chuàng)意,并發(fā)現(xiàn)最有才華的創(chuàng)作者。"我們在用例中廣泛使用深度學(xué)習(xí)技術(shù),比如對上傳到我們平臺上的數(shù)十億張照片進(jìn)行標(biāo)記和分類,以及讓用戶獲得從靈感到付諸行動的視覺搜索能力。"Pinterest首席架構(gòu)師David Chaiken表示,"我們使用P3和最新的P4d等Amazon GPU實例構(gòu)建和部署了這些應(yīng)用場景。我們希望使用由H100 GPU、EFA和Ultracluster加持的Amazon EC2 P5實例,加快產(chǎn)品開發(fā),為我們的客戶提供共情式AI(Empathetic AI)體驗。"

作為多模態(tài)、開源AI模型開發(fā)和部署領(lǐng)域的領(lǐng)導(dǎo)者,Stability AI與公共和私營部門的合作伙伴合作,將這種下一代基礎(chǔ)架構(gòu)提供給全球受眾。"Stability AI的目標(biāo)是最大限度地提高現(xiàn)代AI的普及性,以激發(fā)全球創(chuàng)造力和創(chuàng)新性。"Stability AI首席執(zhí)行官Emad Mostaque表示,"我們于2021年開始與亞馬遜云科技合作,使用Amazon EC2 P4d實例構(gòu)建了一個潛在的文本到圖像擴(kuò)散模型Stable Diffusion,我們將該模型部署在大規(guī)模環(huán)境下,將模型訓(xùn)練時間從數(shù)月縮短到數(shù)周。當(dāng)致力于開發(fā)下一代開源生成式AI模型并擴(kuò)展到新模型時,我們很高興能使用第二代EC2 UltraCluster中的Amazon EC2 P5實例。我們預(yù)計P5實例會進(jìn)一步將我們的模型訓(xùn)練時間縮短4倍,從而使我們能夠以更低的成本更快地提供突破性的AI。"

為可擴(kuò)展、高效的AI采用新的服務(wù)器設(shè)計

在H100發(fā)布之前,英偉達(dá)和在熱力、電氣機(jī)械領(lǐng)域擁有專業(yè)知識的亞馬遜云科技工程團(tuán)隊合作設(shè)計了服務(wù)器,以利用GPU提供大規(guī)模AI,重點關(guān)注亞馬遜云科技基礎(chǔ)設(shè)施的能源效率。在某些AI工作負(fù)載下,GPU的能效通常是CPU的20倍,對于LLM而言,H100的能效比CPU高300倍。

雙方的合作包括開發(fā)系統(tǒng)散熱設(shè)計、集成式安全和系統(tǒng)管理、與Amazon Nitro硬件加速虛擬機(jī)管理程序一起實現(xiàn)安全性,以及針對亞馬遜云科技定制EFA網(wǎng)絡(luò)結(jié)構(gòu)的英偉達(dá)GPUDirect?優(yōu)化技術(shù)。

在亞馬遜云科技和英偉達(dá)專注于服務(wù)器優(yōu)化工作的基礎(chǔ)上,兩家公司現(xiàn)已開始合作開發(fā)未來的服務(wù)器設(shè)計,以借助新一代系統(tǒng)設(shè)計、冷卻技術(shù)和網(wǎng)絡(luò)可擴(kuò)展性提高擴(kuò)展效率。

審核編輯黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35109

    瀏覽量

    279594
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49011

    瀏覽量

    249355
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8502

    瀏覽量

    134589
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3950

    瀏覽量

    93722
  • 亞馬遜
    +關(guān)注

    關(guān)注

    8

    文章

    2694

    瀏覽量

    84668
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    德州儀器宣布與英偉達(dá)合作,推動 AI 基礎(chǔ)設(shè)施實現(xiàn)高效配電

    上海2025年5月28日?/美通社/ -- TI 技術(shù)將助力?NVIDIA 未來面向下一代?AI 數(shù)據(jù)中心的?800V 高壓直流配電系統(tǒng) 前沿動態(tài) 德州儀器?(TI) 今日宣布,正與英偉達(dá)
    的頭像 發(fā)表于 05-28 16:07 ?216次閱讀

    NVIDIA 采用納微半導(dǎo)體開發(fā)一代數(shù)據(jù)中心電源架構(gòu) 800V HVDC 方案,賦能下一代AI兆瓦級算力需求

    全球 AI 算力基礎(chǔ)設(shè)施革新迎來關(guān)鍵進(jìn)展。近日,納微半導(dǎo)體(Navitas Semiconductor, 納斯達(dá)克代碼:NVTS)宣布參與NVIDIA 英偉達(dá)(納斯達(dá)克股票代碼: NVDA)
    發(fā)表于 05-23 14:59 ?1392次閱讀
    NVIDIA 采用納微半導(dǎo)體<b class='flag-5'>開發(fā)</b>新<b class='flag-5'>一代</b>數(shù)據(jù)中心電源架構(gòu) 800V HVDC 方案,賦能<b class='flag-5'>下一代</b>AI兆瓦級算力需求

    維諦加速推進(jìn)人工智能基礎(chǔ)設(shè)施演進(jìn),助力NVIDIA 800 VDC 電源架構(gòu)發(fā)布

    為適配下一代AI工廠的需求,維諦規(guī)劃在2026年推出800VDC解決方案,支撐英偉達(dá)NVIDIA整機(jī)柜計算平臺。作為全球領(lǐng)先的關(guān)鍵數(shù)字基礎(chǔ)設(shè)施及連續(xù)性解決方案提供商,維諦(Vertiv
    的頭像 發(fā)表于 05-22 14:18 ?403次閱讀
    維諦加速推進(jìn)人工智能<b class='flag-5'>基礎(chǔ)設(shè)施</b>演進(jìn),助力NVIDIA 800 VDC 電源架構(gòu)發(fā)布

    新思科技亮相英偉達(dá)GTC 2025大會

    為了實現(xiàn)這速度提升,新思科技在GTC全球AI大會上宣布,正在使用英偉達(dá) CUDA-X庫優(yōu)化其下一代半導(dǎo)體開發(fā)解決方案。公司還在擴(kuò)大對
    的頭像 發(fā)表于 03-19 17:53 ?812次閱讀

    百度李彥宏談訓(xùn)練下一代大模型

    “我們?nèi)孕鑼π酒?、?shù)據(jù)中心和基礎(chǔ)設(shè)施持續(xù)投入,以打造更好、更智能的下一代模型。”
    的頭像 發(fā)表于 02-12 10:38 ?463次閱讀

    日英聯(lián)手開發(fā)下一代量子計算機(jī)

    近日,據(jù)報道,日本國立產(chǎn)業(yè)技術(shù)綜合研究所(AIST)與全球芯片巨頭英特爾公司正攜手合作,致力于開發(fā)下一代量子計算機(jī)。這舉措預(yù)示著量子計算領(lǐng)域?qū)⒂瓉硇碌耐黄啤?據(jù)了解,此次合作將充分利用英特爾在芯片
    的頭像 發(fā)表于 02-07 14:26 ?423次閱讀

    HERE攜手亞馬遜科技創(chuàng)新AI地圖解決方案,加速軟件定義汽車發(fā)展

    汽車制造商在電動、自動化及軟件定義汽車領(lǐng)域的發(fā)展步伐 北京2025年1月15日?/美通社/ -- 亞馬遜科技宣布與HERE科技(HERE)達(dá)成項新的
    的頭像 發(fā)表于 01-15 15:33 ?402次閱讀

    黃仁勛宣布:豐田與英偉達(dá)攜手打造下一代自動駕駛汽車

    近日,英偉達(dá)公司首席執(zhí)行官黃仁勛在次公開場合透露,英偉達(dá)將與全球知名汽車制造商豐田攜手合作,共
    的頭像 發(fā)表于 01-09 10:25 ?654次閱讀

    英偉達(dá)與谷歌攜手加速量子計算設(shè)備設(shè)計

    英偉達(dá)近日宣布,將與谷歌量子AI團(tuán)隊展開合作,共同推進(jìn)量子計算軟硬件工具的研發(fā)。雙方將利用英偉達(dá)CUDA-Q平臺提供的模擬支持,加快設(shè)計谷歌下一代
    的頭像 發(fā)表于 11-19 16:21 ?540次閱讀

    英偉達(dá)攜手日本企,打造國家級AI基礎(chǔ)設(shè)施網(wǎng)絡(luò)

    近日,英偉達(dá)宣布了項宏偉計劃,旨在與日本計算領(lǐng)域的領(lǐng)軍企業(yè)GMO Internet Group和SAKURA Internet攜手合作,
    的頭像 發(fā)表于 11-14 13:53 ?610次閱讀

    英偉達(dá)與軟銀攜手共建日本AI基礎(chǔ)設(shè)施

    近日,英偉達(dá)創(chuàng)始人兼CEO黃仁勛宣布,英偉達(dá)將與軟銀集團(tuán)合作,在日本共同建設(shè)AI基礎(chǔ)設(shè)施,其中包括日本最大的AI工廠。這
    的頭像 發(fā)表于 11-13 14:41 ?736次閱讀

    英偉達(dá)與信實集團(tuán)攜手,共筑印度AI基礎(chǔ)設(shè)施

    近日,英偉達(dá)宣布與印度第二大財團(tuán)、亞洲首富安巴尼旗下的信實集團(tuán)達(dá)成合作伙伴關(guān)系,共同致力于在印度建設(shè)人工智能(AI)基礎(chǔ)設(shè)施,并推動AI技術(shù)在全球人口最多的國家得到廣泛應(yīng)用。 這合作
    的頭像 發(fā)表于 10-29 15:21 ?847次閱讀

    英偉達(dá)與信實集團(tuán)攜手在印度建設(shè)AI基礎(chǔ)設(shè)施

    英偉達(dá)(NVIDIA)近日宣布了項重大合作計劃,與印度第二大財團(tuán)、亞洲首富安巴尼旗下的信實集團(tuán)(Reliance Industries)建立合作伙伴關(guān)系,旨在共同推動印度的人工智能(AI)
    的頭像 發(fā)表于 10-28 16:08 ?598次閱讀

    日立與英偉達(dá)攜手打造鐵路安全檢測系統(tǒng)

    日立制作所近日宣布,已攜手美國英偉達(dá)公司成功研發(fā)出套先進(jìn)的鐵路基礎(chǔ)設(shè)施安全檢測系統(tǒng)。該系統(tǒng)專為鐵路軌道、架線及信號器等關(guān)鍵
    的頭像 發(fā)表于 09-25 14:19 ?582次閱讀

    IaaS+on+DPU(IoD)+下一代高性能算力底座技術(shù)白皮書

    的技術(shù)標(biāo)準(zhǔn)也在不斷完善。從此 DPU 不再是行業(yè)巨頭的“專享”技術(shù),基礎(chǔ)設(shè)施計算相關(guān)產(chǎn)業(yè)參與者都在尋求種簡單高效的方法,將 DPU 的優(yōu)勢運用到自身業(yè)務(wù)系統(tǒng)之中,例如 Red Hat
    發(fā)表于 07-24 15:32