chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google Cloud 推出 TPU v5p 和 AI Hypercomputer: 支持下一代 AI 工作負(fù)載

谷歌開(kāi)發(fā)者 ? 來(lái)源:未知 ? 2023-12-13 16:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

以下文章來(lái)源于谷歌云服務(wù),作者 Google Cloud

Amin Vahdat

ML、系統(tǒng)與 Cloud AI 副總裁/總經(jīng)理

Mark Lohmeyer

計(jì)算與 ML 基礎(chǔ)設(shè)施副總裁/總經(jīng)理

生成式 AI 模型正在迅速發(fā)展,提供了前所未有的精密性和功能。這項(xiàng)技術(shù)進(jìn)展得以讓各行各業(yè)的企業(yè)和開(kāi)發(fā)人員能夠解決復(fù)雜的問(wèn)題,開(kāi)啟新的機(jī)遇之門。然而,生成式 AI 模型的增長(zhǎng)也導(dǎo)致訓(xùn)練、調(diào)整和推理方面的要求變得更加嚴(yán)苛。過(guò)去五年來(lái),生成式 AI 模型的參數(shù)每年增長(zhǎng)十倍,如今的大模型具有數(shù)千億甚至上萬(wàn)億項(xiàng)參數(shù),即使在最專業(yè)的系統(tǒng)上仍需要相當(dāng)長(zhǎng)的訓(xùn)練時(shí)間,有時(shí)需持續(xù)數(shù)月才能完成。此外,高效的 AI 工作負(fù)載管理需要一個(gè)具備一致性能、優(yōu)化的計(jì)算、存儲(chǔ)、網(wǎng)絡(luò)、軟件和開(kāi)發(fā)框架所組成的集成 AI 堆棧。

為了應(yīng)對(duì)這些挑戰(zhàn),我們很高興宣布推出 Cloud TPU v5p,這是 Google 迄今為止功能、可擴(kuò)展性、靈活性最為強(qiáng)大的 AI 加速器。長(zhǎng)期以來(lái),TPU 一直是訓(xùn)練和服務(wù) AI 支持的產(chǎn)品的基礎(chǔ),例如 YouTube、Gmail、Google 地圖、Google Play 和 Android。事實(shí)上,Google 剛剛發(fā)布的功能最強(qiáng)大的通用 AI 模型 Gemini 就是使用 TPU 進(jìn)行訓(xùn)練和服務(wù)的。

此外,我們也宣布推出 Google Cloud AI Hypercomputer,這是一種突破性的超級(jí)計(jì)算機(jī)架構(gòu),采用集成系統(tǒng),并結(jié)合了性能優(yōu)化的硬件、開(kāi)放軟件、領(lǐng)先的 ML 框架和靈活的消費(fèi)模式。傳統(tǒng)方法通常是以零碎的組件級(jí)增強(qiáng)來(lái)解決要求嚴(yán)苛的 AI 工作負(fù)載,這可能會(huì)導(dǎo)致效率不佳和性能瓶頸。相比之下,AI Hypercomputer 采用系統(tǒng)級(jí)協(xié)同設(shè)計(jì)來(lái)提高 AI 訓(xùn)練、調(diào)整和服務(wù)的效率和生產(chǎn)力。

01

探索 Cloud TPU v5p

Google Cloud 目前功能最強(qiáng)大

可擴(kuò)展能力最佳的 TPU 加速器

上個(gè)月,我們宣布全面推出 Cloud TPU v5e。相較于上一代 TPU v41,TPU v5e 的性價(jià)比提高了 2.3 倍,是我們目前最具成本效益的 TPU。而 Cloud TPU v5p 則是我們目前功能最強(qiáng)大的 TPU。每個(gè) TPU v5p pod 由 8,960 個(gè)芯片組成,采用了我們帶寬最高的芯片間互連 (Inter-chip Interconnect, ICI) 技術(shù),以 3D 環(huán)形拓?fù)浣Y(jié)構(gòu)實(shí)現(xiàn)每芯片 4,800 Gbps 的速率。與 TPU v4 相比,TPU v5p 的每秒浮點(diǎn)運(yùn)算次數(shù) (FLOPS) 提高 2 倍以上,高帶寬內(nèi)存 (High-bandwidth Memory, HBM) 則增加 3 倍。

TPU v5p 專為性能、靈活性和可擴(kuò)展性設(shè)計(jì),相較于上一代 TPU v4,TPU v5p 訓(xùn)練大型 LLM 的速度提升 2.8 倍。此外,若搭配第二代 SparseCores,TPU v5p 訓(xùn)練嵌入密集模型的速度比 TPU v42 快 1.9 倍

wKgZomV5ZtqAVxvIAADPSGWcyh0300.png

資料來(lái)源: Google 內(nèi)部數(shù)據(jù)。截至 2023 年 11 月,GPT-3 1750 億參數(shù)模型的所有數(shù)據(jù)均按每芯片 seq-len=2048 為單位完成標(biāo)準(zhǔn)化。

wKgZomV5ZtqAROtEAAEFUtrHUCw937.png

資料來(lái)源: TPU v5e 數(shù)據(jù)來(lái)自 MLPerf 3.1 Training Closed 的 v5e 結(jié)果;TPU v5p 和 v4 基于 Google 內(nèi)部訓(xùn)練運(yùn)行。截至 2023 年 11 月,GPT-3 1750 億參數(shù)模型的所有數(shù)據(jù)均按每芯片 seq-len=2048 為單位完成標(biāo)準(zhǔn)化。并以 TPU v4:3.22 美元/芯片/小時(shí)、TPU v5e:1.2 美元/芯片/小時(shí)和 TPU v5p:4.2 美元/芯片/小時(shí)的公開(kāi)定價(jià)顯示每美元相對(duì)性能。

TPU v5p 不僅性能更佳,就每 Pod 的總可用 FLOPS 而言,TPU v5p 的可擴(kuò)展能力比 TPU v4 高 4 倍,且 TPU v5p 的每秒浮點(diǎn)運(yùn)算次數(shù) (FLOPS) 是 TPU v4 的兩倍,并在單一 Pod 中提供兩倍的芯片,可大幅提升訓(xùn)練速度相關(guān)性能。

wKgZomV5ZtuAGEBhAARxTP6GyC0815.png

02

Google AI Hypercomputer

大規(guī)模提供頂尖性能和效率

實(shí)現(xiàn)規(guī)模和速度是必不可少的,但并不足以滿足現(xiàn)代 AI/ML 應(yīng)用程序和服務(wù)的需求。軟硬組件必須組合相輔相成,組成一個(gè)易于使用、安全可靠的集成計(jì)算系統(tǒng)。Google 已針對(duì)此問(wèn)題投入數(shù)十年的時(shí)間進(jìn)行研發(fā),而 AI Hypercomputer 正是我們的心血結(jié)晶。此系統(tǒng)集結(jié)了多種能協(xié)調(diào)運(yùn)作的技術(shù),能以最佳方式來(lái)執(zhí)行現(xiàn)代 AI 工作負(fù)載。

wKgZomV5ZtuAZX9NAAIoSxnb8Jg775.png ? ? ?

性能優(yōu)化硬件: AI Hypercomputer 以超大規(guī)模數(shù)據(jù)中心基礎(chǔ)設(shè)施為基礎(chǔ)構(gòu)建,采用高密度足跡、水冷技術(shù)和我們的 Jupiter 數(shù)據(jù)中心網(wǎng)絡(luò)技術(shù),在計(jì)算、存儲(chǔ)和網(wǎng)絡(luò)功能上均能提供最佳性能。所有這一切都基于以效率為核心的各項(xiàng)技術(shù),利用清潔能源和對(duì)水資源管理的堅(jiān)定承諾,助力我們邁向無(wú)碳未來(lái)。

開(kāi)放軟件: AI Hypercomputer 使開(kāi)發(fā)人員能夠通過(guò)使用開(kāi)放軟件來(lái)訪問(wèn)我們性能優(yōu)化的硬件,利用這些硬件調(diào)整、管理和動(dòng)態(tài)編排 AI 訓(xùn)練和推理工作負(fù)載。

  • 廣泛支持主流 ML 框架 (例如 JAX、TensorFlow 和 PyTorch) 且提供開(kāi)箱即用。如要構(gòu)建復(fù)雜的 LLM,JAX 和 PyTorch 均由 OpenXLA 編譯器提供支持。XLA 作為基礎(chǔ)設(shè)施,支持創(chuàng)建復(fù)雜的多層模型。XLA 優(yōu)化了各種硬件平臺(tái)上的分布式架構(gòu),確保針對(duì)不同的 AI 場(chǎng)景高效開(kāi)發(fā)易于使用的模型。

  • 提供開(kāi)放且獨(dú)特的 Multislice Training 及 Multihost Inferencing 軟件,分別使擴(kuò)展、訓(xùn)練和提供模型的工作負(fù)載變得流暢又簡(jiǎn)單。若要處理要求嚴(yán)苛的 AI 工作負(fù)載,開(kāi)發(fā)人員可將芯片數(shù)量擴(kuò)展至數(shù)萬(wàn)個(gè)。

  • 與 Google Kubernetes Engine (GKE) 和 Google Compute Engine 深度集成,實(shí)現(xiàn)高效的資源管理、一致的操作環(huán)境、自動(dòng)擴(kuò)展、自動(dòng)配置節(jié)點(diǎn)池、自動(dòng)檢查點(diǎn)、自動(dòng)恢復(fù)和及時(shí)的故障恢復(fù)。

靈活的消費(fèi)模式: AI Hypercomputer 提供多種靈活動(dòng)態(tài)的消費(fèi)方案。除了承諾使用折扣 (Committed Used Discunts, CUD)、按需定價(jià)和現(xiàn)貨定價(jià)等經(jīng)典選項(xiàng)外,AI Hypercomputer 還通過(guò) Dynamic Workload Scheduler 提供針對(duì) AI 工作負(fù)載量身定制的消費(fèi)模式。Dynamic Workload Scheduler 包含兩種消費(fèi)模式: Flex Start 模式可實(shí)現(xiàn)更高的資源獲取能力和優(yōu)化的經(jīng)濟(jì)效益;Calendar 模式則針對(duì)作業(yè)啟動(dòng)時(shí)間可預(yù)測(cè)性更高的工作負(fù)載。

03

利用 Google 的豐富經(jīng)驗(yàn)

助力 AI 的未來(lái)發(fā)展

Salesforce 和 Lightricks 等客戶已在使用 Google Cloud 的 TPU v5p 以及 AI Hypercomputer 來(lái)訓(xùn)練和服務(wù)大型 AI 模型——并發(fā)現(xiàn)了其中的差異:

G

C

"我們一直在使用 Google Cloud 的 TPU v5p 對(duì) Salesforce 的基礎(chǔ)模型進(jìn)行預(yù)訓(xùn)練,這些模型將作為專業(yè)生產(chǎn)用例的核心引擎,我們看到訓(xùn)練速度獲得了顯著提升。事實(shí)上,Cloud TPU v5p 的計(jì)算性能比上一代 TPU v4 高出至少 2 倍。我們還非常喜歡使用 JAX 順暢地從 Cloud TPU v4 過(guò)渡到 v5p。我們期待能通過(guò) Accurate Quantized Training (AQT) 庫(kù),運(yùn)用 INT8 精度格式的原生支持來(lái)優(yōu)化我們的模型,進(jìn)一步提升速度。"

——Salesforce 高級(jí)研究科學(xué)家

Erik Nijkamp

G

C

"憑借 Google Cloud TPU v5p 的卓越性能和充足內(nèi)存,我們成功地訓(xùn)練了文本到視頻的生成模型,而無(wú)需將其拆分成單獨(dú)進(jìn)程。這種出色的硬件利用率大大縮短了每個(gè)訓(xùn)練周期,使我們能夠迅速開(kāi)展一系列實(shí)驗(yàn)。能在每次實(shí)驗(yàn)中快速完成模型訓(xùn)練的能力加快了迭代速度,為我們的研究團(tuán)隊(duì)在生成式 AI 這個(gè)競(jìng)爭(zhēng)激烈的領(lǐng)域帶來(lái)寶貴優(yōu)勢(shì)。"

——Lightricks 核心生成式 AI 研究團(tuán)隊(duì)主管

Yoav HaCohen 博士

G

C

"在早期使用過(guò)程中,Google DeepMind 和 Google Research 團(tuán)隊(duì)發(fā)現(xiàn),對(duì)于 LLM 訓(xùn)練工作負(fù)載,TPU v5p 芯片的性能比 TPU v4 代提高了 2 倍。此外,AI Hypercomputer 能為 ML 框架 (JAX、PyTorch、TensorFlow) 提供強(qiáng)大的支持和自動(dòng)編排工具,使我們能夠在 v5p 上更高效地?cái)U(kuò)展。搭配第二代 SparseCores,我們也發(fā)現(xiàn)嵌入密集型工作負(fù)載 (embeddings-heavy workloads) 的性能得到顯著提高。TPU 對(duì)于我們?cè)?Gemini 等前沿模型上開(kāi)展最大規(guī)模的研究和工程工作至關(guān)重要。"

—— Google DeepMind 和 Google Research

首席科學(xué)家 Jeff Dean

在 Google,我們一直堅(jiān)信 AI 能夠幫助解決棘手問(wèn)題。截至目前,大規(guī)模訓(xùn)練與提供大型基礎(chǔ)模型對(duì)于許多企業(yè)來(lái)說(shuō)都過(guò)于復(fù)雜且昂貴?,F(xiàn)在,通過(guò) Cloud TPU v5p 和 AI Hypercomputer,我們很高興能將我們?cè)?AI 和系統(tǒng)設(shè)計(jì)領(lǐng)域數(shù)十年的研究成果與我們的用戶分享,以便他們能夠更快、更高效、更具成本效益地運(yùn)用 AI 加速創(chuàng)新。

wKgZomV5ZtuAX_DrAAAjqZVF__E690.gif ?

1: MLPerf v3.1 Training Closed 的結(jié)果多個(gè)基準(zhǔn)如圖所示。資料日期:2023 年 11 月 8 日。資料來(lái)源:mlcommons.org。結(jié)果編號(hào):3.1-2004。每美元性能并非 MLPerf 的評(píng)估標(biāo)準(zhǔn)。TPU v4 結(jié)果尚未經(jīng) MLCommons 協(xié)會(huì)驗(yàn)證。MLPerf 名稱和標(biāo)志是 MLCommons 協(xié)會(huì)在美國(guó)和其他國(guó)家的商標(biāo),并保留所有權(quán)利,嚴(yán)禁未經(jīng)授權(quán)的使用。更多信息,請(qǐng)參閱 www.mlcommons.org。

2: 截至 2023 年 11 月,Google TPU v5p 內(nèi)部資料:E2E 執(zhí)行時(shí)間 (steptime)、搜索廣告預(yù)估點(diǎn)擊率 (SearchAds pCTR)、每個(gè) TPU 核心批次大小為 16,384、125 個(gè) vp5 芯片。


wKgZomV5ZtuAYQ9-AAAafJIrrMk456.gif?點(diǎn)擊屏末||即刻查看詳細(xì)內(nèi)容

wKgZomV5ZtuAQLghAAATN9B0Fw0289.png

wKgZomV5ZtyAKESmAAMyGF3oQT4132.png

wKgZomV5ZtyAPigfAAAptPJQ2wE843.png


原文標(biāo)題:Google Cloud 推出 TPU v5p 和 AI Hypercomputer: 支持下一代 AI 工作負(fù)載

文章出處:【微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6241

    瀏覽量

    109986

原文標(biāo)題:Google Cloud 推出 TPU v5p 和 AI Hypercomputer: 支持下一代 AI 工作負(fù)載

文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Microchip推出下一代Switchtec Gen 6 PCIe交換芯片

    隨著人工智能(AI工作負(fù)載和高性能計(jì)算(HPC)應(yīng)用對(duì)數(shù)據(jù)傳輸速度與低延遲的需求持續(xù)激增,Microchip Technology Inc.(微芯科技公司)宣布推出下一代Switch
    的頭像 發(fā)表于 10-18 11:12 ?771次閱讀

    vivo攜手Google Cloud推動(dòng)智能手機(jī)邁入AI新時(shí)代

    在人們期待更智能、更前瞻手機(jī)的時(shí)代,vivo 攜手 Google Cloud,迅速推出更安全、更前沿的 AI 功能,共同加速創(chuàng)新,推動(dòng)智能手機(jī)邁入智能、無(wú)縫、以人為本的
    的頭像 發(fā)表于 09-23 16:54 ?706次閱讀

    AI芯片:科技探索與AGI愿景》—— 深入硬件核心的AGI指南

    AI芯片:科技探索與AGI愿景》書如同張?jiān)敱M的“藏寶圖”,為讀者指明了通往下一代人工智能的硬件之路。作者沒(méi)有停留在空洞的概念層面,而是直擊核心,從馮·諾依曼架構(gòu)的“內(nèi)存墻”瓶頸切
    發(fā)表于 09-17 09:29

    傳音攜手Google Cloud打造下一代AI智能生態(tài)

    近日,在備受矚目的谷歌開(kāi)發(fā)者大會(huì)上,傳音TEX AI總經(jīng)理史團(tuán)委受邀發(fā)表主題演講,深入分享了傳音和谷歌在多場(chǎng)景AI模型和應(yīng)用上的深度合作,以及公司在AI手機(jī)領(lǐng)域的持續(xù)探索和階段性成果。
    的頭像 發(fā)表于 09-02 10:47 ?639次閱讀

    是德科技與Heavy Reading合作發(fā)布2025年AI集群網(wǎng)絡(luò)報(bào)告

    是德科技(NYSE: KEYS )日前宣布其與Heavy Reading合作發(fā)布了《超越瓶頸:2025年AI集群網(wǎng)絡(luò)報(bào)告》。報(bào)告指出,人工智能(AI)的采用速度正不斷加快,基礎(chǔ)設(shè)施已難以跟上其發(fā)展步伐。這項(xiàng)全球研究強(qiáng)調(diào),電信和云服務(wù)提供商亟需從“擴(kuò)張”轉(zhuǎn)向“優(yōu)化”,以
    的頭像 發(fā)表于 08-28 15:43 ?364次閱讀

    安森美攜手英偉達(dá)推動(dòng)下一代AI數(shù)據(jù)中心發(fā)展

    安森美(onsemi,美國(guó)納斯達(dá)克股票代號(hào):ON)宣布與英偉達(dá)(NVIDIA)合作,共同推動(dòng)向800V直流(VDC)供電架構(gòu)轉(zhuǎn)型。這變革性解決方案將推動(dòng)下一代人工智能(AI)數(shù)據(jù)中心
    的頭像 發(fā)表于 08-06 17:27 ?1015次閱讀

    NVIDIA 采用納微半導(dǎo)體開(kāi)發(fā)新一代數(shù)據(jù)中心電源架構(gòu) 800V HVDC 方案,賦能下一代AI兆瓦級(jí)算力需求

    800V HVDC電源架構(gòu)開(kāi)發(fā),旗下GaNFast?氮化鎵和GeneSiC?碳化硅技術(shù)將為Kyber機(jī)架級(jí)系統(tǒng)內(nèi)的Rubin Ultra等GPU提供電力支持。 ? NVIDIA推出下一代
    發(fā)表于 05-23 14:59 ?2314次閱讀
    NVIDIA 采用納微半導(dǎo)體開(kāi)發(fā)新<b class='flag-5'>一代</b>數(shù)據(jù)中心電源架構(gòu) 800<b class='flag-5'>V</b> HVDC 方案,賦能<b class='flag-5'>下一代</b><b class='flag-5'>AI</b>兆瓦級(jí)算力需求

    光庭信息推出下一代整車操作系統(tǒng)A2OS

    ,正式推出面向中央計(jì)算架構(gòu)、支持人機(jī)協(xié)同開(kāi)發(fā)的下一代整車操作系統(tǒng)A2OS(AI × Automotive OS),賦能下一代域控軟件解決方案
    的頭像 發(fā)表于 04-29 17:37 ?1011次閱讀
    光庭信息<b class='flag-5'>推出下一代</b>整車操作系統(tǒng)A2OS

    Google推出第七TPU芯片Ironwood

    Google Cloud Next 25 大會(huì)上,我們隆重推出第 7 Tensor Processing Unit (TPU) —
    的頭像 發(fā)表于 04-16 11:20 ?1069次閱讀
    <b class='flag-5'>Google</b><b class='flag-5'>推出</b>第七<b class='flag-5'>代</b><b class='flag-5'>TPU</b>芯片Ironwood

    谷歌第七TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命

    谷歌第七TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七張量處理單元 (
    的頭像 發(fā)表于 04-12 11:10 ?2445次閱讀
    谷歌第七<b class='flag-5'>代</b><b class='flag-5'>TPU</b> Ironwood深度解讀:<b class='flag-5'>AI</b>推理時(shí)代的硬件革命

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 李彎彎)日前,谷歌在 Cloud Next 大會(huì)上,隆重推出了最新一代 TPU AI 加速芯片 ——Ironwoo
    的頭像 發(fā)表于 04-12 00:57 ?2892次閱讀

    NetApp與Google Cloud合作,簡(jiǎn)化云端高性能工作負(fù)載的擴(kuò)展

    降低了云端存儲(chǔ)工作負(fù)載的復(fù)雜性并提升了其性能,同時(shí)還能完全集成到Google Cloud服務(wù)生態(tài)系統(tǒng)中。客戶將能夠輕松擴(kuò)展高性能的企業(yè)應(yīng)用程序和數(shù)據(jù)庫(kù),包括擁有PB級(jí)數(shù)據(jù)集的
    的頭像 發(fā)表于 04-10 16:48 ?423次閱讀

    Arm技術(shù)助力Google Axion處理器加速AI工作負(fù)載推理

    由 Arm Neoverse V2 平臺(tái)賦能的 Google Axion 處理器已在 Google Cloud 上正式上線,其中,C4A 是首款基于 Axion 的云虛擬機(jī),為基于 C
    的頭像 發(fā)表于 02-14 14:11 ?819次閱讀
    Arm技術(shù)助力<b class='flag-5'>Google</b> Axion處理器加速<b class='flag-5'>AI</b><b class='flag-5'>工作</b><b class='flag-5'>負(fù)載</b>推理

    Google兩款先進(jìn)生成式AI模型登陸Vertex AI平臺(tái)

    新的 AI 模型,包括最先進(jìn)的視頻生成模型Veo以及最高品質(zhì)的圖像生成模型Imagen 3。近日,我們?cè)?Google Cloud 上進(jìn)步推動(dòng)這
    的頭像 發(fā)表于 12-30 09:56 ?869次閱讀

    OPPO與Google Cloud攜手開(kāi)創(chuàng)AI手機(jī)新未來(lái)

    OPPO 與 Google CloudAI 技術(shù)上深入合作,在旗下的海外手機(jī)上實(shí)現(xiàn) AI 功能,這些 AI 功能為 OPPO 手機(jī)帶來(lái)
    的頭像 發(fā)表于 12-06 14:13 ?1304次閱讀