chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

華為云盤古大模型3.0正式發(fā)布,大模型系列架構(gòu)匯總

微云疏影 ? 來(lái)源:綜合整理 ? 作者:綜合整理 ? 2023-07-07 16:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

7月7日下午,華為開(kāi)發(fā)者大會(huì)2023(Cloud)上,華為常務(wù)董事、華為云CEO張平安宣布,華為云盤古大模型3.0正式發(fā)布。

在會(huì)上,張平安發(fā)表主題演講《一切皆服務(wù),AI重塑千行百業(yè)》,對(duì)于華為盤古大模型,張平安表示,華為的盤古大模型“不作詩(shī),只做事”,“盤古大模型很忙,忙著做事,沒(méi)有時(shí)間作詩(shī)”

張平安稱,盤古大模型3.0分為L(zhǎng)0基礎(chǔ)大模型、L1行業(yè)大模型、L2場(chǎng)景模型三層架構(gòu),將重塑千行百業(yè)。重點(diǎn)面向政務(wù)、金融、制造、醫(yī)藥、礦山、鐵路、氣象等行業(yè)。

盤古大模型3.0 是一個(gè)完全面向行業(yè)的大模型系列包括 5+N+X 三層架構(gòu),匯總?cè)缦拢?/p>

第一層 L0 層是盤古的 5 個(gè)基礎(chǔ)大模型,包括自然語(yǔ)言大模型、視覺(jué)大模型、多模態(tài)大模型、預(yù)測(cè)大模型、科學(xué)計(jì)算大模型,它們提供滿足行業(yè)場(chǎng)景的多種技能。

盤古 3.0 為客戶提供 100 億參數(shù)、380 億參數(shù)、710 億參數(shù)和 1000 億參數(shù)的系列化基礎(chǔ)大模型,匹配客戶不同場(chǎng)景、不同時(shí)延、不同響應(yīng)速度的行業(yè)多樣化需求。同時(shí)提供全新能力集,包括 NLP 大模型的知識(shí)問(wèn)答、文案生成、代碼生成,以及多模態(tài)大模型的圖像生成、圖像理解等能力,這些技能都可以供客戶和伙伴企業(yè)直接調(diào)用。無(wú)論多大參數(shù)規(guī)模的大模型,盤古提供一致的能力集。

第二層 L1 層是 N 個(gè)行業(yè)大模型,既可以提供使用行業(yè)公開(kāi)數(shù)據(jù)訓(xùn)練的行業(yè)通用大模型,包括政務(wù),金融,制造,礦山,氣象等;也可以基于行業(yè)客戶的自有數(shù)據(jù),在盤古的 L0 和 L1 上,為客戶訓(xùn)練自己的專有大模型。

第三層 L2 層是為客戶提供更多細(xì)化場(chǎng)景的模型,它更加專注于某個(gè)具體的應(yīng)用場(chǎng)景或特定業(yè)務(wù),為客戶提供開(kāi)箱即用的模型服務(wù)。

據(jù)悉,在L0和L1大模型的基礎(chǔ)上,華為云還為客戶提供了大模型行業(yè)開(kāi)發(fā)套件,通過(guò)對(duì)客戶自有數(shù)據(jù)的二次訓(xùn)練,客戶就可以擁有自己的專屬行業(yè)大模型。同時(shí),根據(jù)客戶不同的數(shù)據(jù)安全訴求,盤古大模型還提供了公用云、大模型云專區(qū)、混合云等多樣化的部署形態(tài)。

盤古大模型采用完全的分層解耦設(shè)計(jì),可以快速適配、快速滿足行業(yè)的多變需求。客戶既可以為自己的大模型加載獨(dú)立的數(shù)據(jù)集,也可以單獨(dú)升級(jí)基礎(chǔ)模型,也可以單獨(dú)升級(jí)能力集。

在 L0 和 L1 大模型的基礎(chǔ)上,華為云還為客戶提供了大模型行業(yè)開(kāi)發(fā)套件,通過(guò)對(duì)客戶自有數(shù)據(jù)的二次訓(xùn)練,客戶就可以擁有自己的專屬行業(yè)大模型。同時(shí),根據(jù)客戶不同的數(shù)據(jù)安全與合規(guī)訴求,盤古大模型還提供了公用云、大模型云專區(qū)、混合云多樣化的部署形態(tài)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 華為
    +關(guān)注

    關(guān)注

    216

    文章

    35574

    瀏覽量

    259288
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3348

    瀏覽量

    4717
  • 盤古大模型
    +關(guān)注

    關(guān)注

    1

    文章

    112

    瀏覽量

    879
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    華為架構(gòu)大調(diào)整,波及千名員工,All in AI能否扭虧為盈

    )產(chǎn)品線下的盤古模型相關(guān)部門被明確撤銷。 ? 與此同時(shí),有消息顯示,調(diào)整后的華為將聚焦3+2+1業(yè)務(wù),其中3為通算、智算、存儲(chǔ),2為AI PaaS、數(shù)據(jù)庫(kù),1為安全業(yè)務(wù)。 ? 戰(zhàn)略
    的頭像 發(fā)表于 08-26 09:22 ?6488次閱讀

    華為CANN與智譜GLM端側(cè)模型完成適配

    已于7月28日正式開(kāi)源其新一代基座模型GLM-4.5,其GLM端側(cè)模型已完成與CANN的適配。這標(biāo)志著國(guó)產(chǎn)大模型與計(jì)算架構(gòu)在端協(xié)同方向?qū)崿F(xiàn)
    的頭像 發(fā)表于 08-11 11:00 ?1995次閱讀

    華為宣布開(kāi)源盤古7B稠密和72B混合專家模型

    電子發(fā)燒友網(wǎng)綜合報(bào)道 2025年6月30日,華為正式宣布開(kāi)源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型及基于昇
    的頭像 發(fā)表于 07-06 05:51 ?6816次閱讀

    超低延時(shí)重構(gòu)AI推理體驗(yàn)!白山發(fā)布“大模型API”產(chǎn)品

    白山科技正式發(fā)布“大模型API”產(chǎn)品,首發(fā)上線DeepSeek-R1-0528、DeepSeek-R1-0528-Qwen3-8B、Qwen3-32B-FP8等大語(yǔ)言模型?;诎咨饺?/div>
    的頭像 發(fā)表于 07-02 17:26 ?823次閱讀
    超低延時(shí)重構(gòu)AI推理體驗(yàn)!白山<b class='flag-5'>云</b><b class='flag-5'>發(fā)布</b>“大<b class='flag-5'>模型</b>API”產(chǎn)品

    華為正式開(kāi)源盤古7B稠密和72B混合專家模型

    [中國(guó),深圳,2025年6月30日] 今日,華為正式宣布開(kāi)源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型和基于昇
    的頭像 發(fā)表于 06-30 11:19 ?933次閱讀

    華為聯(lián)合中國(guó)農(nóng)科院打造農(nóng)業(yè)科學(xué)發(fā)現(xiàn)大模型

    近日,華為開(kāi)發(fā)者大會(huì)2025(HDC 2025)于東莞舉辦。在主題演講中,華為常務(wù)董事、華為計(jì)算BU CEO張平安宣布盤古
    的頭像 發(fā)表于 06-26 11:51 ?713次閱讀

    華為開(kāi)發(fā)者大會(huì)2025(HDC 2025)亮點(diǎn):華為發(fā)布盤古模型5.5 宣布新一代昇騰AI服務(wù)上線

    HarmonyOS、昇騰AI服務(wù)、盤古模型等最新科技創(chuàng)新成果。 在主題演講中,華為常務(wù)董事、華為
    的頭像 發(fā)表于 06-20 20:19 ?3559次閱讀
    <b class='flag-5'>華為</b>開(kāi)發(fā)者大會(huì)2025(HDC 2025)亮點(diǎn):<b class='flag-5'>華為</b><b class='flag-5'>云</b><b class='flag-5'>發(fā)布</b><b class='flag-5'>盤古</b>大<b class='flag-5'>模型</b>5.5 宣布新一代昇騰AI<b class='flag-5'>云</b>服務(wù)上線

    知識(shí)分享 | 評(píng)估模型架構(gòu)——如何實(shí)現(xiàn)?

    確保良好的模型架構(gòu)對(duì)于開(kāi)發(fā)安全和可靠的軟件非常重要。本文為您介紹MES Model Examiner? (MXAM)如何優(yōu)化模型架構(gòu),簡(jiǎn)化復(fù)雜度管理步驟,并最終提升軟件質(zhì)量。
    的頭像 發(fā)表于 06-05 11:46 ?330次閱讀
    知識(shí)分享 | 評(píng)估<b class='flag-5'>模型</b><b class='flag-5'>架構(gòu)</b>——如何實(shí)現(xiàn)?

    數(shù)據(jù)大屏開(kāi)發(fā)用 AI 效率翻倍!華為 Astro 大屏應(yīng)用盤古助手,這波操作太震撼了!

    Hey,開(kāi)發(fā)者們!發(fā)布一則最新消息,那就是華為 Astro 大屏應(yīng)用盤古助手的版本發(fā)布了!? 想不想讓自己的數(shù)據(jù)大屏項(xiàng)目變得更快、更智能、
    的頭像 發(fā)表于 02-26 11:44 ?2455次閱讀
    數(shù)據(jù)大屏開(kāi)發(fā)用 AI 效率翻倍!<b class='flag-5'>華為</b><b class='flag-5'>云</b> Astro 大屏應(yīng)用<b class='flag-5'>盤古</b>助手,這波操作太震撼了!

    字節(jié)豆包大模型團(tuán)隊(duì)提出稀疏模型架構(gòu)

    字節(jié)跳動(dòng)豆包大模型Foundation團(tuán)隊(duì)近期研發(fā)出UltraMem,一種創(chuàng)新的稀疏模型架構(gòu),旨在解決推理過(guò)程中的訪存問(wèn)題,同時(shí)確保模型效果不受影響。
    的頭像 發(fā)表于 02-13 15:25 ?871次閱讀

    湘鋼與華為Stack打造鋼鐵大模型,32個(gè)場(chǎng)景應(yīng)用落地

    近日,湘潭鋼鐵集團(tuán)有限公司與華為等合作伙伴攜手,在鋼鐵冶煉行業(yè)大模型應(yīng)用方面取得了里程碑式的突破。基于華為Stack大模型混合
    的頭像 發(fā)表于 02-13 10:20 ?744次閱讀

    字節(jié)跳動(dòng)發(fā)布豆包大模型1.5 Pro

    3.5 Sonnet等模型。 該模型采用大規(guī)模稀疏MoE架構(gòu),使用較小的激活參數(shù)進(jìn)行預(yù)訓(xùn)練,卻能等效7倍激活參數(shù)的Dense模型性能,遠(yuǎn)超業(yè)內(nèi)MoE
    的頭像 發(fā)表于 01-23 10:24 ?954次閱讀

    阿里開(kāi)源Qwen2.5-Coder代碼模型系列

    近日,阿里通義大模型團(tuán)隊(duì)宣布開(kāi)源其通義千問(wèn)代碼模型系列,共包含6款Qwen2.5-Coder模型。這一舉措展示了阿里
    的頭像 發(fā)表于 11-14 11:28 ?1364次閱讀

    IBM發(fā)布Granite 3.0 AI模型家族

    IBM在近日舉行的年度TechXchange大會(huì)上,正式推出了其迄今為止最先進(jìn)的AI模型家族——Granite 3.0。這一系列發(fā)布標(biāo)志著IBM在人工智能技術(shù)領(lǐng)域的又一次重大突破。
    的頭像 發(fā)表于 10-23 17:09 ?912次閱讀

    IBM發(fā)布面向企業(yè)的人工智能模型新版本

    近日,IBM正式發(fā)布了其面向企業(yè)的人工智能模型——Granite 3.0的最新版本,旨在抓住當(dāng)前企業(yè)紛紛擁抱生成式AI技術(shù)的熱潮。與IBM Granite系列中的其他AI
    的頭像 發(fā)表于 10-22 17:32 ?972次閱讀