chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

國(guó)產(chǎn)大模型DeepSeek推出DeepSeek-V3

奇普樂(lè)芯片技術(shù) ? 來(lái)源:奇普樂(lè)芯片技術(shù) ? 2025-01-06 10:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

眾所周知,過(guò)去一年間,大語(yǔ)言模型(LLM)領(lǐng)域經(jīng)歷了翻天覆地的變化...

回望2023年底,OpenAI的GPT-4還是一座難以逾越的高峰,其他AI實(shí)驗(yàn)室都在思考同一個(gè)問(wèn)題:OpenAI究竟掌握了哪些獨(dú)特的技術(shù)秘密?

一年后的今天,形勢(shì)已發(fā)生根本性轉(zhuǎn)變,據(jù)Chatbot Arena排行榜顯示,原始版本的GPT-4(GPT-4-0314)已跌至第70位左右。目前,已有18家機(jī)構(gòu)的70個(gè)模型在性能上超越了這個(gè)曾經(jīng)的標(biāo)桿。

00783262-c9b5-11ef-9310-92fbcf53809c.jpg

圖源:Chatbot Arena

隨著2025年的嶄新啟航,是否意味著AI圈的一顆“王炸”已悄然“引爆”?

近日,國(guó)產(chǎn)大模型DeepSeek推出DeepSeek-V3,一個(gè)強(qiáng)大的混合專(zhuān)家(Mixture-of-Experts, MoE)語(yǔ)言模型,DeepSeek-V3擁有高達(dá)6710億的參數(shù)規(guī)模,但每次推理僅激活370億參數(shù)。

尤其,當(dāng)o1、Claude、Gemini和Llama 3等模型還在為數(shù)億美元的訓(xùn)練成本苦惱時(shí), DeepSeek-V3用557.6萬(wàn)美元的預(yù)算,在2048個(gè)H800 GPU集群上僅花費(fèi)3.7天/萬(wàn)億tokens的訓(xùn)練時(shí)間,就達(dá)到了足以與它們比肩的性能 。

與此同時(shí),DeepSeek-V3相比其他前沿大模型,性能卻足以比肩乃至更優(yōu)。

00c6b108-c9b5-11ef-9310-92fbcf53809c.jpg

DeepSeek-V3與其他大模型性能對(duì)比

其中,這種設(shè)計(jì)使得模型在性能和效率上實(shí)現(xiàn)了完美平衡,在多項(xiàng)模型測(cè)評(píng)中,DeepSeek-V3不僅超越了Llama 3.1 405B等頂級(jí)開(kāi)源模型,更在代碼、數(shù)學(xué)、長(zhǎng)文本處理等領(lǐng)域,與GPT-4o和Claude 3.5 Sonnet等閉源模型分庭抗禮。

其次,通過(guò)671B的總參數(shù)量,在每個(gè)token激活37B參數(shù)的精準(zhǔn)控制下,DeepSeek-V3用14.8萬(wàn)億高質(zhì)量多樣化token,構(gòu)建出了一個(gè)能夠超越所有開(kāi)源模型,直逼GPT-4和Claude-3.5的AI巨人。

另外,在基礎(chǔ)理解能力測(cè)試中,DeepSeek-V3與Claude-3.5模型面對(duì)中文腦筋急轉(zhuǎn)彎“小明的媽媽有三個(gè)孩子”的問(wèn)題,DeepSeek V3表現(xiàn)出色,不僅答對(duì)還進(jìn)行了自我驗(yàn)證。但在英文雙關(guān)語(yǔ)“April Fool's Day”的測(cè)試中則略顯不足,未能理解其中的語(yǔ)言巧思,而Claude3.5Sonnet則輕松應(yīng)對(duì)。

00daead8-c9b5-11ef-9310-92fbcf53809c.jpg

DeepSeek-V3與Claude-3.5實(shí)測(cè)對(duì)比

除此之外,DeepSeek自言,這得益于采用了Multi-head Latent Attention (MLA)和DeepSeek MoE架構(gòu),實(shí)現(xiàn)了高效的推理和經(jīng)濟(jì)高效的訓(xùn)練。

Multi-head Latent Attention (MLA):MLA 通過(guò)對(duì)注意力鍵和值進(jìn)行低秩聯(lián)合壓縮,減少了推理時(shí)的 KV 緩存,同時(shí)保持了與標(biāo)準(zhǔn)多頭注意力(MHA)相當(dāng)?shù)男阅堋?/p>

00f34c36-c9b5-11ef-9310-92fbcf53809c.jpg

DeepSeek-V3 的核心亮點(diǎn)

DeepSeekMoE:DeepSeekMoE 采用了更細(xì)粒度的專(zhuān)家分配策略,每個(gè) MoE 層包含 1 個(gè)共享專(zhuān)家和 256 個(gè)路由專(zhuān)家,每個(gè)令牌激活 8 個(gè)專(zhuān)家,確保了計(jì)算的高效性。

因此,在系統(tǒng)架構(gòu)層面,DeepSeek就使用了專(zhuān)家并行訓(xùn)練技術(shù),通過(guò)將不同的專(zhuān)家模塊分配到不同的計(jì)算設(shè)備上同時(shí)進(jìn)行訓(xùn)練,提升了訓(xùn)練過(guò)程中的計(jì)算效率。

DeepSeek探索出一個(gè)精妙的解決策略,不等到最后再算總和,而是每加128個(gè)數(shù)就把當(dāng)前結(jié)果轉(zhuǎn)移到科學(xué)計(jì)算器上繼續(xù)計(jì)算。其過(guò)程不影響速度,此技術(shù)利用了H800 GPU的特點(diǎn):就像有兩個(gè)收銀員,當(dāng)一個(gè)在結(jié)算購(gòu)物籃的同時(shí),另一個(gè)便可繼續(xù)掃描新商品

這一策略使得模型訓(xùn)練速度大幅提升,畢竟核心計(jì)算能提升100%的速度,而顯存使用減少也非常明顯,并且模型最終的效果精度損失能做到小于0.25%,幾乎無(wú)損。

010b5dee-c9b5-11ef-9310-92fbcf53809c.jpg

DeepSeek 提出的誤差積累解決方法

但由于DeepSeek“大方”開(kāi)源,Open AI水靈靈地被網(wǎng)友cue進(jìn)行橫向?qū)Ρ?,有一種被push的支配感。

Scale AI創(chuàng)始人亞歷山大·王 (Alexander Wang)更表示,DeepSeek-V3帶來(lái)的辛酸教訓(xùn)是:當(dāng)美國(guó)休息時(shí),中國(guó)在工作,以更低的成本、更快的速度迎頭趕上,變得更強(qiáng)。

011e0156-c9b5-11ef-9310-92fbcf53809c.jpg

圖源:X平臺(tái)

簡(jiǎn)言之,這種劇變深刻折射出AI領(lǐng)域的變革。在2023年,超越GPT-4還是一個(gè)值得載入史冊(cè)的重大突破,轉(zhuǎn)眼至2024年,這一成就已然演變?yōu)楹饬宽敿?jí)AI模型的基準(zhǔn)線(xiàn)。

而剛到來(lái)的2025年,DeepSeek用行動(dòng)說(shuō)明,中國(guó)大模型創(chuàng)業(yè)者,共同參與這場(chǎng)全球創(chuàng)新AI競(jìng)賽中。

由于篇幅受限,本次的DeepSeek V3就先介紹這么多......

想了解更多半導(dǎo)體行業(yè)動(dòng)態(tài),請(qǐng)您持續(xù)關(guān)注我們。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 開(kāi)源
    +關(guān)注

    關(guān)注

    3

    文章

    4014

    瀏覽量

    45529
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    340

    瀏覽量

    1256
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    822

    瀏覽量

    2785

原文標(biāo)題:DeepSeek-V3橫空出世,GPT-4時(shí)代終結(jié)?

文章出處:【微信號(hào):奇普樂(lè)芯片技術(shù),微信公眾號(hào):奇普樂(lè)芯片技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】--全書(shū)概覽

    講解Deepseek的使用方法 第三章 深入剖析Deepseek-V3模型架構(gòu)、訓(xùn)練框架、推理階段優(yōu)化、后訓(xùn)練優(yōu)化等關(guān)鍵技術(shù) 第四章關(guān)于DeepSeek-R1的技術(shù)剖析 第五章 從
    發(fā)表于 07-21 00:04

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書(shū)籍介紹+第一章讀后心得

    。 DeepSeek-V3于2024年12月26日正式上線(xiàn),它是深度求索公司在DeepSeek LLM之后推出的又一力作。DeepSeek-V3是一個(gè)擁有6710億個(gè)參數(shù)的混合專(zhuān)家
    發(fā)表于 07-17 11:59

    【書(shū)籍評(píng)測(cè)活動(dòng)NO.62】一本書(shū)讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    DeepSeek-V3 的發(fā)布幾乎沒(méi)有預(yù)熱和炒作,僅憑借其出色的效果和超低的成本迅速走紅。 DeepSeek-R1 則是在 DeepSeek-V3 的基礎(chǔ)上構(gòu)建的推理模型,它在后訓(xùn)練
    發(fā)表于 06-09 14:38

    摩爾線(xiàn)程GPU成功適配Deepseek-V3-0324大模型

    架構(gòu)和全功能GPU的強(qiáng)大技術(shù)實(shí)力,摩爾線(xiàn)程迅速響應(yīng)并完成了對(duì)DeepSeek-V3的無(wú)縫升級(jí),實(shí)現(xiàn)了零報(bào)錯(cuò)、零兼容性問(wèn)題的光速部署,充分展現(xiàn)了摩爾線(xiàn)程在A(yíng)I大模型領(lǐng)域的領(lǐng)先優(yōu)勢(shì)。
    的頭像 發(fā)表于 03-31 11:34 ?1085次閱讀
    摩爾線(xiàn)程GPU成功適配<b class='flag-5'>Deepseek-V3</b>-0324大<b class='flag-5'>模型</b>

    HarmonyOS NEXT開(kāi)發(fā)實(shí)戰(zhàn):DevEco Studio中DeepSeek的使用

    /completions; 點(diǎn)擊Body將model修改為deepseek-chat(對(duì)應(yīng)DeepSeek-V3)或者deepseek-reasoner(對(duì)應(yīng)DeepSeek-R1)
    發(fā)表于 03-07 14:56

    壁仞科技支持DeepSeek-V3滿(mǎn)血版訓(xùn)練推理

    DeepSeek-V3滿(mǎn)血版在國(guó)產(chǎn)GPU平臺(tái)的高效全棧式訓(xùn)練與推理,實(shí)現(xiàn)國(guó)產(chǎn)模型國(guó)產(chǎn)GPU的深度融合優(yōu)化,開(kāi)啟
    的頭像 發(fā)表于 03-04 14:01 ?1895次閱讀

    鴻蒙原生應(yīng)用開(kāi)發(fā)也可以使用DeepSeek

    ://api.DeepSeek.com/chat/completions; 點(diǎn)擊Body將model修改為deepseek-chat(對(duì)應(yīng)DeepSeek-V3)或者deepseek-
    發(fā)表于 02-20 18:06

    了解DeepSeek-V3DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    DeepSeek-V3DeepSeek-R1 是深度求索公司(DeepSeek推出的兩個(gè)不同定位的大模型,其核心差異主要體現(xiàn)在目標(biāo)場(chǎng)
    發(fā)表于 02-14 02:08

    訊飛開(kāi)放平臺(tái)支持DeepSeek

    今天,DeepSeek全系大模型正式上線(xiàn)訊飛開(kāi)放平臺(tái)(包括DeepSeek-V3DeepSeek-R1),支持公有云API調(diào)用、一鍵部署專(zhuān)屬模型
    的頭像 發(fā)表于 02-11 09:27 ?1869次閱讀

    商湯大裝置接入DeepSeek系列模型

    即日起,企業(yè)客戶(hù)和開(kāi)發(fā)者可在商湯大裝置萬(wàn)象平臺(tái)中,快速部署DeepSeek-V3、DeepSeek-R1等模型,可享受3個(gè)月內(nèi)1000萬(wàn)tokens免費(fèi)使用權(quán)益。
    的頭像 發(fā)表于 02-10 10:16 ?1315次閱讀

    弘信電子攜手燧原科技推動(dòng)智算生態(tài)升級(jí)

    2024年12月,國(guó)產(chǎn)模型DeepSeek推出DeepSeek-V3,以極低訓(xùn)練成本實(shí)現(xiàn)媲GPT-4o和Claude Sonnet 3.5
    的頭像 發(fā)表于 02-06 10:43 ?930次閱讀

    AMD將DeepSeek-V3模型集成至Instinct MI300X GPU

    AMD近日宣布了一項(xiàng)重要進(jìn)展,成功將全新的DeepSeek-V3模型集成到其Instinct MI300X GPU上。這一舉措標(biāo)志著AMD在A(yíng)I推理優(yōu)化方面邁出了重要一步。 據(jù)了解
    的頭像 發(fā)表于 02-06 09:41 ?802次閱讀

    百度云與阿里云上線(xiàn)DeepSeek模型部署服務(wù)

    -R1和DeepSeek-V3模型已正式入駐其千帆平臺(tái),并推出了極具吸引力的低價(jià)方案及限時(shí)兩周的免費(fèi)試用服務(wù)。這一舉措旨在讓更多的用戶(hù)能夠體驗(yàn)到AI技術(shù)的魅力,同時(shí)也為百度智能云在A(yíng)I領(lǐng)域的發(fā)展注入了新的活力
    的頭像 發(fā)表于 02-05 15:40 ?1158次閱讀

    AMD集成DeepSeek-V3模型至Instinct MI300X GPU

    AMD近日宣布了一項(xiàng)重要的技術(shù)進(jìn)展,即將全新的DeepSeek-V3模型成功集成到其旗艦級(jí)GPU產(chǎn)品——Instinct MI300X上。這一舉措標(biāo)志著AMD在人工智能推理領(lǐng)域邁出了堅(jiān)實(shí)的一步
    的頭像 發(fā)表于 02-05 13:58 ?766次閱讀

    談?wù)?b class='flag-5'>DeepSeek-v3提到的基礎(chǔ)設(shè)施演進(jìn)

    DeepSeek-v3的感受是, 算法和Infra的非常緊密結(jié)合. 其實(shí)很多大模型團(tuán)隊(duì)的算法和Infra是非常割裂的, 完全同時(shí)懂算法和Infra的人并不多, DeepSeek這個(gè)團(tuán)隊(duì)就是其中之一
    的頭像 發(fā)表于 01-02 10:04 ?1215次閱讀
    談?wù)?b class='flag-5'>DeepSeek-v3</b>提到的基礎(chǔ)設(shè)施演進(jìn)