chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

DeepSeek扔的第二枚開源王炸是什么

A面面觀 ? 2025-02-26 11:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在DeepSeek啟動的“開源周”上(Open Source Week)DeepSeek將陸續(xù)開源5個代碼庫,大家關心的DeepSeek扔的第二枚開源王炸是什么?我們這里來簡單介紹一下。

DeepSeek在其開源周活動中連續(xù)扔出了兩枚震撼業(yè)界的“開源王炸”--FlashMLA與DeepEP。

在25日,也就是DeepSeek開源周的第二天,DeepSeek發(fā)布了名為DeepEP的開源代碼庫。DeepEP是全球首個專為MoE(混合專家)模型訓練和推理設計的通信庫,它的出現填補了該領域專用工具的空白。MoE模型作為一種能夠有效提升AI模型性能和擴展性的架構,近年來在自然語言處理、計算機視覺等領域得到了廣泛應用。然而,MoE模型在訓練和推理過程中,面臨著通信開銷大、算力需求高等挑戰(zhàn)。DeepEP正是針對這些痛點,通過優(yōu)化GPU之間的信息傳輸效率,極大地緩解了從業(yè)者的算力焦慮。

業(yè)界人士多認為DeepEP是首個用于 MoE 模型訓練和推理的開源 EP 通信庫,它填補了MoE模型專用通信工具的空白,為大規(guī)模分布式AI訓練和實時推理場景提供了更高效的底層支持。

DeepEP的核心優(yōu)勢在于其高效的通信機制。在傳統的分布式AI訓練中,GPU之間的通信往往成為性能瓶頸。DeepEP通過一系列創(chuàng)新技術,如低延遲通信協議、智能數據調度等,顯著提升了GPU之間的通信效率。這意味著,原本需要龐大算力支持的重型任務,現在可以在更少的GPU上高效完成。據DeepSeek官方介紹,使用DeepEP后,某些MoE模型的訓練速度可提升數倍,同時降低了對硬件資源的依賴。

wKgZPGe-hzaAY0kcAAFPhfhWeVs959.png

DeepEP的技術性能特點概述:

EP為Expert Parallelism(專家并行),是一種在大規(guī)模分布式AI模型訓練中使用的技術,能用于提升模型并行處理能力和訓練效率。

1、高效通信架構

支持優(yōu)化的全對全通信模式,實現節(jié)點內和節(jié)點間的NVLink與RDMA互聯,提升數據傳輸效率

2、多精度與調度優(yōu)化

原生支持FP8低精度運算調度,降低計算資源消耗。

3、重性能內核

據介紹,高吞吐量內核可適用于訓練和推理預填充場景,最大化數據處理能力;

4、低延遲內核

它針對推理解碼場景設計,采用純RDMA通信和自適應路由技術,減少延遲。

5、資源控制與重疊機制

通過靈活的GPU資源控制策略,實現計算與通信過程的高效重疊,避免資源閑置。

6、深度優(yōu)化場景

針對NVLink到RDMA的非對稱帶寬轉發(fā)場景進行專項優(yōu)化,提升異構網絡下的傳輸性能;

支持SM(Streaming Multiprocessors)數量動態(tài)控制,平衡不同任務(如訓練與推理)的吞吐量需求。

DeepEP與FlashMLA的對比

DeepSeek在其開源周活動中首個開源的項目是FlashMLA;FlashMLA讓AI大模型低成本卻有高性能。

DeepSeek扔的第二枚開源王炸是全棧通信庫DeepEP。與第一枚開源王炸FlashMLA相比,兩者在多個方面存在顯著差異。以下是對這兩者的詳細對比以及外媒的熱議:

1. 功能定位:

● DeepEP:它是全球首個面向MoE(Mixture of Experts)模型的全棧通信庫,旨在優(yōu)化GPU之間的信息傳輸效率,從而極大提升AI模型的訓練與推理效率。

● FlashMLA:專為英偉達Hopper架構GPU(如H800/H100)優(yōu)化的高效MLA解碼內核,旨在顯著提升AI的加速能力,特別是在處理長短句子并行任務時能夠動態(tài)調整計算資源分配,避免算力浪費。

2. 技術特點:

● DeepEP:具備高效的全員通信能力,支持NVLink與RDMA技術,提供高吞吐量的訓練預填充內核以及低延遲的推理解碼內核。原生支持FP8調度,靈活的GPU資源管理能力使得計算和通信可以重疊進行。

● FlashMLA:專為高性能顯卡設計,能夠充分挖掘顯卡性能潛力,被視為AI加速的“渦輪增壓器”。

3. 硬件兼容性:

● DeepEP:具有更廣泛的硬件兼容性,不受特定GPU架構的限制。

● FlashMLA:目前僅適配Hopper架構GPU,國產GPU的兼容性尚待驗證。

DeepSeek的這兩枚開源王炸在國際上引起了廣泛關注。外媒對DeepSeek的評價普遍較高,認為其打破了人們對人工智能研發(fā)需要“高投入、長周期”的傳統認知,提供了低成本、高效能的解決方案。同時,DeepSeek的開源策略也被視為一種促進全球科技進步的積極舉措。

具體來說,外媒對DeepEP和FlashMLA的關注點有所不同。對于DeepEP,外媒主要關注其在優(yōu)化GPU通信效率、提升AI模型訓練與推理效率方面的潛力。而對于FlashMLA,外媒則更側重于其在提升AI加速能力、挖掘顯卡性能潛力方面的表現。

wKgZPGe-hzaARqqDAAE3up7dZtc800.png




DeepSeek的第二枚開源王炸DeepEP與第一枚開源王炸FlashMLA在功能定位、技術特點、硬件兼容性和開源時間等方面存在顯著差異。外媒對這兩者的評價普遍積極,認為它們?yōu)槿斯ぶ悄茴I域帶來了新的突破和進步。


我們知道每一次技術的突破都可能成為推動行業(yè)發(fā)展的關鍵力量。也能夠帶來更多產業(yè)鏈的機遇。比如AI 能力和性能不斷提升,模型的規(guī)模和復雜度持續(xù)增長,面對信息速率和密度不斷提升的AI,技術進步也會遵循摩爾定律,那硬件互連準備好了嗎?

DeepSeek啟動的“開源周”連續(xù)5天(2月24日至28日);歡迎大家繼續(xù)關注DeepSeek的大招。期待更多讓我們驚喜的東西能夠面世。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    4345

    瀏覽量

    46442
  • DeepSeek
    +關注

    關注

    2

    文章

    839

    瀏覽量

    3397
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    百度騰訊搶灘布局!DeepSeek-R1升級和開源背后,國產AI的逆襲之路

    Hugging Face平臺開源。用戶可通過官方網頁、App、小程序進入對話界面后,開啟“深度思考”功能體驗最新版本。API也已同步更新,調用方式不變。 ? DeepSeek-R1-0528編程能力提升
    的頭像 發(fā)表于 06-03 06:34 ?6373次閱讀

    海光信息DCU平臺完成對DeepSeek V4模型極速適配

      4月24日,深度求索正式發(fā)布并開源DeepSeek V4。海光DCU同步完成對DeepSeek V4的Day0適配,以“模型發(fā)布—芯片適配—產業(yè)落地”的高效閉環(huán),為全球開發(fā)者、企業(yè)客戶提供即取即用的部署方案。
    的頭像 發(fā)表于 04-24 17:32 ?219次閱讀

    開源鴻蒙教育委員會(籌)2026師資培訓第二站——西安

    開源鴻蒙教育委員會(籌)2026師資培訓 第二站:西安 時間 :2026年4月25日-4月26日 地點: 西安交通大學興慶校區(qū)西一樓計算機學院實驗室 研修對象 開源鴻蒙高校技術俱樂部與開發(fā)者社團
    的頭像 發(fā)表于 04-16 18:24 ?850次閱讀
    <b class='flag-5'>開源</b>鴻蒙教育委員會(籌)2026師資培訓<b class='flag-5'>第二</b>站——西安

    開源旅行團,第二批中獎名單揭曉!】RT-Thread 20 周年暨開發(fā)者大會火熱報名中

    感受到了來自開源社區(qū)的蓬勃活力與無限熱情。今天,【開源旅行團】的第二批幸運兒正式誕生!他們用行動詮釋了對開源的熱愛,用組隊傳遞了技術的溫度。以下是
    的頭像 發(fā)表于 01-16 17:48 ?1645次閱讀
    【<b class='flag-5'>開源</b>旅行團,<b class='flag-5'>第二</b>批中獎名單揭曉!】RT-Thread 20 周年暨開發(fā)者大會火熱報名中

    沐曦受邀出席第二開源產業(yè)生態(tài)大會

    以“開源筑基·數實維新”為主題的第二開源產業(yè)生態(tài)大會將于1月13日在上海舉行。沐曦受邀出席本次行業(yè)盛會,聯合創(chuàng)始人、CTO兼首席軟件架構師楊建將發(fā)表主題演講并參與圓桌論壇環(huán)節(jié),分享沐曦在開源
    的頭像 發(fā)表于 01-14 13:51 ?401次閱讀

    成都匯陽投資關于國產開源模型持續(xù)突破,國產AI 競爭力增強

    、MiniMax-M2 分別位列全球開源榜單第一 、 第二 ,且榜單前五名中國產開源模型占據四席(Qwen3 235BA22B2507 和 DeepSeek V3.2 Exp 分別位列
    的頭像 發(fā)表于 11-24 14:01 ?730次閱讀

    第二屆中國研究生操作系統開源創(chuàng)新大賽總決賽圓滿落幕

    近日,第二屆中國研究生操作系統開源創(chuàng)新大賽(以下簡稱“大賽”)總決賽在杭州圓滿落幕。作為本次大賽的核心賽題之一,開源鴻蒙賽道共吸引了全國22所頭部高校的55支隊伍參賽,最終17支隊伍脫穎而出入圍決賽
    的頭像 發(fā)表于 10-30 09:53 ?850次閱讀
    <b class='flag-5'>第二</b>屆中國研究生操作系統<b class='flag-5'>開源</b>創(chuàng)新大賽總決賽圓滿落幕

    深開鴻成錄:以七大使能厚植生態(tài),推進開源鴻蒙全面落地

    今日,2025開放原子開源生態(tài)大會正式開幕。深開鴻CEO、開放原子開源基金會理事成錄博士在主論壇發(fā)表主題演講《深扎技術根脈,厚育生態(tài)繁茂,共繪開源鴻蒙產業(yè)生態(tài)新圖景》,全面回顧了深開
    的頭像 發(fā)表于 07-23 13:14 ?1099次閱讀
    深開鴻<b class='flag-5'>王</b>成錄:以七大使能厚植生態(tài),推進<b class='flag-5'>開源</b>鴻蒙全面落地

    【「DeepSeek 核心技術揭秘」閱讀體驗】+混合專家

    感謝電子發(fā)燒友提供學習Deepseek核心技術這本書的機會。 讀完《Deepseek核心技術揭秘》,我深受觸動,對人工智能領域有了全新的認識。了解Deepseek-R1 、Deepseek
    發(fā)表于 07-22 22:14

    【「DeepSeek 核心技術揭秘」閱讀體驗】--全書概覽

    感謝平臺提供的書籍,實物如下 這本書主講從年前開始火熱的DeepSeek 。書籍看起來輕薄,但言簡意賅,通俗易懂,總覽全局,比較精煉。 第一章 介紹DeepSeek的一系列技術突破與創(chuàng)新。 第二
    發(fā)表于 07-21 00:04

    【「DeepSeek 核心技術揭秘」閱讀體驗】書籍介紹+第一章讀后心得

    方面。同時,總結了DeepSeek 成功背后的啟示,如領導者敏銳的技術直覺、長期主義的堅持、極致的工程優(yōu)化等,為讀者提供了寶貴的經驗和啟示。 第6章對 DeepSeek**“開源周”**的多個技術項目
    發(fā)表于 07-17 11:59

    Arm Neoverse N2平臺實現DeepSeek-R1滿血版部署

    今年年初,開源大語言模型 (LLM) DeepSeek 在國內外人工智能 (AI) LLM 領域掀起熱議。它在模型架構和訓練、推理方法上實現創(chuàng)新,在性能和工程效率上帶來了顯著提升,并在成本效率方面
    的頭像 發(fā)表于 07-03 14:37 ?1426次閱讀
    Arm Neoverse N2平臺實現<b class='flag-5'>DeepSeek</b>-R1滿血版部署

    【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術:DeepSeek 核心技術揭秘

    時的基本禮儀和清晰度; 第二次是在強化學習之后 ,收集在訓練中表現優(yōu)秀的解題示例,再混合一些人工整理的題目,重新訓練模型。通過這樣的流程,DeepSeek-R1 就像一個經歷了自學、糾錯、再學習、再實戰(zhàn)
    發(fā)表于 06-09 14:38

    DeepSeek開源新版R1 媲美OpenAI o3

    DeepSeek“悄悄”地又放了一個大招,DeepSeek開源了R1最新0528版本。盡管DeepSeek目前還沒有對該版本進行任何說明,但是根據著名代碼測試平臺Live CodeBe
    的頭像 發(fā)表于 05-29 11:23 ?1490次閱讀

    DeepSeek 引領邊緣 AI 芯片向更高性能、更低功耗、更強泛化能力的方向演進

    量從十億量級到數百億甚至千億級不等。例如,DeepSeek LLM 67B 在多項評測中已超過同級別開源模型。這些模型通常采用 Transformer 架構及如多頭潛在注意力(MLA)、專家混合(MoE
    的頭像 發(fā)表于 05-09 10:27 ?2419次閱讀