chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

幻方量化發(fā)布了國(guó)內(nèi)首個(gè)開源MoE大模型—DeepSeekMoE

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2024-01-23 11:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

幻方量化旗下組織深度求索發(fā)布了國(guó)內(nèi)首個(gè)開源 MoE 大模型 ——DeepSeekMoE,全新架構(gòu),免費(fèi)商用。

今年 4 月,幻方量化發(fā)布公告稱,公司將集中資源和力量,全力投身到服務(wù)于全人類共同利益的人工智能技術(shù)之中,成立新的獨(dú)立研究組織,探索 AGI 的本質(zhì)?;梅綄⑦@個(gè)新組織命名為 “深度求索 (DeepSeek)”。

DeepSeekMoE 的模型、代碼、論文均已同步發(fā)布。

模型下載:https://huggingface.co/deepseek-ai

微調(diào)代碼:https://github.com/deepseek-ai/DeepSeek-MoE

技術(shù)報(bào)告:https://github.com/deepseek-ai/DeepSeek-MoE/blob/main/DeepSeekMoE.pdf

據(jù)介紹,DeepSeekMoE 的多尺度(2B->16B->145B)模型效果均領(lǐng)先:

DeepSeekMoE-2B 可接近 MoE 模型的理論上限2B Dense 模型性能(即相同 Attention/FFN 參數(shù)配比的 2B Dense 模型),僅用了 17.5% 計(jì)算量

DeepSeekMoE-16B 性能比肩 LLaMA2 7B 的同時(shí),僅用了 40% 計(jì)算量,也是本次主力開源模型,40G 顯存可單卡部署

DeepSeekMoE-145B 上的早期實(shí)驗(yàn)進(jìn)一步證明該 MoE 架構(gòu)明顯領(lǐng)先于 Google 的 MoE 架構(gòu) GShard,僅用 28.5%(甚至 18.2%)計(jì)算量即可匹配 67B Dense 模型的性能

c8cd958e-b13a-11ee-8b88-92fbcf53809c.pngc8e00fca-b13a-11ee-8b88-92fbcf53809c.png

混合專家模型 (Mixed Expert Models,簡(jiǎn)稱 MoEs)是用于提高大語言模型效率和準(zhǔn)確度的技術(shù)。這種方法的核心是將復(fù)雜任務(wù)劃分為更小、更易管理的子任務(wù),每個(gè)子任務(wù)由專門的小型模型或 “專家” 負(fù)責(zé),然后根據(jù)輸入數(shù)據(jù)的特性選擇性地激活這些 “專家”。 MoE 核心組成:

專家 (Experts):訓(xùn)練有素的小型神經(jīng)網(wǎng)絡(luò),擅長(zhǎng)特定領(lǐng)域。每個(gè)專家通常專注于處理一種特定類型的數(shù)據(jù)或任務(wù)。專家的設(shè)計(jì)可以是多種形式,如完全連接的網(wǎng)絡(luò)、卷積網(wǎng)絡(luò)等。

門控機(jī)制 (Gating Mechanism):MoE 架構(gòu)決策者,這是一個(gè)智能路由系統(tǒng),負(fù)責(zé)決定哪些專家應(yīng)該被激活來處理當(dāng)前的輸入數(shù)據(jù)。門控機(jī)制基于輸入數(shù)據(jù)的特性,動(dòng)態(tài)地將數(shù)據(jù)分配給不同的專家。

官方稱 DeepSeekMoE 是自研的全新 MoE 框架,主要包含兩大創(chuàng)新:

細(xì)粒度專家劃分:不同于傳統(tǒng) MoE 直接從與標(biāo)準(zhǔn) FFN 大小相同的 N 個(gè)專家里選擇激活 K 個(gè)專家(如 Mistral 7B8 采取 8 個(gè)專家選 2 專家),DeepSeekMoE把 N 個(gè)專家粒度劃分更細(xì),在保證激活參數(shù)量不變的情況下,從 mN 個(gè)專家中選擇激活 mK 個(gè)專家(如 DeepSeekMoE 16B 采取 64 個(gè)專家選 8 個(gè)專家),如此可以更加靈活地組合多個(gè)專家

共享專家分離:DeepSeekMoE 把激活專家區(qū)分為共享專家(Shared Expert)和獨(dú)立路由專家(Routed Expert),此舉有利于將共享和通用的知識(shí)壓縮進(jìn)公共參數(shù),減少獨(dú)立路由專家參數(shù)之間的知識(shí)冗余

c907f634-b13a-11ee-8b88-92fbcf53809c.png






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103651
  • 智能路由
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    7207
  • 卷積網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    43

    瀏覽量

    2559
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    798

    瀏覽量

    1759

原文標(biāo)題:幻方量化開源國(guó)內(nèi)首個(gè)MoE大模型,全新架構(gòu)、免費(fèi)商用

文章出處:【微信號(hào):OSC開源社區(qū),微信公眾號(hào):OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    華為宣布開源盤古7B稠密和72B混合專家模型

    關(guān)鍵一步,為全球開發(fā)者、企業(yè)及研究人員提供強(qiáng)大的技術(shù)支撐。 ? 華為此次開源行動(dòng)涵蓋三大核心板塊:盤古Pro MoE 72B模型權(quán)重與基礎(chǔ)推理代碼已率先上線
    的頭像 發(fā)表于 07-06 05:51 ?6145次閱讀

    華為正式開源盤古7B稠密和72B混合專家模型

    [中國(guó),深圳,2025年6月30日] 今日,華為正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型和基于昇騰的模型
    的頭像 發(fā)表于 06-30 11:19 ?487次閱讀

    瑞芯微模型量化文件構(gòu)建

    模型是一張圖片輸入時(shí),量化文件如上圖所示。但是我現(xiàn)在想量化deepprivacy人臉匿名模型,他的輸入是四個(gè)輸入。該模型訓(xùn)練時(shí)數(shù)據(jù)集只標(biāo)注
    發(fā)表于 06-13 09:07

    上新:小米首個(gè)推理大模型開源 馬斯克:下周推出Grok 3.5

    似乎國(guó)內(nèi)外AI競(jìng)爭(zhēng)日趨白熱化,就在阿里巴巴發(fā)布Qwen3(通義千問3)之后,引發(fā)業(yè)界廣泛關(guān)注;很多大廠在跟進(jìn),大模型不斷上新: 阿里巴巴開源新一代通義千問
    的頭像 發(fā)表于 04-30 16:08 ?798次閱讀

    英偉達(dá)GROOT N1 全球首個(gè)開源人形機(jī)器人基礎(chǔ)模型

    英偉達(dá)GROOT N1 全球首個(gè)開源人形機(jī)器人基礎(chǔ)大模型
    的頭像 發(fā)表于 03-20 11:05 ?1179次閱讀

    DeepSeek扔的第二枚開源王炸是什么

    。 DeepSeek在其開源周活動(dòng)中連續(xù)扔出了兩枚震撼業(yè)界的“開源王炸”--FlashMLA與DeepEP。 ? 在25日,也就是DeepSeek開源周的第二天,DeepSeek發(fā)布
    的頭像 發(fā)表于 02-26 11:05 ?799次閱讀
    DeepSeek扔的第二枚<b class='flag-5'>開源</b>王炸是什么

    Meta組建四大專研小組,深入探索DeepSeek模型

    近日,據(jù)報(bào)道,臉書母公司Meta為了提升其大模型Llama的性能,專門成立了四個(gè)研究小組,深入探索量化巨頭量化旗下的國(guó)產(chǎn)大
    的頭像 發(fā)表于 02-05 14:02 ?466次閱讀

    字節(jié)跳動(dòng)發(fā)布豆包大模型1.5 Pro

    字節(jié)跳動(dòng)正式發(fā)布豆包大模型1.5 Pro。 全新的Doubao -1.5 - pro模型綜合能力顯著增強(qiáng),在知識(shí)、代碼、推理、中文等多個(gè)測(cè)評(píng)基準(zhǔn)上,綜合得分優(yōu)于GPT - 4o、Cl
    的頭像 發(fā)表于 01-23 10:24 ?654次閱讀

    獵戶星空發(fā)布Orion-MoE 8×7B大模型及AI數(shù)據(jù)寶AirDS

    近日,獵戶星空攜手聚云科技在北京共同舉辦了一場(chǎng)發(fā)布會(huì)。會(huì)上,獵戶星空正式揭曉其自主研發(fā)的Orion-MoE 8×7B大模型,并與聚云科技聯(lián)合推出了基于該大
    的頭像 發(fā)表于 11-29 13:57 ?674次閱讀

    騰訊發(fā)布開源MoE大語言模型Hunyuan-Large

    近日,騰訊公司宣布成功推出業(yè)界領(lǐng)先的開源MoE(Mixture of Experts,專家混合)大語言模型——Hunyuan-Large。這款模型不僅在參數(shù)量上刷新
    的頭像 發(fā)表于 11-06 10:57 ?722次閱讀

    全球首個(gè)開源AI標(biāo)準(zhǔn)正式發(fā)布

    近日,在備受矚目的2024年ALL THINGS OPEN大會(huì)上,開源組織Open Source Initiative(OSI)宣布一項(xiàng)重大突破——正式發(fā)布
    的頭像 發(fā)表于 10-31 10:59 ?653次閱讀

    Meta發(fā)布Llama 3.2量化模型

    近日,Meta在開源Llama 3.2的1B與3B模型后,再次為人工智能領(lǐng)域帶來了新進(jìn)展。10月24日,Meta正式推出了這兩個(gè)模型量化版本,旨在進(jìn)一步優(yōu)化
    的頭像 發(fā)表于 10-29 11:05 ?848次閱讀

    深開鴻聯(lián)合深天使發(fā)布國(guó)內(nèi)首個(gè)開源鴻蒙產(chǎn)業(yè)加速營(yíng)

    近日,深圳開鴻數(shù)字產(chǎn)業(yè)發(fā)展有限公司(深開鴻)、深圳市天使投資引導(dǎo)基金管理有限公司(深天使)與深圳市天使投資協(xié)會(huì)攜手發(fā)布國(guó)內(nèi)首個(gè)開源鴻蒙(OpenHarmony)產(chǎn)業(yè)加速營(yíng)。本次加速營(yíng)旨
    的頭像 發(fā)表于 10-01 08:10 ?544次閱讀
    深開鴻聯(lián)合深天使<b class='flag-5'>發(fā)布</b><b class='flag-5'>國(guó)內(nèi)</b><b class='flag-5'>首個(gè)</b><b class='flag-5'>開源</b>鴻蒙產(chǎn)業(yè)加速營(yíng)

    深開鴻聯(lián)合中軟國(guó)際、粵科金融集團(tuán)發(fā)布國(guó)內(nèi)首個(gè)開源鴻蒙創(chuàng)業(yè)投資基金

    在近期舉辦的2024開放原子開源生態(tài)大會(huì)上,深圳開鴻數(shù)字產(chǎn)業(yè)發(fā)展有限公司(以下簡(jiǎn)稱“深開鴻”)攜手中軟國(guó)際、粵科金融集團(tuán)正式發(fā)布國(guó)內(nèi)首個(gè)專注于開源
    的頭像 發(fā)表于 09-30 08:07 ?1090次閱讀
    深開鴻聯(lián)合中軟國(guó)際、粵科金融集團(tuán)<b class='flag-5'>發(fā)布</b><b class='flag-5'>國(guó)內(nèi)</b><b class='flag-5'>首個(gè)</b><b class='flag-5'>開源</b>鴻蒙創(chuàng)業(yè)投資基金

    深開鴻聯(lián)合深天使發(fā)布國(guó)內(nèi)首個(gè)開源鴻蒙產(chǎn)業(yè)加速營(yíng)

    近日,深圳開鴻數(shù)字產(chǎn)業(yè)發(fā)展有限公司(深開鴻)、深圳市天使投資引導(dǎo)基金管理有限公司(深天使)與深圳市天使投資協(xié)會(huì)攜手發(fā)布國(guó)內(nèi)首個(gè)開源鴻蒙(OpenHarmony)產(chǎn)業(yè)加速營(yíng)。本次加速營(yíng)旨
    的頭像 發(fā)表于 09-29 15:28 ?519次閱讀
    深開鴻聯(lián)合深天使<b class='flag-5'>發(fā)布</b><b class='flag-5'>國(guó)內(nèi)</b><b class='flag-5'>首個(gè)</b><b class='flag-5'>開源</b>鴻蒙產(chǎn)業(yè)加速營(yíng)