近日,昆侖萬(wàn)維公司宣布開源一款名為Skywork-MoE的稀疏大模型,該模型擁有高達(dá)2千億參數(shù),不僅性能強(qiáng)勁,而且推理成本更低,為人工智能領(lǐng)域帶來(lái)了新的突破。
Skywork-MoE基于昆侖萬(wàn)維之前開源的Skywork-13B模型進(jìn)行擴(kuò)展,是首個(gè)完整應(yīng)用并落地的開源千億MoE大模型。MoE(Mixture of Experts)技術(shù)在此模型中得到了充分的應(yīng)用,使得模型在處理復(fù)雜任務(wù)時(shí)能夠更加高效和準(zhǔn)確。
值得一提的是,Skywork-MoE還是首個(gè)支持用單臺(tái)4090服務(wù)器推理的開源千億MoE大模型。這一特性極大地降低了模型的使用門檻,使得更多的企業(yè)和研究機(jī)構(gòu)能夠輕松地使用這一強(qiáng)大的模型進(jìn)行研究和應(yīng)用。
昆侖萬(wàn)維公司表示,Skywork-MoE的模型權(quán)重和技術(shù)報(bào)告將完全開源,并免費(fèi)提供給商業(yè)使用。這一舉措將極大地推動(dòng)人工智能領(lǐng)域的發(fā)展,為更多的企業(yè)和研究機(jī)構(gòu)提供強(qiáng)大的技術(shù)支持和合作機(jī)會(huì)。
Skywork-MoE的開源不僅展示了昆侖萬(wàn)維公司在人工智能領(lǐng)域的技術(shù)實(shí)力,也體現(xiàn)了公司對(duì)于推動(dòng)行業(yè)發(fā)展的堅(jiān)定承諾。未來(lái),我們期待看到更多基于Skywork-MoE的優(yōu)秀應(yīng)用和研究成果的出現(xiàn)。
-
人工智能
+關(guān)注
關(guān)注
1811文章
49498瀏覽量
258220 -
開源
+關(guān)注
關(guān)注
3文章
3879瀏覽量
45220 -
大模型
+關(guān)注
關(guān)注
2文章
3348瀏覽量
4720 -
昆侖萬(wàn)維
+關(guān)注
關(guān)注
0文章
17瀏覽量
95
發(fā)布評(píng)論請(qǐng)先 登錄
大規(guī)模專家并行模型在TensorRT-LLM的設(shè)計(jì)

【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】基于MOE混合專家模型的學(xué)習(xí)和思考-2
如何在NVIDIA Blackwell GPU上優(yōu)化DeepSeek R1吞吐量

評(píng)論