DeepSeek在arXiv上上傳了一篇介紹 NSA 的論文。根據(jù) arXiv 網(wǎng)站上發(fā)布的論文摘要顯示,“我們提出了NSA,這是一種原生可訓練的稀疏注意力機制,它將算法創(chuàng)新與硬件對齊的優(yōu)化相結合,以實現(xiàn)高效的長上下文建模?!?/p>
論文稱,NSA 在通用基準檢驗、長文本任務和基于指令的推理中均能達到或超越全注意力模型的表現(xiàn)。稀疏注意力為提高效率同時保持模型能力提供了一個有前景的方向。
實驗顯示,NSA 不僅在通用任務和長上下文任務中表現(xiàn)出色,還在例如鏈式推理等復雜任務中展現(xiàn)強大的潛力,且推理速度加快。
在通用基準檢驗、長文本處理以及基于指令的推理任務中,NSA 的表現(xiàn)均能達到甚至超越傳統(tǒng)全注意力(Full Attention)模型的水平,以性價比極高的方式,罕見地在訓練階段應用稀疏性,在訓練推理場景中顯著提升速度,特別是在譯碼階段實現(xiàn)高達 11.6 倍的提升。
透過高效的長序列處理能力,NSA 使模型能夠直接處理整本書、代碼庫或多輪對話(如千輪客服場景),擴展大語言模型在文文件分析、代碼生成、復雜推理等領域的應用邊界。例如,Gemini 1.5 Pro 已展示長上下文的潛力,NSA 能進一步降低這類模型的訓練與推理成本。
在這篇名題為「原生稀疏注意力:硬件對齊且可原生訓練的稀疏注意力機制」(Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention)的論文署名中,DeepSeek 創(chuàng)始人梁文鋒也是共同作者。
中國人工智能軟件巨頭商湯科技智能產(chǎn)業(yè)研究院前院長田鋒表示,隨著全球人工智能競爭持續(xù)升溫,不同的公司在不同領域展示了競爭優(yōu)勢。據(jù)田鋒介紹,DeepSeek 開發(fā)的資源高效的開源模型在數(shù)學推理和軟件工程任務方面表現(xiàn)出色,而 OpenAI 的 o1 在一般知識和解決問題方面表現(xiàn)更佳。
我們看到,來自中國人工智能公司還展示了各種優(yōu)勢,包括競爭性能和成本效益。田鋒強調:“通過利用替代數(shù)據(jù)源、開發(fā)自主技術以及促進國內(nèi)技術生態(tài)系統(tǒng)內(nèi)的合作,DeepSeek 和其他中國人工智能公司能夠創(chuàng)造出不僅滿足國內(nèi)需求而且能夠提高全球競爭力的解決方案,”
這是自1月20日DeepSeek發(fā)布R1模型震撼AI圈以來,DeepSeek首次發(fā)布的技術動態(tài)。
-
AI大模型
+關注
關注
0文章
398瀏覽量
999 -
DeepSeek
+關注
關注
2文章
835瀏覽量
3269
發(fā)布評論請先 登錄
千方集團持續(xù)推動公路貨運實現(xiàn)降本增效
ERP上云 = 降本增效?一文讀懂ERP云業(yè)務應用&遷移核心優(yōu)勢
停車場照明煥新記:晶映節(jié)能改造的降本增效實踐?
【「DeepSeek 核心技術揭秘」閱讀體驗】+混合專家
【「DeepSeek 核心技術揭秘」閱讀體驗】第三章:探索 DeepSeek - V3 技術架構的奧秘
【「DeepSeek 核心技術揭秘」閱讀體驗】書籍介紹+第一章讀后心得
信而泰×DeepSeek:AI推理引擎驅動網(wǎng)絡智能診斷邁向 “自愈”時代
【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術:DeepSeek 核心技術揭秘
IBM探索AI驅動的降本增效新路徑
福田歐曼銀河5助力物流運輸行業(yè)降本增效
PLC遠程維護上下載,降本增效減少出差的利器
Deepseek海思SD3403邊緣計算AI產(chǎn)品系統(tǒng)
首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側AI模型接入得心應手
科通技術推出DeepSeek+AI芯片全場景方案
鑫金暉亮相【2025年行家說LED顯示屏及MLED產(chǎn)業(yè)鏈峰會】賦能COB/LED自動化烘烤工藝改革-開啟降本增效的新引擎
DeepSeek發(fā)表重磅論文!推出NSA技術,讓AI模型降本增效
評論