背景
AI大模型技術(shù)的持續(xù)進步正在推動千行百業(yè)智能化升級。近日,Meta、Microsoft相繼發(fā)布具有里程碑意義的Llama 3系列和Phi-3系列模型,其中Llama 3包括8B、70B兩種規(guī)格,Phi-3包括mini(3.8B)、small(7B)、medium(14B)三種規(guī)格。為了進一步給開發(fā)者提供更多嘗鮮,愛芯元智的NPU工具鏈團隊迅速響應,已基于AX650N平臺完成 Llama 3 8B和Phi-3-mini模型適配。
Llama 3
上周五,Meta發(fā)布了Meta Llama 3系列語言模型(LLM),具體包括一個8B模型和一個70B模型在測試基準中,Llama 3模型的表現(xiàn)相當出色,在實用性和安全性評估中,與那些市面上流行的閉源模型不相上下。
在架構(gòu)層面,Llama 3選擇了標準的僅解碼(decoder-only)式Transformer架構(gòu),采用包含128K token詞匯表的分詞器。Llama 3使用了超過15T的公開數(shù)據(jù)進行訓練,其中5%為非英文數(shù)據(jù),涵蓋30多種語言,訓練數(shù)據(jù)量是前代Llama 2的七倍。
根據(jù)Meta的測試結(jié)果,Llama 3 8B模型在MMLU、GPQA、HumanEval等多項性能基準上均超過了Gemma 7B和Mistral 7B Instruct,70B模型則超越了名聲在外的閉源模型Claude 3的中間版本Sonnet,和谷歌的Gemini Pro 1.5相比三勝兩負。
實際上板結(jié)果
目前AX650N已經(jīng)完成了Llama 3 8B Int8版本的適配,若采用Int4量化,每秒token數(shù)還能再翻一倍,能滿足正常的人機交流。
Phi-3
Llama 3剛發(fā)布沒多久,競爭對手就來了,而且是可以在手機上運行的小體量模型。
本周二,微軟發(fā)布了自研小尺寸模型Phi-3。盡管Phi-3-mini被優(yōu)化至可部署在手機上,但它的性能可以與Mixtral 8x7B和GPT-3.5等模型相媲美。微軟表示,該創(chuàng)新主要在于用了質(zhì)量更好的訓練數(shù)據(jù)集。
實際上板結(jié)果
目前AX650N已經(jīng)完成了Phi-3-mini Int8版本的適配,已能滿足正常的人機交流。
其他成果
AX650N能第一時間完成Llama 3和Phi-3的適配,源于今年以來相關(guān)團隊悄悄完成了現(xiàn)有NPU工具鏈針對大語言模型的支持和調(diào)優(yōu)。目前除了Llama 3之外,已經(jīng)完成了Llama 2、TinyLlama、Phi-2、Qwen1.5、ChatGLM3等國內(nèi)外主流的開源大語言模型適配。
審核編輯:劉清
-
NPU
+關(guān)注
關(guān)注
2文章
341瀏覽量
20585 -
愛芯元智
+關(guān)注
關(guān)注
1文章
108瀏覽量
5319 -
LLM
+關(guān)注
關(guān)注
1文章
339瀏覽量
1180 -
AI大模型
+關(guān)注
關(guān)注
0文章
391瀏覽量
897
原文標題:愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動AI大模型技術(shù)應用普及
文章出處:【微信號:愛芯元智AXERA,微信公眾號:愛芯元智AXERA】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
愛芯元智亮相2025全球AI芯片峰會
基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測
使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?
后摩智能NPU適配通義千問Qwen3系列模型
愛芯通元NPU適配Qwen2.5-VL-3B視覺多模態(tài)大模型

首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應手
添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略
天數(shù)智芯加速DeepSeek全系列模型適配
在算力魔方上本地部署Phi-4模型

評論