chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動(dòng)AI大模型技術(shù)普及

愛芯元智AXERA ? 來源:愛芯元智AXERA ? 2024-04-26 16:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

背景

AI大模型技術(shù)的持續(xù)進(jìn)步正在推動(dòng)千行百業(yè)智能化升級(jí)。近日,Meta、Microsoft相繼發(fā)布具有里程碑意義的Llama 3系列和Phi-3系列模型,其中Llama 3包括8B、70B兩種規(guī)格,Phi-3包括mini(3.8B)、small(7B)、medium(14B)三種規(guī)格。為了進(jìn)一步給開發(fā)者提供更多嘗鮮,愛芯元智的NPU工具鏈團(tuán)隊(duì)迅速響應(yīng),已基于AX650N平臺(tái)完成 Llama 3 8B和Phi-3-mini模型適配。

Llama 3

上周五,Meta發(fā)布了Meta Llama 3系列語言模型(LLM),具體包括一個(gè)8B模型和一個(gè)70B模型在測(cè)試基準(zhǔn)中,Llama 3模型的表現(xiàn)相當(dāng)出色,在實(shí)用性和安全性評(píng)估中,與那些市面上流行的閉源模型不相上下。

ef8a8238-03a9-11ef-a297-92fbcf53809c.png

在架構(gòu)層面,Llama 3選擇了標(biāo)準(zhǔn)的僅解碼(decoder-only)式Transformer架構(gòu),采用包含128K token詞匯表的分詞器。Llama 3使用了超過15T的公開數(shù)據(jù)進(jìn)行訓(xùn)練,其中5%為非英文數(shù)據(jù),涵蓋30多種語言,訓(xùn)練數(shù)據(jù)量是前代Llama 2的七倍。

根據(jù)Meta的測(cè)試結(jié)果,Llama 3 8B模型在MMLU、GPQA、HumanEval等多項(xiàng)性能基準(zhǔn)上均超過了Gemma 7B和Mistral 7B Instruct,70B模型則超越了名聲在外的閉源模型Claude 3的中間版本Sonnet,和谷歌的Gemini Pro 1.5相比三勝兩負(fù)。

efa71060-03a9-11ef-a297-92fbcf53809c.png

實(shí)際上板結(jié)果

目前AX650N已經(jīng)完成了Llama 3 8B Int8版本的適配,若采用Int4量化,每秒token數(shù)還能再翻一倍,能滿足正常的人機(jī)交流。

Phi-3

Llama 3剛發(fā)布沒多久,競(jìng)爭(zhēng)對(duì)手就來了,而且是可以在手機(jī)上運(yùn)行的小體量模型。

本周二,微軟發(fā)布了自研小尺寸模型Phi-3。盡管Phi-3-mini被優(yōu)化至可部署在手機(jī)上,但它的性能可以與Mixtral 8x7B和GPT-3.5等模型相媲美。微軟表示,該創(chuàng)新主要在于用了質(zhì)量更好的訓(xùn)練數(shù)據(jù)集。

efcbd13e-03a9-11ef-a297-92fbcf53809c.jpg

efe2ec48-03a9-11ef-a297-92fbcf53809c.png

實(shí)際上板結(jié)果

目前AX650N已經(jīng)完成了Phi-3-mini Int8版本的適配,已能滿足正常的人機(jī)交流。

其他成果

AX650N能第一時(shí)間完成Llama 3和Phi-3的適配,源于今年以來相關(guān)團(tuán)隊(duì)悄悄完成了現(xiàn)有NPU工具鏈針對(duì)大語言模型的支持和調(diào)優(yōu)。目前除了Llama 3之外,已經(jīng)完成了Llama 2、TinyLlama、Phi-2、Qwen1.5、ChatGLM3等國(guó)內(nèi)外主流的開源大語言模型適配。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NPU
    NPU
    +關(guān)注

    關(guān)注

    2

    文章

    359

    瀏覽量

    20849
  • 愛芯元智
    +關(guān)注

    關(guān)注

    1

    文章

    121

    瀏覽量

    5386
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    341

    瀏覽量

    1260
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    395

    瀏覽量

    942

原文標(biāo)題:愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動(dòng)AI大模型技術(shù)應(yīng)用普及

文章出處:【微信號(hào):愛芯元智AXERA,微信公眾號(hào):愛芯元智AXERA】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    智邊緣AI芯片AX8850完成CosyVoice2大模型適配

    今年下半年,隨著業(yè)務(wù)推廣需求增加,我們的大模型適配工作也有了新方向:不再只追求前沿模型的快速適配,而是更聚焦為銷售團(tuán)隊(duì)提供“能打”的實(shí)戰(zhàn)“彈藥”——也就是貼近客戶剛需的、可快速落地的大
    的頭像 發(fā)表于 12-11 10:35 ?2150次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智邊緣<b class='flag-5'>AI</b>芯片AX8850<b class='flag-5'>完成</b>CosyVoice2大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>

    如何利用NPU模型壓縮技術(shù)優(yōu)化邊緣AI

    ,AI 模型體積龐大,部署在 NPU上常常面臨困難,這凸顯了模型壓縮技術(shù)的重要性。要實(shí)現(xiàn)高效的實(shí)時(shí)邊緣
    的頭像 發(fā)表于 11-07 15:26 ?1059次閱讀
    如何利用<b class='flag-5'>NPU</b>與<b class='flag-5'>模型</b>壓縮<b class='flag-5'>技術(shù)</b>優(yōu)化邊緣<b class='flag-5'>AI</b>

    智亮相2025全球AI芯片峰會(huì)

    2025全球AI芯片峰會(huì)(GACS 2025)近日在上海召開,智聯(lián)合創(chuàng)始人、副總裁劉建偉出席活動(dòng),并于“大模型
    的頭像 發(fā)表于 09-26 15:49 ?687次閱讀

    基于米爾瑞微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評(píng)測(cè)

    關(guān)鍵詞:瑞微 RK3576、NPU(神經(jīng)網(wǎng)絡(luò)處理器)、端側(cè)小語言模型(SLM)、多模態(tài) LLM、邊緣 AI 部署、開發(fā)板、RKLLM隨著大語言
    發(fā)表于 08-29 18:08

    智攜手靈境聲學(xué)推出“聲”音頻解決方案

    Umix AI”全景聲行業(yè)大模型的專屬音頻芯片方案——“聲”。該方案搭載靈境聲學(xué)自研的“靈境Umix
    的頭像 發(fā)表于 08-01 10:43 ?4485次閱讀

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型
    的頭像 發(fā)表于 05-16 16:23 ?787次閱讀

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時(shí)不到1天,后摩智能自研NPU迅速實(shí)現(xiàn)Qwen3 系列模型(Qwen
    的頭像 發(fā)表于 05-07 16:46 ?1133次閱讀

    NPU適配Qwen2.5-VL-3B視覺多模態(tài)大模型

    熟悉NPU的網(wǎng)友很清楚,從去年開始我們?cè)诙藗?cè)多模態(tài)大模型適配上一直處于主動(dòng)緊跟的節(jié)奏。先
    的頭像 發(fā)表于 04-21 10:56 ?2608次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b>通<b class='flag-5'>元</b><b class='flag-5'>NPU</b><b class='flag-5'>適配</b>Qwen2.5-VL-<b class='flag-5'>3</b>B視覺多模態(tài)大<b class='flag-5'>模型</b>

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    AI的演進(jìn)正在逼近“終端智能涌現(xiàn)”的拐點(diǎn),從通用模型向場(chǎng)景落地遷移成為關(guān)鍵議題。聯(lián)發(fā)科以“AI,應(yīng)用無界”為主題召開天璣開發(fā)者大會(huì)2025(MDDC 2025),不僅聚合了全球生態(tài)
    發(fā)表于 04-13 19:52

    AI SoC # 智AX650N詳細(xì)介紹:原生支持Transformer架構(gòu)模型 適用部署DeepSeek R1

    AX650N是智(AXERA)推出的一款高性能邊緣側(cè)AI芯片,專注于智能視覺感知與計(jì)算,廣泛應(yīng)用于智慧城市、智能制造、機(jī)器人等領(lǐng)域。以下是其核心特性及應(yīng)用場(chǎng)景的詳細(xì)分析: *附件
    的頭像 發(fā)表于 03-04 11:15 ?7273次閱讀
    <b class='flag-5'>AI</b> SoC # <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智AX650N詳細(xì)介紹:原生支持Transformer架構(gòu)<b class='flag-5'>模型</b> 適用部署DeepSeek R1

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測(cè)試 DeepSeek 模型全攻略

    能精準(zhǔn)理解自然語言,生成高質(zhì)量文本,還免費(fèi)向全球開發(fā)者開放,極大地推動(dòng)AI 技術(shù)普及與應(yīng)用,為無數(shù)開發(fā)者打開了全新的探索大門。今天,我們就一起深入探討如何在 RK3588 開發(fā)板
    發(fā)表于 02-14 17:42

    天數(shù)智加速DeepSeek全系列模型適配

    R1-Distill-Qwen系列模型,包括1.5B、7B、14B和32B等不同參數(shù)版本,以及DeepSeek R1-Distill-Llama系列的8B和70B版本,均已完成適配
    的頭像 發(fā)表于 02-10 15:30 ?1411次閱讀

    在算力魔方上本地部署Phi-4模型

    ?作者:算力魔方創(chuàng)始人/英特爾邊緣計(jì)算創(chuàng)新大使 劉力 前面我們分享了《Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑》,Llama 3.3 70B
    的頭像 發(fā)表于 01-15 11:05 ?792次閱讀
    在算力魔方上本地部署<b class='flag-5'>Phi</b>-4<b class='flag-5'>模型</b>

    Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

    新的高度。 一,技術(shù)突破:開源智能的新高度 Llama 3.3 70B 模型的發(fā)布,標(biāo)志著開源AI模型在智能水平上的一大飛躍。它不僅達(dá)到了之
    的頭像 發(fā)表于 12-18 16:46 ?900次閱讀
    Meta重磅發(fā)布<b class='flag-5'>Llama</b> 3.3 70B:開源<b class='flag-5'>AI</b><b class='flag-5'>模型</b>的新里程碑