chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型筆記之gem5運(yùn)行模型框架LLama介紹

處理器與AI芯片 ? 來源:處理器與AI芯片 ? 2024-01-22 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一 LLama.cpp

LLama.cpp 支持x86,arm,gpu的編譯。

github下載llama.cpp

https://github.com/ggerganov/llama.cpp.git

2. gem5支持arm架構(gòu)比較好,所以我們使用編譯LLama.cpp。

以下是我對Makefile的修改

e5008006-b8c2-11ee-8b88-92fbcf53809c.png

開始編譯:

make UNAME_M=aarch64

編譯會(huì)使用到aarch64-linux-gnu-gcc-10,編譯成功可以生成一個(gè)main 文件,這里我把main重命名成main_arm_backup了。

可以使用file main查看一下文件:

e5112082-b8c2-11ee-8b88-92fbcf53809c.png

3. 下載一個(gè)大模型的model到llama.cpp/models的目錄下,這里我下載了llama-2-7b-chat.Q2_K.gguf。

這個(gè)模型2bit量化,跑起來不到3G的內(nèi)存。

GGML_TYPE_Q2_K - "type-1" 2-bit quantization in super-blocks containing 16 blocks, each block having 16 weight. Block scales and mins are quantized with 4 bits. This ends up effectively using 2.5625 bits per weight (bpw)

e51b5ed0-b8c2-11ee-8b88-92fbcf53809c.png

4.此時(shí)我們可以本地運(yùn)行以下main和模型,我的prompt是How are you

./main -m ./models/llama-2-7b-chat.Q2_K.gguf -p "How are you"-n 16

下圖最下面一行就是模型自動(dòng)生成的

e522f672-b8c2-11ee-8b88-92fbcf53809c.png

二 gem5

gem5下載編譯好后,我們可以使用gem5.fast運(yùn)行模型了。

build/ARM/gem5.fast

--outdir=./m5out/llm_9

./configs/example/se.py -c

$LLAMA_path/llama.cpp/main-arm

'--options=-m $LLAMA_path/llama-2-7b-chat.Q2_K.gguf -p Hi -n 16'

--cpu-type=ArmAtomicSimpleCPU --mem-size=8GB -n 8

此時(shí)我的prompt是Hi,預(yù)期是n=8,跑8核。

e54e8404-b8c2-11ee-8b88-92fbcf53809c.png

上圖是gem5運(yùn)行大模型時(shí)生成的simout,我增加了AtomicCPU 運(yùn)行指令數(shù)量的打印,這是在gem5的改動(dòng)。

如果你下載的是gem5的源碼,那么現(xiàn)在運(yùn)行起來應(yīng)該只是最前面大模型的輸出。

模型的回答是Hi,I'm a30-year-old male, and 但是我預(yù)期的是8核,實(shí)際上運(yùn)行起來:

e56033a2-b8c2-11ee-8b88-92fbcf53809c.png

可以看出來,實(shí)際上只跑起來4核,定位后發(fā)現(xiàn),模型默認(rèn)是4核,需要增加-t 8選項(xiàng),即threadnumber設(shè)置成8,下面的紅色標(biāo)注的command.

build/ARM/gem5.fast

--outdir=./m5out/llm_9

./configs/example/se.py -c

$LLAMA_path/llama.cpp/main-arm

'--options=-m$LLAMA_path/llama-2-7b-chat.Q2_K.gguf -p Hi -n 16 -t 8'

--cpu-type=ArmAtomicSimpleCPU --mem-size=8GB -n8

e5770ef6-b8c2-11ee-8b88-92fbcf53809c.png

如上圖所示,8核都跑起來了,處理到Hi這個(gè)token的時(shí)候,CPU0執(zhí)行了2.9 Billion指令,相對于4核時(shí)的5.4 Billion約減少了一半。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • ARM
    ARM
    +關(guān)注

    關(guān)注

    135

    文章

    9498

    瀏覽量

    388440
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5092

    瀏覽量

    134393
  • Linux系統(tǒng)
    +關(guān)注

    關(guān)注

    4

    文章

    609

    瀏覽量

    29620
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3435

    瀏覽量

    4958

原文標(biāo)題:大模型筆記【3】 gem5 運(yùn)行模型框架LLama

文章出處:【微信號:處理器與AI芯片,微信公眾號:處理器與AI芯片】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    RISC-V 跑大模型(三):LLaMA中文擴(kuò)展

    這是RISC-V跑大模型系列的第三篇文章,前面我們?yōu)榇蠹?b class='flag-5'>介紹了如何在RISC-V下運(yùn)行LLaMA,本篇我們將會(huì)介紹如何為
    的頭像 發(fā)表于 07-17 17:15 ?1514次閱讀
    RISC-V 跑大<b class='flag-5'>模型</b>(三):<b class='flag-5'>LLaMA</b>中文擴(kuò)展

    【飛騰派4G版免費(fèi)試用】仙女姐姐的嵌入式實(shí)驗(yàn)室五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B

    ,根據(jù)LLaMA官方的介紹,要想運(yùn)行模型需要30GB左右顯存的顯卡支持,這是邊緣終端甚至個(gè)人電腦難以做到的,后來,GitHub上的一位開發(fā)者ggerganov發(fā)布了
    發(fā)表于 12-22 10:18

    無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫運(yùn)行 llama
    發(fā)表于 03-05 08:07

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    gem5中支持Arm TME的工作資料推薦

    1、在gem5里支持armv9 Transactional Memory (TME)擴(kuò)展微處理器的順序執(zhí)行性能到了停滯期,產(chǎn)業(yè)界將通過增加核心數(shù)量來提升更多的性能。結(jié)果就是軟件編程從純順序編程模型
    發(fā)表于 08-05 15:14

    SECS/GEM標(biāo)準(zhǔn)模型分析及應(yīng)用

    SECS/GEM是半導(dǎo)體自動(dòng)化生產(chǎn)中廣泛采用的一個(gè)行業(yè)標(biāo)準(zhǔn)。首先介紹了SECS/GEM標(biāo)準(zhǔn)的整體框架,并分析了其行業(yè)發(fā)展?fàn)顩r,然后依次說明了SECSⅠ/Ⅱ、
    發(fā)表于 08-01 14:25 ?72次下載
    SECS/<b class='flag-5'>GEM</b>標(biāo)準(zhǔn)<b class='flag-5'>模型</b>分析及應(yīng)用

    Gem5 Arm Fullsystem仿真

    如果是基于X86 Ubuntu系統(tǒng)模擬gem5 arch,制作disk image比較簡單,可以git clone gem5 resource, 在spec2017文件夾
    的頭像 發(fā)表于 01-04 14:11 ?3075次閱讀

    Meta發(fā)布開源大模型Code Llama 70B

    近日,Meta宣布推出了一款新的開源大模型Code Llama 70B,這是其“Code Llama家族中體量最大、性能最好的模型版本”。這款新模型
    的頭像 發(fā)表于 01-31 09:24 ?1669次閱讀

    英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型

    速度比原70B大模型提升2.2倍,具備更準(zhǔn)確和更高效的運(yùn)算效率;能夠大幅降低運(yùn)行成本。 ? ? ? 通過NAS技術(shù)微調(diào);大幅降低了內(nèi)存消耗、計(jì)算復(fù)雜性;Llama-3.1-Nemotron-51B AI
    的頭像 發(fā)表于 09-26 17:30 ?1182次閱讀

    亞馬遜云科技正式上線Meta Llama 3.2模型

    亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發(fā)表于 10-11 09:20 ?1176次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMak
    的頭像 發(fā)表于 10-11 18:08 ?962次閱讀

    Llama 3 語言模型應(yīng)用

    在人工智能領(lǐng)域,語言模型的發(fā)展一直是研究的熱點(diǎn)。隨著技術(shù)的不斷進(jìn)步,我們見證了從簡單的關(guān)鍵詞匹配到復(fù)雜的上下文理解的轉(zhuǎn)變。 一、Llama 3 語言模型的核心功能 上下文理解 :Llama
    的頭像 發(fā)表于 10-27 14:15 ?1136次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個(gè)開源的大語言模型服務(wù)工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運(yùn)行過程,請參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》,一條命令完成
    的頭像 發(fā)表于 11-23 17:22 ?4420次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> 3.2 Vision<b class='flag-5'>模型</b>本地部署

    大語言模型開發(fā)框架是什么

    大語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言模型開發(fā)
    的頭像 發(fā)表于 12-06 10:28 ?811次閱讀

    一文讀懂 | SECS/GEM 通信基礎(chǔ)及 GEM 控制狀態(tài)模型

    的核心支柱。本文將為您介紹GEM標(biāo)準(zhǔn),并開啟一個(gè)由5篇文章組成的系列,闡述GEM的各項(xiàng)特性與優(yōu)勢。什么是GEM標(biāo)準(zhǔn)?
    的頭像 發(fā)表于 08-19 13:46 ?3552次閱讀
    一文讀懂  |  SECS/<b class='flag-5'>GEM</b> 通信基礎(chǔ)及 <b class='flag-5'>GEM</b> 控制狀態(tài)<b class='flag-5'>模型</b>