chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在MAC mini4上安裝Ollama、Chatbox及模型交互指南

jf_23871869 ? 來源:jf_23871869 ? 作者:jf_23871869 ? 2025-03-11 17:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力

一,簡介


本文將指導您如何在MAC mini4上安裝Ollama和Chatbox,并下載Deepseek-r1:32b模型。Ollama是一個用于管理和運行大型語言模型的工具,而Chatbox則是一個用戶友好的聊天界面,用于與這些模型進行交互。Deepseek-r1:32b是一個高性能的語言模型,適用于多種自然語言處理任務。

二,安裝Ollama和Chatbox AI


1,下載安裝Ollama;

訪問Ollama的官方網址:(https://ollama.com/)。下載最新的macOS版本文件。

wKgZPGfP_3uAR4FZAAB0Mn012tA594.png

打開下載的文件雙擊ollama圖標安裝程序進行默認安裝即可。

wKgZO2fP_4GAQkjuAAuvGkzZRiM203.png

2,下載安裝Chatbox;

訪問Chatbox的官方網站(https://chatboxai.app/zh#download)下載最新的macOS版本(.dmg文件)。

wKgZPGfP_4WAKUy0AADGIBAOUww291.png

雙擊下載的.dmg文件,將Chatbox應用程序拖到“應用程序”文件夾中。打開“應用程序”文件夾,雙擊Chatbox圖標啟動應用程序。

wKgZO2fP_4-ACdwGAAHpaKstbZc639.png

三,使用Ollama運行模型


1,打開終端,運行以下命令啟動Deepseek-r1:32b模型:ollama run deepseek-r1:32b(若未下載則會自動進行下載)。

wKgZPGfP_5WASq2KAAmc9jy18so141.png

2,輸入您的問題或文本,模型將生成響應。32B模型下運行得出平均輸出為:4.79token/s。

wKgZO2fP_5qAej9_AALscYPUlHk213.png

四,使用Chatbox與模型交互


1,打開Chatbox應用程序,在設置中,選擇“Ollama”作為后端服務,并輸入Ollama的API地址(默認是`http://localhost:11434`)。

wKgZO2fP_56ALA0lAAOfSlnRiuM613.png

2,選擇“Deepseek-r1:32b”模型。

wKgZPGfP_6KAZHd_AAQYwkfcWGg782.png

3,在聊天界面中輸入您的問題或文本,Chatbox將顯示模型的響應。

wKgZO2fP_6aAN4KwAAvidEm9vcs678.png

五,總結


通過本文的指導,您已經成功在MAC mini4上安裝了Ollama和Chatbox,并部署了Deepseek-r1:32b模型。現在,您可以使用這些工具進行自然語言處理任務,享受高性能的語言模型帶來的便利。

如果你有更好的文章,歡迎投稿!

稿件接收郵箱:nami.liu@pasuntech.com

更多精彩內容請關注“算力魔方?”!

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • DeepSeek
    +關注

    關注

    2

    文章

    836

    瀏覽量

    3281
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    deepin 25安裝OpenClaw的步驟及飛書接入方法

    本篇將從普通用戶視角,分享 deepin 25 安裝 OpenClaw 的步驟及飛書接入方法。
    的頭像 發(fā)表于 02-05 15:17 ?1461次閱讀
    <b class='flag-5'>在</b>deepin 25<b class='flag-5'>上</b><b class='flag-5'>安裝</b>OpenClaw的步驟及飛書接入方法

    如何在NVIDIA Jetson AGX Thor上部署1200億參數大模型

    一期介紹了如何在 NVIDIA Jetson AGX Thor 使用 Docker 部署 vLLM 推理服務,以及使用 Chatbox 作為前端調用 vLLM 運行的模型(上期文章
    的頭像 發(fā)表于 12-26 17:06 ?4861次閱讀
    如何在NVIDIA Jetson AGX Thor上部署1200億參數大<b class='flag-5'>模型</b>

    本地部署openWebUI + ollama+DeepSeek 打造智能知識庫并實現遠程訪問

    。 DeepSeek 作為一個開源的大語言模型,我們可以通過 ZeroNews + openWebUI + ollama的方式,輕松的本地私有化部署 DeepSeek,不受網絡攻擊影響,滿足不同用戶的需求場景。 下面
    的頭像 發(fā)表于 09-10 16:41 ?5397次閱讀
    本地部署openWebUI + <b class='flag-5'>ollama</b>+DeepSeek 打造智能知識庫并實現遠程訪問

    ESP32-P4-MINI開發(fā)板開箱和上手指南來了!速速碼??!

    上期“夢中情板”ESP32-P4-MINI開發(fā)板一出就備受青睞這期我們立馬就端著開箱和上手指南來了!不用驚嘆,我們就是這么迅速,請把“啟明云端權威”打在公屏上好嘛!開箱展示拿到
    的頭像 發(fā)表于 07-25 18:02 ?2168次閱讀
    ESP32-P<b class='flag-5'>4-MINI</b>開發(fā)板開箱和上手<b class='flag-5'>指南</b>來了!速速碼??!

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源大模型,網址為https://ollama.com, 試用該平臺,可以多平臺上部署
    發(fā)表于 07-19 15:45

    為什么無法GPU使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉換為 int 4 和 int8,并在 GPU 使用
    發(fā)表于 06-23 07:11

    V2板子上部署豆包模型調試指南

    V2板子上部署豆包模型調試指南 準備階段 首先,可以觀看大模型實戰(zhàn)(SC171開發(fā)套件V3)并下載工程源碼,之后我們需要在板子
    發(fā)表于 05-25 10:17

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型(1B和7B)

    架構和動態(tài)計算分配技術,保持模型性能的同時顯著降低了計算資源需求。 模型特點: 參數規(guī)模靈活:提供1.5B/7B/33B等多種規(guī)格 混合精度訓練:支持FP16/INT8/INT4量化
    發(fā)表于 04-21 00:39

    如何在Ollama中使用OpenVINO后端

    Ollama 和 OpenVINO 的結合為大型語言模型(LLM)的管理和推理提供了強大的雙引擎驅動。Ollama 提供了極簡的模型管理工具鏈,而 OpenVINO 則通過 Intel
    的頭像 發(fā)表于 04-14 10:22 ?1575次閱讀

    iMX6ULL設置MAC地址,啟動后無法獲得相同的mac id?

    我正在開發(fā)基于 imx6ull 的定制板。 U Boot with Fuse Prog Command 中,我編寫了 mac id,但是啟動后我無法獲得相同的 mac id。還需要
    發(fā)表于 04-10 06:02

    如何基于Android 14i.MX95 EVK運行Deepseek-R1-1.5B和性能

    以下指南 i.MX95 安裝 Android。 https://www.nxp.com/design/design-center/software/embedded-softwar
    發(fā)表于 04-04 06:59

    從DeepSeek到Qwen,AI大模型的移植與交互實戰(zhàn)指南-飛凌嵌入式

    不久前發(fā)布的《技術實戰(zhàn)|OK3588-C開發(fā)板上部署DeepSeek-R1大模型的完整指南》一文中,小編為大家介紹了DeepSeek-R1飛凌嵌入式OK3588-C開發(fā)板
    的頭像 發(fā)表于 03-28 08:06 ?2830次閱讀
    從DeepSeek到Qwen,AI大<b class='flag-5'>模型</b>的移植與<b class='flag-5'>交互</b>實戰(zhàn)<b class='flag-5'>指南</b>-飛凌嵌入式

    如何在RakSmart服務器用Linux系統(tǒng)部署DeepSeek

    選擇 根據需求選擇以下兩種主流方案: 1. 輕量化部署(推薦新手): 工具:Ollama(支持快速安裝模型管理) 步驟: 1. 安裝 Ollama
    的頭像 發(fā)表于 03-14 11:53 ?784次閱讀

    MAC mini4 安裝與使用 ComfyUI 文生圖軟件完整指南

    ,還是簡單的文字配圖,ComfyUI 都能為用戶提供便捷的解決方案,能夠幫助用戶將文本內容轉化為圖像。本教程將指導您如何在 MAC MINI4 安裝并配置 ComfyUI。 二,步驟
    的頭像 發(fā)表于 03-11 17:15 ?3092次閱讀
    <b class='flag-5'>在</b> <b class='flag-5'>MAC</b> <b class='flag-5'>mini4</b> <b class='flag-5'>上</b><b class='flag-5'>安裝</b>與使用 ComfyUI 文生圖軟件完整<b class='flag-5'>指南</b>

    MAC mini4 使用 VSCode 和 Cline 插件對接 Deepseek-R1:32b 的完整指南

    可以 MAC mini4 上高效地編寫和調試代碼。本教程將詳細介紹如何在 MAC mini4
    的頭像 發(fā)表于 03-11 17:14 ?1746次閱讀
    <b class='flag-5'>在</b> <b class='flag-5'>MAC</b> <b class='flag-5'>mini4</b> <b class='flag-5'>上</b>使用 VSCode 和 Cline 插件對接 Deepseek-R1:32b 的完整<b class='flag-5'>指南</b>