chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于OpenClaw和NVIDIA DGX Spark實戰(zhàn)部署本地最強AI組合

麗臺科技 ? 來源:麗臺科技 ? 2026-03-02 15:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、熱潮背后的“隱形焦慮”:為什么你的 AI 助手總是不好用?

OpenClaw(原 Clawdbot)正以驚人的速度席卷 GitHub。它不再是只會聊天的窗口,而是擁有“手腳”的 AI Agent:接管電腦、整理發(fā)票、監(jiān)控股票、秒回飛書。

然而,第一批嘗試“養(yǎng)龍蝦”的用戶卻普遍陷入了三大焦慮:

燒錢如流水:為了讓 Agent 足夠聰明,高頻調用 API,一晚上自動化任務能夠輕松燒掉幾百塊 Token。

隱私在裸奔:要讓它整理合同、分析財務,就必須把機密文件上傳到云端大模型,數據安全命懸一線。

穩(wěn)定性堪憂:普通的筆記本無法承載 7 x 24 小時的高強度并發(fā),網絡波動、系統(tǒng)休眠,讓“全天候助理”頻頻掉線。

熱潮之下,真相浮現:OpenClaw 是頂級的軟件架構,卻缺一個能真正承載它的硬件軀體。AI Agent 的終極形態(tài),終究是“軟硬一體”。

二、天選之地:為何 NVIDIA DGX Spark是 OpenClaw 的完美宿主?

如果說 OpenClaw 是鋼鐵俠電影中的的“賈維斯”,那么 NVIDIA DGX Spark就是那套鋼鐵戰(zhàn)甲。

作為一款桌面級 AI 超級計算機,DGX Spark 的出現,完美解決了 OpenClaw 落地企業(yè)、高端個人用戶的三大死穴:

1. 算力本地化:從“按次付費”到“終身免費”

DGX Spark 搭載 Blackwell 架構 GPU。這意味著你可以直接在本地運行 DeepSeek、Qwen 等頂級開源大模型。

邊際成本趨零:告別昂貴的 API 賬單,7 × 24 小時狂跑也不心疼。

響應零延遲:本地內網通信,徹底終結云端排隊和網絡波動。

2.數據主權:物理隔絕的安全感

對于金融、法律及研發(fā)行業(yè),數據就是生命。

絕對私密:OpenClaw 的記憶存儲與推理過程全部鎖在 DGX Spark 內部。

物理隔離:真正實現“數據不出屋,模型知天下”。

3.架構級適配:7 x 24 小時的“不眠大腦”

不同于會過熱、會休眠的普通電腦,DGX Spark 專為 AI 長時運行設計:

高能效比:ARM64 架構確保了高性能與低功耗的平衡。

極致安靜:放在辦公桌旁,它就是你最安靜、最忠誠的 007 數字員工。

當你把 OpenClaw 部署在 NVIDIA DGX Spark 上,你得到的不再是一個簡單的聊天機器人,而是一個:

0 Token 成本

100% 數據私有

永不掉線

的超級本地 AI 員工。

三、實戰(zhàn)部署:手把手教你搭建“本地最強 AI 組合”

接下來,直接上干貨,帶大家看一看:如何在 DGX Spark 上,親手部署這套“本地最強 AI 組合”!

階段一:部署 Ollama 本地模型服務

在安裝 OpenClaw 前,需先搭建本地大模型推理環(huán)境。Ollama 作為輕量級本地模型服務框架,可高效承載 DeepSeek、Qwen、GPT-OSS 等開源模型,為 OpenClaw 提供穩(wěn)定、低延遲的推理能力。

1.1 安裝 Ollama

執(zhí)行官方腳本自動部署:

curl-fsSL https://ollama.com/install.sh | sh
44d0ed3c-13b0-11f1-90a1-92fbcf53809c.png

安裝完成后,Ollama 服務默認以后臺進程方式運行,監(jiān)聽 127.0.0.1:11434。

1.2 拉取企業(yè)級大模型(以 gpt-oss:20b 為例)

ollamarun gpt-oss:20b
45328b64-13b0-11f1-90a1-92fbcf53809c.png

提示:首次運行將自動下載模型文件(約數 10GB),請確保磁盤空間充足并保持網絡穩(wěn)定。

1.3 配置網絡監(jiān)聽(開啟遠程訪問權限)

默認僅限本機訪問。若需局域網調用,須暴露服務:

檢查當前狀態(tài):sudo ss -tlnp | grep 11434

若輸出含 127.0.0.1:11434,表示僅限本地訪問

啟用全網監(jiān)聽:

#停止現有服務后,通過環(huán)境變量啟動開放監(jiān)聽:
exportOLLAMA_HOST=0.0.0.0
exportOLLAMA_MODELS=/usr/share/ollama/.ollama/models
ollama serve

安全提示:開放 0.0.0.0 可能帶來安全風險,建議在受信任的內網環(huán)境使用,或配合防火墻限制訪問源。

驗證監(jiān)聽生效:sudo ss -tlnp | grep 11434

正確配置后應顯示 *:11434 或 0.0.0.0:11434

至此,本地大模型環(huán)境準備就緒,下一步可繼續(xù)部署 OpenClaw 客戶端并對接該服務。

階段二:OpenClaw 安裝與交互式配置

完成 Ollama 本地模型服務部署后,即可安裝并配置 OpenClaw 客戶端,將其與本地大模型打通,打造專屬“數字員工”。

2.1 安裝 OpenClaw

執(zhí)行官方安裝腳本,自動完成 CLI 工具部署:

curl-fsSL https://openclaw.ai/install.sh | bash

4586c21a-13b0-11f1-90a1-92fbcf53809c.png

安裝完成后,如果沒有直接進入初始化配置,需刷新終端環(huán)境變量以立即生效:source ~/.bashrc。

2.2 初始化配置

鍵盤方向鍵游動光標,空格鍵選擇,回車確認。

運行以下命令并按提示選擇:

openclaw onboard--install-daemon

“I understand this is powerful and inherently risky. Continue?”選擇“Yes”。

45e07080-13b0-11f1-90a1-92fbcf53809c.png

“Onboarding mode”選擇“QuickStart”;快速啟動模式,適合新手。

46374568-13b0-11f1-90a1-92fbcf53809c.png

“Model / auth provider”選擇“Skip for now”;暫不配置,后續(xù)可通過 Web UI 精細設置。

468f1108-13b0-11f1-90a1-92fbcf53809c.png

“Filter models by provider”選擇“All providers”;顯示全部可用模型來源。

46e56648-13b0-11f1-90a1-92fbcf53809c.png

“Default model”選擇“Enter model manually”;指定本地 Ollama 模型,輸入ollama/gpt-oss:20b。

473d5e70-13b0-11f1-90a1-92fbcf53809c.png

“Select channel(QuickStart)”選擇“Skip for now”先跳過。

479332f0-13b0-11f1-90a1-92fbcf53809c.png

“Configure skills now?(recommended)”選擇“Yes”。

47ebbe66-13b0-11f1-90a1-92fbcf53809c.png

“Enable hooks?”選擇“Skip for now”,可后續(xù)添加。

48440684-13b0-11f1-90a1-92fbcf53809c.png

“How do you want to hatch your bot?”這里選擇“Open the Web UI”。

4899150c-13b0-11f1-90a1-92fbcf53809c.png

此時,OpenClaw 服務已啟動,并會生成一個Dashboard Link(包含 Token 的鏈接)。

2.3 遠程連接—建立安全隧道

如果給 DGX spark 接了顯示器后直接操作,點擊終端里的 Dashboard Link 即可進入 Web UI。但在更常見的遠程管理場景下,OpenClaw 出于安全機制,默認只允許服務器本機訪問 Web UI,外部 IP 無法直接打開。所以需要建立一條 SSH 隧道。

Windows 用戶可按 Win + R 輸入 cmd 打開終端執(zhí)行命令。

48ee9cd4-13b0-11f1-90a1-92fbcf53809c.png

終端執(zhí)行:

ssh-N -L18789:127.0.0.1:18789leadtek@192.168.1.183

隧道建立成功后,復制終端輸出的 Dashboard 鏈接(含 token),在本地瀏覽器中打開即可進入 Web 界面。

49447fe6-13b0-11f1-90a1-92fbcf53809c.png

階段三:對接 Ollama 模型供應商

3.1 進入配置頁面

進入 Web 界面后,點擊左側導航欄 Config → Models → Providers,點擊 + Add Entry 添加模型供應商:

499a6618-13b0-11f1-90a1-92fbcf53809c.png

3.2 添加 Ollama 供應商

custom-1 修改為 Ollama,這里其實就是供應商名字,為了和前面填寫的 Ollama 對應,所以這里填寫 Ollama,可以換成別的名稱,前后對應即可。

49f2090e-13b0-11f1-90a1-92fbcf53809c.png

Api 選擇 openai-responses。

4a46fe1e-13b0-11f1-90a1-92fbcf53809c.png

Api Key 任意填寫,這里填寫 123,Auth 選擇 api-key,同時勾選 Auth Header。

4a9efbdc-13b0-11f1-90a1-92fbcf53809c.png

Base Url 填寫http://{本地 ip}:11434/v1,這里{本地 ip}切換為 Ollama 部署的ip,例如:http://192.168.1.183:11434/v1。

模型選擇 + Add:

4af7938c-13b0-11f1-90a1-92fbcf53809c.png

api 依舊選擇 openai-responses,Max Tokens Field選擇 max_tokens,Context Window 填寫 128,000。

4b4ba008-13b0-11f1-90a1-92fbcf53809c.png

這里的填寫 ollama list 中顯示的名稱,gpt-oss:20b,Max Tokens 填寫 8192,Name 也填寫為 ollama list 中后續(xù)需要選擇的模型。

4ba2cab8-13b0-11f1-90a1-92fbcf53809c.png

點擊 Save 完成,系統(tǒng)將自動加載模型并可用于后續(xù)任務調度。

至此,OpenClaw 已成功對接本地 Ollama 服務,可調用 gpt-oss:20b 等開源模型執(zhí)行自動化任務,實現“無限 Token”的本地 AI 勞動力。

階段四:接入飛書機器人

4.1 飛書端配置:創(chuàng)建應用

為了讓 AI Agent 真正參與協同辦公,需要將其接入飛書生態(tài)。

打開飛書開放平臺:https://open.feishu.cn/(復制鏈接至瀏覽器打開)

4bf67848-13b0-11f1-90a1-92fbcf53809c.png

點擊開發(fā)者后臺 → 創(chuàng)建企業(yè)自建應用。

4c4d36b0-13b0-11f1-90a1-92fbcf53809c.png

填寫信息后點擊創(chuàng)建。

4ca466f6-13b0-11f1-90a1-92fbcf53809c.png

4.2 配置飛書權限

選擇權限管理批量導入權限。

4cf8c872-13b0-11f1-90a1-92fbcf53809c.png

將下述配置復制粘貼到導入框,確定新增權限。

{
"scopes":{
"tenant":[
"contactreadonly",
"imreadonly",
"im:message",
"imreadonly",
"imreadonly",
"imrecall",
"imsend_as_bot",
"imsend_multi_depts",
"imsend_multi_users",
"imsend_sys_msg",
"imupdate"
],
"user":[
"contactreadonly"
]
}
}

4d4efd82-13b0-11f1-90a1-92fbcf53809c.png

然后點擊創(chuàng)建版本。

4da6ba68-13b0-11f1-90a1-92fbcf53809c.png

填寫相關信息后保存。

4e0199b0-13b0-11f1-90a1-92fbcf53809c.png

確認發(fā)布。

4e5b5c7a-13b0-11f1-90a1-92fbcf53809c.jpg

審核通過。

4eafc9f4-13b0-11f1-90a1-92fbcf53809c.png

4.3 OpenClaw 端安裝飛書插件

安裝飛書插件,接入飛書,實現協同辦公。

首先安裝插件:

openclawplugins install@m1heng-clawd/feishu

有可能會出現如下錯誤,顯示插件已經存在:

4f049678-13b0-11f1-90a1-92fbcf53809c.png

這里先刪除已經存在的本地路徑,避免重復。

rm-rf /home/leadtek/.openclaw/extensions/feishu

然后再重新執(zhí)行。

openclawplugins install@m1heng-clawd/feishu

可以看到已經安裝成功:

4f5ccda2-13b0-11f1-90a1-92fbcf53809c.png

4.4 配置飛書插件依賴

這里重新配置一下 openclaw。

openclaw onboard--install-daemon

還是按照之前的配置進行選擇,直至 Select channel (QuickStart)。

選擇 Feishu / Lark (飛書):

4fb1a96c-13b0-11f1-90a1-92fbcf53809c.png

需要填入飛書機器人的 App ID 和 App Secret。

4.5 獲取 App ID 和 App Secret

登錄飛書開放平臺,進入你創(chuàng)建的機器人的憑證與基礎信息頁面,找到這兩個值:

5009b03a-13b0-11f1-90a1-92fbcf53809c.png

重新執(zhí)行 openclaw onboard --install-daemon,在 Select channel 時選擇 Feishu/Lark,填入剛才獲取的 ID 和 Secret。

505db2e8-13b0-11f1-90a1-92fbcf53809c.png

配置完成:出現如下界面,說明飛書機器人和 OpenClaw 關聯成功。

50b73e44-13b0-11f1-90a1-92fbcf53809c.png

繼續(xù)配置:按回車鍵,選擇“Open-respond in all groups”。

510e00c6-13b0-11f1-90a1-92fbcf53809c.png

“Configure skills now? (recommended)”選擇“Yes”;“Show Homebrew install command?”選擇“Yes”。

51647c9e-13b0-11f1-90a1-92fbcf53809c.png

4.6 配置機器人權限

接下來添加應用能力。

51b90ade-13b0-11f1-90a1-92fbcf53809c.png

進入機器人管理頁面,點擊權限管理,然后點擊開通權限。

521046a0-13b0-11f1-90a1-92fbcf53809c.png

在搜索框輸入 im:message,然后確認開通權限:

5268a732-13b0-11f1-90a1-92fbcf53809c.png

然后點擊創(chuàng)建版本:

52bd0d86-13b0-11f1-90a1-92fbcf53809c.jpg

填寫相關信息后保存。

531542f8-13b0-11f1-90a1-92fbcf53809c.png

確認發(fā)布。

4e5b5c7a-13b0-11f1-90a1-92fbcf53809c.jpg

審核通過。

53c2f254-13b0-11f1-90a1-92fbcf53809c.png

4.7 配置飛書事件與回調

進入配置頁面:登錄飛書開放平臺,進入你創(chuàng)建的機器人,選擇事件與回調

選擇訂閱方式:全部選擇使用長鏈接接收事件

541fb4c6-13b0-11f1-90a1-92fbcf53809c.png547fee5e-13b0-11f1-90a1-92fbcf53809c.png

4.8 添加事件

點擊添加事件。

54d5a3e4-13b0-11f1-90a1-92fbcf53809c.png552c8bdc-13b0-11f1-90a1-92fbcf53809c.jpg5582cf6a-13b0-11f1-90a1-92fbcf53809c.png

4.9 重新發(fā)布應用

點擊上方的創(chuàng)建版本,填入相關信息,然后點擊保存。

55d7772c-13b0-11f1-90a1-92fbcf53809c.png

填寫相關信息,保存并確定發(fā)布。

562dd89c-13b0-11f1-90a1-92fbcf53809c.png

4.10 飛書使用機器人

通過創(chuàng)建群聊的方式添加機器人,需要 @機器人進行交互使用。

56842b8e-13b0-11f1-90a1-92fbcf53809c.png

至此,你已經擁有一套無限 Token、數據不出屋、24 小時待命的本地最強 AI 組合。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5588

    瀏覽量

    109698
  • 計算機
    +關注

    關注

    19

    文章

    7806

    瀏覽量

    93177
  • AI
    AI
    +關注

    關注

    91

    文章

    39666

    瀏覽量

    301274

原文標題:OpenClaw + DGX Spark:打造“零成本、私有化”的終極本地 AI 勞動力

文章出處:【微信號:Leadtek,微信公眾號:麗臺科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA DGX Spark平臺上對NVIDIA ConnectX-7 200G網卡配置教程

    NVIDIA DGX Spark 平臺上對 NVIDIA ConnectX-7 200G 網卡進行配置時,會遇到“4 個邏輯端口”現象。理解背后的真相是后續(xù)所有配置的基礎。本文將從
    的頭像 發(fā)表于 11-21 09:19 ?5333次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>平臺上對<b class='flag-5'>NVIDIA</b> ConnectX-7 200G網卡配置教程

    NVIDIA DGX Spark系統(tǒng)恢復過程與步驟

    在使用 NVIDIA DGX Spark 的過程中,可能會出現配置故障,而導致開發(fā)中斷的問題,本篇教程將帶大家了解如何一步步完成系統(tǒng)恢復。
    的頭像 發(fā)表于 11-28 09:46 ?5149次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>系統(tǒng)恢復過程與步驟

    NVIDIA DGX Spark快速入門指南

    NVIDIA DGX Spark 已正式向 AI 開發(fā)者交付,對于剛入手的全新 DGX Spark
    的頭像 發(fā)表于 11-17 14:11 ?6003次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>快速入門指南

    香橙派昇騰系列開發(fā)板如何部署OpenClaw

    香橙派昇騰系列開發(fā)板解鎖專業(yè)級智能體,OpenClaw擁抱高算力未來 上兩篇文章我們給出了香橙派此芯及RK系列產品部署OpenClaw的教程,接下來我們將這只智能小龍蝦接入到昇騰系列開發(fā)板中。以下
    發(fā)表于 02-25 10:13

    NVIDIA 宣布推出 DGX Spark 個人 AI 計算機

    DGX? 個人 AI 超級計算機。 ? DGX Spark(前身為 Project DIGITS)支持 AI 開發(fā)者、研究人員、數據科學
    發(fā)表于 03-19 09:59 ?773次閱讀
       <b class='flag-5'>NVIDIA</b> 宣布推出 <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b> 個人 <b class='flag-5'>AI</b> 計算機

    NVIDIA GTC2025 亮點 NVIDIA推出 DGX Spark個人AI計算機

    和聯想)提供。 NVIDIA 發(fā)布了由 NVIDIA Grace Blackwell 平臺驅動的 DGX 個人 AI 超級計算機。 DGX
    的頭像 發(fā)表于 03-20 18:59 ?1620次閱讀
    <b class='flag-5'>NVIDIA</b> GTC2025 亮點  <b class='flag-5'>NVIDIA</b>推出 <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>個人<b class='flag-5'>AI</b>計算機

    NVIDIA發(fā)布AI優(yōu)先DGX個人計算系統(tǒng)

    NVIDIA 宣布,多家行業(yè)領先系統(tǒng)制造商將打造 NVIDIA DGX Spark。
    的頭像 發(fā)表于 05-22 09:39 ?1067次閱讀

    NVIDIA DGX Spark桌面AI計算機開啟預訂

    DGX Spark 現已開啟預訂!麗臺科技作為 NVIDIA 授權分銷商,提供從產品到服務的一站式解決方案,助力輕松部署桌面 AI 計算機。
    的頭像 發(fā)表于 09-23 17:20 ?1294次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>桌面<b class='flag-5'>AI</b>計算機開啟預訂

    MediaTek攜手NVIDIA開啟個人AI算力新紀元

    Spark 助力開發(fā)者能在本地端對大型 AI 模型進行原型設計(Prototype)、微調(Fine-tune)和推理(Inference)。NVIDIA
    的頭像 發(fā)表于 10-16 11:26 ?753次閱讀

    NVIDIA DGX Spark新一代AI超級計算機正式交付

    NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛在 SpaceX 向埃隆·馬斯克交付 DGX Spark
    的頭像 發(fā)表于 10-21 10:41 ?1167次閱讀

    NVIDIA黃仁勛向SpaceX馬斯克交付DGX Spark

    革新于星艦基地開始。NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛親手將全球迄今為止最小的 AI 超級計算機 NVIDIA DGX Spark 交付
    的頭像 發(fā)表于 10-21 11:12 ?947次閱讀

    NVIDIA DGX Spark助力構建自己的AI模型

    2025 年 1 月 6 日,NVIDIA 正式宣布其 Project DIGITS 項目,并于 3 月 18 日更名為 NVIDIA DGX Spark,進一步公布了產品細節(jié)。
    的頭像 發(fā)表于 11-21 09:25 ?1141次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>助力構建自己的<b class='flag-5'>AI</b>模型

    如何在DGX Spark上運行NVIDIA Omniverse

    首先感謝 Vigor 同學第一時間的分享,以下是具體如何在 DGX Spark 上運行 Omniverse 的方法。
    的頭像 發(fā)表于 12-17 10:13 ?598次閱讀
    如何在<b class='flag-5'>DGX</b> <b class='flag-5'>Spark</b>上運行<b class='flag-5'>NVIDIA</b> Omniverse

    NVIDIA DGX Spark桌面級AI超級計算機助力開發(fā)者構建AI模型

    開源 AI 正在加速各行各業(yè)的創(chuàng)新,NVIDIA DGX Spark 將幫助開發(fā)者將創(chuàng)新轉化為影響力。
    的頭像 發(fā)表于 01-09 09:49 ?450次閱讀

    OpenClaw閃電部署,立即體驗AI助手

    AI 助手,該運行在哪里?更安全、更穩(wěn)定的方式,是將其部署在獨立、隔離的云端環(huán)境中。 京東云全面上線 openclaw(Clawbot)!京東云輕量云主機現已預置 openclaw
    的頭像 發(fā)表于 02-06 16:14 ?1275次閱讀
    <b class='flag-5'>OpenClaw</b>閃電<b class='flag-5'>部署</b>,立即體驗<b class='flag-5'>AI</b>助手