本文旨在帮助读者在本地环境中成功部署 OpenClaw,并配置本地大模型(如通过 Ollama),实现数据不出户的私有化 AI 助手。
一、 核心概念:为什么选择本地部署?
OpenClaw 是一款强大的 AI 智能体(Agent)框架,它能将自然语言指令转化为实际的系统操作(如文件管理、代码执行、网络请求等)。本地部署意味着将 AI 的“大脑”(大模型)和“身体”(OpenClaw)都运行在你自己的电脑上,而非依赖云端 API。
核心优势:
- 数据隐私:所有对话、文件操作均在本地完成,数据永不外泄。
- 离线可用:断网环境下依然能进行文件整理、代码生成等操作。
- 成本可控:无需支付昂贵的 API 调用费用,一次部署,长期使用。
二、 硬件配置要求(电脑配置指南)
部署 OpenClaw 本身对硬件要求不高,但运行本地大模型是资源消耗的大头。请根据你的模型选择来匹配硬件。
1. 最低配置(仅运行 OpenClaw 框架)
如果你计划使用云端 API(如 DeepSeek、Claude),或者只运行极小的本地模型(如 1B 参数),此配置足够。
- CPU:2 核 4 线程
- 内存:8GB
- 硬盘:10GB 可用空间(SSD 更佳)
- 系统:Windows 10 / macOS 12+ / Linux (内核 3.10+)
2. 推荐配置(运行本地 7B 模型)
这是目前性价比最高的方案,能流畅运行 Qwen2.5-7B、Llama3-8B 等主流模型。
- CPU:4 核 8 线程
- 内存:16GB 或以上(模型加载需要约 8GB 内存)
- 显卡:NVIDIA RTX 3060 或同等级别(显存 8GB+),支持 CUDA 加速
- 硬盘:50GB SSD(模型文件较大,SSD 能显著提升加载速度)
3. 高性能配置(运行 14B+ 模型)
如果你需要更强的推理能力,或者希望多开几个模型。
- CPU:8 核 16 线程
- 内存:32GB 或以上
- 显卡:RTX 4060 Ti 16G / RTX 4090 等(显存 16GB+)
- 硬盘:100GB+ NVMe SSD
💡 提示:如果没有独立显卡,也可以使用纯 CPU 运行模型,但推理速度会慢 5-10 倍,建议选择量化版本(如 Q4_K_M)的模型。
三、 软件环境准备
在安装 OpenClaw 之前,请确保你的系统已安装以下工具:
1. Node.js (必须)
OpenClaw 基于 Node.js 开发,版本要求 22.x 或更高。
- 验证方法:打开终端(Windows 为 PowerShell 或 CMD),输入
node -v,查看版本号。 - 安装:前往 Node.js 官网下载 LTS 版本安装。
2. Ollama (推荐,用于本地模型)
这是目前最流行的本地大模型管理工具,支持一键拉取和运行模型。
- 安装:访问 Ollama 官网,下载对应系统的安装包,双击安装即可。
3. Git (可选)
用于克隆 OpenClaw 源码或安装插件。
- 安装:下载 Git for Windows或使用系统包管理器安装。
四、 部署步骤详解
步骤 1:安装 OpenClaw
打开终端,执行以下命令进行全局安装:
npm install -g openclaw@latestCode language: CSS (css)
安装完成后,验证是否成功:
openclaw --version
# 应输出类似 2026.2.26 的版本号Code language: CSS (css)
步骤 2:配置本地模型(Ollama)
这是让 OpenClaw 拥有“智能”的关键一步。
- 拉取模型:Ollama 安装后会自动在后台运行。在终端拉取一个适合你电脑配置的模型。推荐从 Qwen2.5-7B 开始,它对中文支持好且性能均衡。
# 拉取 7B 模型(约 4.7GB,适合 16G 内存/8G 显存) ollama pull qwen2.5:7b # 如果你的配置较低,可以拉取 1.5B 模型(约 1GB) # ollama pull qwen2.5:1.5b - 测试模型:确保模型能正常对话。
ollama run qwen2.5:7b输入一段话,如“你好”,看到模型回复后按Ctrl+C退出。
步骤 3:配置 OpenClaw 连接模型
OpenClaw 需要通过配置文件来识别你的本地模型。
- 创建配置目录(如果不存在):
# Windows (CMD/PowerShell) mkdir %USERPROFILE%\.openclaw # macOS / Linux mkdir -p ~/.openclaw - 创建配置文件: 在
~/.openclaw/(或%USERPROFILE%\.openclaw\`)目录下创建文件openclaw.json`,内容如下:{ "models": { "mode": "merge", "providers": { "ollama": { "baseUrl": "http://localhost:11434", "api": "openai-completions", "models": [ { "id": "qwen2.5:7b", "name": "Qwen2.5 7B (Local)", "reasoning": false, "input": ["text"], "contextWindow": 128000, "maxTokens": 8192 } ] } } }, "defaults": { "model": { "primary": "ollama/qwen2.5:7b" } } }注意:请将"qwen2.5:7b"替换为你实际拉取的模型名称。
步骤 4:启动并测试
- 启动 Gateway:OpenClaw 的核心服务。
openclaw gateway --port 18789看到日志显示Gateway listening on 127.0.0.1:18789即表示启动成功。 - 测试指令: 保持 Gateway 运行,打开浏览器访问
http://localhost:18789(或使用openclaw chat命令)。 尝试发送指令,如:“请帮我列出当前目录下的所有文件。” 如果模型能正确理解并执行(或尝试执行),说明部署成功!
五、 避坑指南与注意事项
1. 环境变量与代理问题
- 问题:在国内网络环境下,安装依赖或拉取模型可能失败。
- 解决:
- 安装依赖:使用国内镜像源加速。在安装 OpenClaw 前,设置 npm 镜像:
npm config set registry https://registry.npmmirror.com。 - 拉取模型:Ollama 拉取模型较慢,可尝试配置镜像或使用第三方下载工具。
- 安装依赖:使用国内镜像源加速。在安装 OpenClaw 前,设置 npm 镜像:
2. 端口冲突
- 问题:启动时报错
Error: listen EADDRINUSE :::18789。 - 解决:端口 18789 被其他程序占用。可以换一个端口启动,如:
openclaw gateway --port 19001。
3. 模型上下文长度不足
- 问题:OpenClaw 执行复杂任务时,模型报错或无法理解长指令。
- 解决:OpenClaw 对模型的上下文窗口(Context Window)有较高要求。请确保你使用的模型支持 128K 或以上的上下文。如果使用 Ollama,可以尝试拉取支持长上下文的版本,如
qwen2.5:14b或qwen2.5:72b(如果硬件允许)。
4. 权限与安全
- ⚠️ 重要警告:OpenClaw 拥有操作你电脑文件的权限。在配置中,请务必设置 工作目录(Workspace),限制 AI 只能访问特定文件夹,防止误删系统文件。
# 例如,限制 AI 只能操作桌面文件夹 openclaw config set agents.defaults.workspace "~/Desktop"
5. 性能优化
- 显存不足:如果显卡显存不足(如只有 6GB),运行 7B 模型可能会爆显存。建议拉取 量化版本 的模型,例如
qwen2.5:7b-q4_K_M(量化后显存占用约 4GB)。 - 内存不足:如果纯 CPU 运行,内存占用约为模型参数的 2 倍。7B 模型约需 14GB 内存,请确保物理内存足够,或增加虚拟内存。
六、 总结
通过以上步骤,你已经成功在本地部署了一个拥有“大脑”(本地模型)和“双手”(OpenClaw)的 AI 助手。本地部署虽然前期配置稍显复杂,但带来的数据安全和长期零成本收益是巨大的。现在,你可以尝试让 AI 帮你整理文档、分析代码,甚至自动化处理日常重复性工作了!
下一步探索:




发表回复