OpenClaw 支持多种 AI 模型,包括云端模型(Claude、GPT、Gemini 等)和本地模型(Ollama)。配置 AI 模型是安装后最重要的一步,它决定了你的 AI 助手使用哪个“大脑”来思考和执行任务。本教程从零开始,适合完全小白,一步步教你通过官方向导或手动方式配置模型。
所有步骤基于 OpenClaw 官方文档(docs.openclaw.ai)和最新社区实践,确保真实有效。
一、配置前准备
1. 确保 OpenClaw 已安装并运行:
openclaw --version
2. 检查网关状态:
openclaw status
3. 打开本地仪表盘(通常 http://localhost:18789)查看当前配置。
4. 根据需求准备:
- 云模型:获取 API Key(Anthropic、OpenAI、Google Gemini、OpenRouter 等)
- 本地模型:先安装并运行 Ollama,并 pull 至少一个模型(如 qwen2.5-coder、llama3.3 等)
二、最推荐方式:使用 onboard 向导配置(新手最简单,2-5 分钟)
运行以下命令启动交互式配置向导:
openclaw onboard
向导会一步步引导你:
- 选择安装模式(推荐 QuickStart 或默认)
- 选择 AI 模型提供商(Provider):
- Anthropic(Claude 系列,推荐工具调用能力强)
- OpenAI(GPT 系列)
- Google(Gemini)
- OpenRouter(聚合多家模型,便宜灵活)
- Ollama(完全本地,免费隐私)
- 输入 API Key(云模型需要;Ollama 通常不需要真实 Key,输入 “ollama-local” 即可)
- 选择默认模型(向导会列出可用模型,例如 anthropic/claude-sonnet-4-6 或 ollama/qwen2.5-coder:32b)
- 设置 fallback(备用模型,可选,提高稳定性)
- 确认并保存配置
配置完成后,运行:
openclaw restart
或通过 openclaw models status 检查当前模型是否设置成功。
三、云模型配置示例
Anthropic (Claude) 配置
openclaw onboard
选择 Anthropic → 粘贴你的 ANTHROPIC_API_KEY(从 console.anthropic.com 获取)→ 选择 Claude Sonnet 或 Opus 模型。
或者手动设置默认模型:
openclaw models set anthropic/claude-sonnet-4-6
OpenAI 或 OpenRouter 配置
类似上面,选择对应 Provider 并输入 API Key。OpenRouter 适合想尝试多种模型的用户。
四、本地模型配置(Ollama,完全免费隐私)
1. 先安装并启动 Ollama(官网 ollama.com):
ollama serve
2. 下载模型(示例):
ollama pull qwen2.5-coder:32b
ollama pull llama3.3
3. 在 OpenClaw 中配置:
openclaw onboard
选择 Ollama 提供商 → 输入 baseUrl(默认 http://127.0.0.1:11434)→ 选择已下载的模型。
或者手动命令:
openclaw models set ollama/qwen2.5-coder:32b
推荐本地模型设置较大上下文窗口(至少 64k tokens,如果硬件支持)。
五、查看与切换模型
常用命令:
- 列出所有可用模型:
openclaw models list - 查看当前配置:
openclaw models status - 切换默认模型:
openclaw models set provider/model-name - 手动编辑配置文件(高级):~/.openclaw/openclaw.json 或通过仪表盘修改
在聊天渠道中,你也可以使用指令如 /model 临时切换模型。
六、常见问题与注意事项
- API Key 无效:检查是否复制正确、有无多余空格,部分平台需在平台控制台启用权限。
- Ollama 连接失败:确保 ollama serve 正在运行,且 baseUrl 正确;防火墙可能阻挡 11434 端口。
- 模型响应慢:本地模型取决于硬件(推荐至少 16GB+ 内存,GPU 更好);云模型取决于网络和配额。
- 想混合使用:可设置 primary(主模型)+ fallbacks(备用),云+本地混合模式。
- 上下文窗口:本地模型建议选择支持大上下文的版本(如 128k+)。
- 更新配置后记得重启:
openclaw restart
遇到错误可运行 openclaw doctor 诊断,或查看日志 openclaw logs。
七、测试配置是否成功
1. 在 Telegram/WhatsApp 等已连接渠道发送消息,例如:“你好,请介绍一下你自己”。
2. 观察回复速度和质量。
3. 在仪表盘查看模型使用记录。
4. 测试工具调用:让它帮你“搜索今天新闻”或执行简单技能。
总结
通过 openclaw onboard 向导,新手几分钟就能完成 AI 模型配置。推荐新手先用 Claude(云端强)或 Ollama(本地免费)起步,后续可添加 fallback 提升稳定性。配置好模型后,OpenClaw 才能真正发挥强大能力,成为你的私人 AI 助手。
配置完成后,欢迎在评论区分享你选择的模型和使用体验!如果卡在某一步,贴出错误信息,我可以帮你排查。
官方参考链接:
模型提供商文档:https://docs.openclaw.ai/providers/models
Ollama 配置:https://docs.openclaw.ai/providers/ollama
完整配置参考:https://docs.openclaw.ai/gateway/configuration
OpenClaw GitHub:https://github.com/openclaw/openclaw