OpenClaw 支持多种 AI 模型,包括云端模型(Claude、GPT、Gemini 等)和本地模型(Ollama)。配置 AI 模型是安装后最重要的一步,它决定了你的 AI 助手使用哪个“大脑”来思考和执行任务。本教程从零开始,适合完全小白,一步步教你通过官方向导或手动方式配置模型。

所有步骤基于 OpenClaw 官方文档(docs.openclaw.ai)和最新社区实践,确保真实有效。

一、配置前准备

1. 确保 OpenClaw 已安装并运行:

openclaw --version

2. 检查网关状态:

openclaw status

3. 打开本地仪表盘(通常 http://localhost:18789)查看当前配置。

4. 根据需求准备:

  • 云模型:获取 API Key(Anthropic、OpenAI、Google Gemini、OpenRouter 等)
  • 本地模型:先安装并运行 Ollama,并 pull 至少一个模型(如 qwen2.5-coder、llama3.3 等)

二、最推荐方式:使用 onboard 向导配置(新手最简单,2-5 分钟)

运行以下命令启动交互式配置向导:

openclaw onboard

向导会一步步引导你:

  1. 选择安装模式(推荐 QuickStart 或默认)
  2. 选择 AI 模型提供商(Provider):
    • Anthropic(Claude 系列,推荐工具调用能力强)
    • OpenAI(GPT 系列)
    • Google(Gemini)
    • OpenRouter(聚合多家模型,便宜灵活)
    • Ollama(完全本地,免费隐私)
  3. 输入 API Key(云模型需要;Ollama 通常不需要真实 Key,输入 “ollama-local” 即可)
  4. 选择默认模型(向导会列出可用模型,例如 anthropic/claude-sonnet-4-6 或 ollama/qwen2.5-coder:32b)
  5. 设置 fallback(备用模型,可选,提高稳定性)
  6. 确认并保存配置

配置完成后,运行:

openclaw restart

或通过 openclaw models status 检查当前模型是否设置成功。

三、云模型配置示例

Anthropic (Claude) 配置

openclaw onboard

选择 Anthropic → 粘贴你的 ANTHROPIC_API_KEY(从 console.anthropic.com 获取)→ 选择 Claude Sonnet 或 Opus 模型。

或者手动设置默认模型:

openclaw models set anthropic/claude-sonnet-4-6

OpenAI 或 OpenRouter 配置

类似上面,选择对应 Provider 并输入 API Key。OpenRouter 适合想尝试多种模型的用户。

四、本地模型配置(Ollama,完全免费隐私)

1. 先安装并启动 Ollama(官网 ollama.com):

ollama serve

2. 下载模型(示例):

ollama pull qwen2.5-coder:32b
ollama pull llama3.3

3. 在 OpenClaw 中配置:

openclaw onboard

选择 Ollama 提供商 → 输入 baseUrl(默认 http://127.0.0.1:11434)→ 选择已下载的模型。

或者手动命令:

openclaw models set ollama/qwen2.5-coder:32b

推荐本地模型设置较大上下文窗口(至少 64k tokens,如果硬件支持)。

五、查看与切换模型

常用命令:

  • 列出所有可用模型: openclaw models list
  • 查看当前配置: openclaw models status
  • 切换默认模型: openclaw models set provider/model-name
  • 手动编辑配置文件(高级):~/.openclaw/openclaw.json 或通过仪表盘修改

在聊天渠道中,你也可以使用指令如 /model 临时切换模型。

六、常见问题与注意事项

  • API Key 无效:检查是否复制正确、有无多余空格,部分平台需在平台控制台启用权限。
  • Ollama 连接失败:确保 ollama serve 正在运行,且 baseUrl 正确;防火墙可能阻挡 11434 端口。
  • 模型响应慢:本地模型取决于硬件(推荐至少 16GB+ 内存,GPU 更好);云模型取决于网络和配额。
  • 想混合使用:可设置 primary(主模型)+ fallbacks(备用),云+本地混合模式。
  • 上下文窗口:本地模型建议选择支持大上下文的版本(如 128k+)。
  • 更新配置后记得重启: openclaw restart

遇到错误可运行 openclaw doctor 诊断,或查看日志 openclaw logs

七、测试配置是否成功

1. 在 Telegram/WhatsApp 等已连接渠道发送消息,例如:“你好,请介绍一下你自己”。

2. 观察回复速度和质量。

3. 在仪表盘查看模型使用记录。

4. 测试工具调用:让它帮你“搜索今天新闻”或执行简单技能。

总结

通过 openclaw onboard 向导,新手几分钟就能完成 AI 模型配置。推荐新手先用 Claude(云端强)或 Ollama(本地免费)起步,后续可添加 fallback 提升稳定性。配置好模型后,OpenClaw 才能真正发挥强大能力,成为你的私人 AI 助手。

配置完成后,欢迎在评论区分享你选择的模型和使用体验!如果卡在某一步,贴出错误信息,我可以帮你排查。

官方参考链接:
模型提供商文档:https://docs.openclaw.ai/providers/models
Ollama 配置:https://docs.openclaw.ai/providers/ollama
完整配置参考:https://docs.openclaw.ai/gateway/configuration
OpenClaw GitHub:https://github.com/openclaw/openclaw