如果你最近在开发者社区刷到过”有人用 Telegram 让 AI 帮他跑测试、推代码、处理报错”,那十有八九背后跑的是 OpenClaw。这篇文章不讲玄学,只讲它是什么、怎么工作、适合谁用。
一句话定义
OpenClaw 是一个开源的本地 AI Agent 运行时,把 LLM 的推理能力接进你平时用的聊天软件(Telegram、WhatsApp、Slack、Discord 等),让 AI 能在你的机器上真正执行任务,而不只是回复文字。
它由奥地利开发者 Peter Steinberger 开发,2025 年 11 月首次发布(当时叫 Clawdbot),因商标问题先后改名为 Moltbot、最终定名 OpenClaw,核心代码以 MIT 协议开源在 GitHub。
和你用过的 AI 工具有什么不同
开发者接触过的 AI 工具大致分两类:一类是云端托管的对话服务(ChatGPT、Claude.ai),另一类是本地运行的编码助手(Claude Code、Cursor)。OpenClaw 介于两者之间,但更接近一个持续运行的 Agent 守护进程。
| ChatGPT / Claude.ai | Claude Code | OpenClaw | |
|---|---|---|---|
| 运行位置 | 云端 | 本地 | 本地 |
| 交互方式 | 浏览器 | 终端 | 任意聊天软件 |
| 持续运行 | 否 | 否 | 是(后台守护进程) |
| 跨会话记忆 | 有限 | 无 | 持久化本地存储 |
| 数据出境 | 是 | 仅模型调用 | 仅模型调用 |
| 开源 | 否 | 否 | MIT |
关键区别在于”持续运行”。Claude Code 是你启动 → 跑完 → 退出的流程。OpenClaw 是一个一直在线的守护进程,你可以随时从手机发消息触发任务,它在后台跑完之后主动把结果推给你。
架构是怎么工作的
OpenClaw 的核心是一个叫 Gateway 的 Node.js 进程,启动后监听在本地 ws://127.0.0.1:18789。
消息流转路径大致是这样的:
- 你在 Telegram 发一条消息给你的 Bot
- Gateway 的 Channel Adapter 接收消息,标准化为内部格式
- Session Manager 解析发送方身份,匹配到对应的 Agent 会话
- Agent 循环启动:拉取系统提示、会话历史、Skills 指令、记忆,组装 prompt 发给 LLM
- LLM 返回工具调用决策(比如执行 shell、读文件、控制浏览器)
- 工具执行完,结果注入对话,LLM 再决定是否继续或返回最终回复
- Gateway 把结果序列化,通过 Telegram Channel Adapter 推回给你
整个过程在你的机器上跑,除了调用 LLM API 的那一步,数据不离本地。
Skills 是什么
Skills 是 OpenClaw 的扩展机制,本质上是一个目录,里面有一个 SKILL.md 文件。这个文件用自然语言写清楚:这个 Skill 是干什么的、什么时候触发、怎么使用相关工具。
Gateway 启动时会把所有 Skill 的描述加载进 Agent 的上下文,LLM 根据你的指令自动决定调用哪个 Skill。你可以:
- 安装社区 Skill(ClawHub 是官方 Skill 注册表)
- 让 AI 帮你写一个新的 Skill(OpenClaw 支持 AI 自己给自己写扩展)
- 手动写
SKILL.md定义自己的工作流
Skill 有三个作用域,优先级从高到低:Workspace Skill → 全局 Skill → 内置 Skill。
支持哪些工具和能力
OpenClaw 内置了以下工具类别(可通过工具策略控制开放范围):
- Shell 执行:运行任意命令,可配置沙箱或完全开放
- 文件系统:读写本地文件
- 浏览器控制:通过 CDP 控制 Chrome/Chromium,填表、抓数据、截图
- Cron 任务:定时触发 Agent 执行任务
- Webhook / Hooks:接收外部事件触发任务(比如 Sentry 报错自动处理)
- 多 Agent 通信:配置多个 Agent 实例互相调用
支持哪些消息渠道
目前支持 20+ 个平台,包括 WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Microsoft Teams、Matrix、LINE、IRC 等。每个渠道作为独立的 Channel Adapter 插件实现,可以同时启用多个。
模型选择
OpenClaw 与模型无关,在 ~/.openclaw/openclaw.json 里配置提供商和模型即可。支持:
- Anthropic Claude(API Key 或 setup-token)
- OpenAI GPT 系列(API Key 或 OAuth)
- MiniMax、GLM、Moonshot 等
- 本地 Ollama(完全离线)
- 任何兼容 OpenAI / Anthropic 接口格式的自定义端点
支持配置 fallback 链:主模型调用失败时自动切换到备用模型,使用指数退避策略。
安全模型
OpenClaw 的安全设计围绕三个层次:
- 身份层:谁能和 Bot 说话(DM 配对 / allowlist / open)
- 作用域层:AI 能操作什么(工具策略、沙箱、执行审批)
- 模型层:假设模型可能被 prompt 注入,通过前两层限制爆炸半径
高危操作(比如执行 shell 命令、发送邮件)可以配置为需要人工审批,AI 会先提交操作请求,你确认后才执行。
官方建议定期运行安全审计:
openclaw security audit
openclaw security audit --deep
适合哪类开发者
OpenClaw 适合你,如果你:
- 想要一个能跨设备、随时触发的 AI 自动化运行时
- 对数据隐私有要求,不想把内容发给第三方托管服务
- 想基于真实工具链(shell、git、browser)搭建 Agent 工作流,而不只是做 demo
- 有自己的服务器或闲置机器,想物尽其用
它不适合你,如果你:
- 只需要一个对话窗口问问题,Claude.ai 或 ChatGPT 够用
- 只做代码补全和 review,Claude Code / Cursor 更专注
- 不想维护本地运行的服务
快速上手路径
三个命令就能跑起来:
# 安装(macOS / Linux)
curl -fsSL https://openclaw.ai/install.sh | bash
# 初始化(含后台服务安装)
openclaw onboard --install-daemon
# 打开控制面板
openclaw dashboard
浏览器打开 http://127.0.0.1:18789,就可以直接和 AI 对话,不需要配置任何消息渠道。