OpenClaw 装好了,控制台显示 Gateway 在运行,Telegram 或者 WhatsApp 也配好了,AI 也能回消息了——但你打开对话框,盯着输入框发呆:
然后呢?
OpenClaw 有一套斜杠命令系统,这些以 / 开头的指令不会发给 AI 去处理,而是直接被 OpenClaw 系统接收和执行。它们是你控制这个 AI 助手的”遥控器”。
本文只讲最重要的 5 个,够你从”装好了”变成”会用了”。更多资源请访问 OpenClaw 中文版官网。
在开始之前:斜杠命令和普通消息有什么区别?
发给 OpenClaw 的消息分两类:
- 普通消息:直接传给 AI 模型处理,AI 来回复你。比如”帮我写一封邮件”、”今天天气怎么样”。
- 斜杠命令:被 OpenClaw 系统本身拦截和执行,AI 根本看不到这条消息。比如
/status、/model gpt。
斜杠命令只对授权用户生效。如果你是 OpenClaw 的所有者(Owner),大多数命令默认对你开放;如果其他人跟你的 OpenClaw 对话,他们能用的命令会受到限制。
还有一种叫内联快捷方式:某些命令可以嵌入在普通消息里,OpenClaw 会自动识别并在发给 AI 之前把它剥离出来。比如你说”嘿 /status 现在忙不忙?”——OpenClaw 会先执行 /status 给你看状态,再把”现在忙不忙”这部分发给 AI。
好,开始讲那 5 个指令。
第一个:/status ——看一眼你的 AI 现在怎么样了
用法
/status
它会告诉你什么
发出这条命令后,OpenClaw 会返回一个状态摘要,通常包括:
- 当前使用的 AI 模型是哪个
- 本次会话已消耗了多少 Token
- 当前队列模式(消息如何排队处理)
- 会话是否处于活跃状态
- 可用的功能和工具
示例回复大概长这样:
📊 OpenClaw 状态
━━━━━━━━━━━━━━
模型:anthropic/claude-sonnet-4-6
Token 用量:2,847 / 200,000
队列模式:collect
会话:main(活跃)
工具:bash, browser, read, write, web_search
━━━━━━━━━━━━━━
什么时候用
- 刚发完消息没有响应,不确定 AI 有没有收到
- 想知道现在用的是哪个模型(有没有正确接入你配置的那个)
- 长对话后担心 Token 快用完了
- 想确认某个工具(比如网络搜索)是否可用
小技巧
/status 是内联快捷方式之一——你可以把它嵌在普通消息里:
嘿 /status 顺便帮我查一下今天的 AI 新闻
OpenClaw 会先返回状态信息,再把”帮我查一下今天的 AI 新闻”发给 AI 处理。
第二个:/help 或 /commands ——查看所有可用命令
用法
/help
# 或者
/commands
它会告诉你什么
返回当前对你可用的所有斜杠命令列表,按类别分组。这是你最好的”说明书”,因为不同 OpenClaw 版本、不同配置、不同权限级别,可用命令会有差异——/help 始终给你看的是当下这个实例实际能用的命令,而不是一份固定文档。
什么时候用
- 刚装好 OpenClaw,第一件事就应该发这条
- 忘记某个命令的确切写法时
- 升级到新版本后,看看有没有新增命令
- 配置了新的技能或插件后,检查有没有对应的命令暴露出来
和 /help 相关的几个变体
/help # 常用命令分类列表
/commands # 完整命令列表(包含所有可用命令)
/status # 当前状态(也是内联快捷方式)
新手必做:装好 OpenClaw 之后,第一条发送的命令建议就是
/help——先摸清楚有哪些工具可以用,比直接开始聊天更有效率。
第三个:/model ——换一个 AI 大脑
用法
/model # 打开模型选择器(列出可用模型)
/model list # 列出所有已配置模型
/model gpt # 切换到 GPT 系列(模糊匹配别名)
/model claude # 切换到 Claude
/model flash # 切换到 Gemini Flash(如果配置了别名)
/model openai/gpt-5.4 # 精确指定模型 ID
/model status # 查看当前模型详情(包含认证信息)
它会做什么
/model 会切换当前会话使用的 AI 模型。不同模型各有所长:
- 处理复杂推理任务 → 可能需要切换到 Claude Opus 或 GPT-5.4 Pro
- 想省钱处理简单任务 → 切换到 Gemini Flash 或 DeepSeek
- 代码相关工作 → 有些人偏好专门的 Codex 系列
重要特性:不会打断进行中的任务
如果 AI 正在执行一个任务(比如它在帮你搜索资料),这时你发 /model claude,OpenClaw 不会立刻打断当前运行——它会等当前任务完成,然后后续的工作才使用新模型。这是一个很贴心的设计,防止切换模型时造成任务中断。
模糊匹配和别名
/model 支持模糊匹配:你不需要记住完整的模型 ID(比如 anthropic/claude-sonnet-4-6),可以直接用别名或关键词:
/model sonnet # 匹配 claude-sonnet-4-6
/model opus # 匹配 claude-opus-4-6
/model gpt # 匹配 openai/gpt 系列
/model gemini # 匹配 google/gemini 系列
/model flash # 匹配设置了 flash 别名的模型
自定义别名可以在 openclaw.json 中的 agents.defaults.models 里配置:
{
"agents": {
"defaults": {
"models": {
"google/gemini-3-flash-preview": {
"alias": "flash"
},
"anthropic/claude-sonnet-4-6": {
"alias": "sonnet"
}
}
}
}
}
什么时候用
- 当前任务超出默认模型的能力范围,需要更强的模型
- 简单任务用便宜模型节省 Token 费用
- 测试不同模型对同一个任务的回答质量差异
- 某个模型响应慢或者报错,临时切换到备用模型
第四个:/new ——开一段新的对话,清空记忆
用法
/new # 开启新会话(清空当前上下文)
/new claude # 开启新会话并同时切换到 Claude
/new gpt # 开启新会话并切换到 GPT
它会做什么
/new 会开启一个全新的对话会话。对 AI 来说,它相当于”失忆”——之前对话里讲过的所有内容都不再在上下文里,AI 会以一个完全干净的状态开始新对话。
为什么需要这个
AI 的”记忆”本质上是把历史对话塞进上下文窗口里,随着对话越来越长:
- Token 消耗越来越多(费用增加)
- AI 的注意力被旧对话分散(回答质量可能下降)
- 可能产生上下文”污染”——前面讨论 A 项目的结论影响到了后面 B 项目的判断
完成一个任务之后,或者要切换到完全不同的话题时,/new 是个好习惯。
和 /new 相关的几个细节
/new会为每个客户端分配独立的新会话(v2026.3.7+ 修复了之前多个 TUI 客户端共享同一会话的问题)- 新会话开始后,如果你之前设置了某个
/model切换,会话级别的设置会重置,回到配置文件里的默认模型 - 持久化记忆(
memory.md、soul.md等文件)不会被/new清除,这些跨会话的长期记忆仍然保留
什么时候用
- 完成一个任务,切换到完全不同的工作内容
- 感觉 AI 越说越偏,可能是被旧上下文带跑了
- 对话很长,响应开始变慢(Token 快到上限)
- 想测试 AI 对某个问题”没有前置信息”时的回答
第五个:/think ——让 AI 想得更深(或者更快)
用法
/think off # 关闭深度推理(默认,速度最快)
/think low # 轻度推理
/think medium # 中等推理
/think high # 深度推理
/think xhigh # 最强推理(消耗 Token 最多)
它会做什么
这条指令控制 AI 在回答之前”想多深”。支持推理模式的模型(如 Claude、GPT-5.4、某些 DeepSeek 版本)会在给出最终答案之前进行内部推理——相当于在草稿纸上算完再告诉你结论。
/think 的级别决定了 AI 在这个内部推理过程上花多少精力:
| 级别 | 适合什么任务 | Token 消耗 | 响应速度 |
|---|---|---|---|
off |
日常聊天、简单查询、快速任务 | 最低 | 最快 |
low |
有一点逻辑的问题,不复杂 | 低 | 快 |
medium |
需要一定分析的任务,代码调试 | 中等 | 中等 |
high |
复杂推理、架构设计、深度分析 | 高 | 较慢 |
xhigh |
极端复杂任务、需要最高精度的判断 | 极高 | 慢 |
两种使用方式:临时 vs 持久
这是 /think 最容易混淆的地方:
内联使用(只对当前这条消息生效):
帮我分析这段代码有什么安全漏洞 /think high
# /think high 只影响这一次回复,下一条消息恢复默认
独立发送(对当前会话持久生效):
/think high
# 单独发送这条指令,之后所有回复都使用 high 级别
# 直到你发 /think off 或开启新会话
什么时候用
- 需要 AI 帮你做严肃的逻辑推导、数学计算 →
/think high - 设计系统架构、分析风险、写复杂合同 →
/think xhigh - 日常聊天和简单查询 → 保持默认
off,省钱又快 - 感觉 AI 回答太潦草,漏掉了重要细节 → 试试加
/think medium
费用提示:
xhigh级别在复杂任务上可能消耗大量 Token。建议日常保持默认(off),只在真正需要深度推理的任务上才提升级别,任务完成后记得用/think off重置,或者直接开/new新对话。
5 个指令的使用场景组合
掌握这 5 个指令后,你的典型工作流可能是这样的:
# 场景:开始一天的工作
# 1. 先确认 AI 是不是正常运行的
/status
# 2. 查一下有哪些工具可以用
/help
# 3. 告诉 AI 去搜集今天的工作材料
帮我整理今天的邮件摘要,以及搜索一下有没有竞品发布新动态
# ---- AI 执行任务 ----
# 4. 看完摘要,切换到深度分析任务
/think high
基于这份竞品分析,帮我写一份我们产品的应对策略文档
# ---- AI 执行深度任务 ----
# 5. 下午要换一个完全不同的项目
/new
# 新会话开始,上午的对话不再影响 AI
# 6. 这个新项目用 GPT 效果更好
/model gpt
现在帮我优化这段 Python 代码……
5 个指令快速对照表
| 指令 | 一句话说明 | 最常见用途 |
|---|---|---|
/status |
查看当前 AI 和会话状态 | 确认模型、看 Token 用量、排查问题 |
/help |
查看所有可用命令列表 | 新手入门必发、忘记命令时查阅 |
/model |
切换当前使用的 AI 模型 | 换更强 / 更便宜的模型,灵活调配 |
/new |
开启新会话,清空当前上下文 | 切换任务、上下文太长时重置 |
/think |
调整 AI 的推理深度 | 复杂任务提升质量,简单任务节省费用 |
还有哪些值得记住的指令?
5 个基础指令之外,还有几个用得比较多的,列出来供参考:
/tools:查看当前智能体实际可以调用的工具列表(什么工具”现在可用”)/tasks:查看当前后台正在运行或已完成的任务看板(v2026.4.1 新增)/queue:查看或更改消息队列模式(steer / collect / followup 等)/verbose:切换详细模式,可以看到工具调用的详细执行过程/compact:手动触发上下文压缩,在不开新会话的情况下减少 Token 占用/btw:向 AI 提一个临时侧问,不影响当前任务的执行流/stop或/kill:立刻中止正在运行的任务
这些可以在熟悉了前 5 个之后慢慢探索,不用一次全记。
总结
OpenClaw 的斜杠命令系统是你控制 AI 助手的遥控器。记住这 5 个,就能覆盖日常使用中 80% 的场景:
/status:看现在状态怎么样/help:看有哪些命令可以用/model:换一个合适的 AI 模型/new:开一段全新的对话/think:让 AI 想得更深或更快
装好了 OpenClaw,从发出第一个 /help 开始。剩下的,边用边学就好。
想了解更多 OpenClaw 使用技巧,欢迎访问 OpenClaw 中文版官网。