OpenClaw 装好了,控制台显示 Gateway 在运行,Telegram 或者 WhatsApp 也配好了,AI 也能回消息了——但你打开对话框,盯着输入框发呆:

然后呢?

OpenClaw 有一套斜杠命令系统,这些以 / 开头的指令不会发给 AI 去处理,而是直接被 OpenClaw 系统接收和执行。它们是你控制这个 AI 助手的”遥控器”。

本文只讲最重要的 5 个,够你从”装好了”变成”会用了”。更多资源请访问 OpenClaw 中文版官网

在开始之前:斜杠命令和普通消息有什么区别?

发给 OpenClaw 的消息分两类:

  • 普通消息:直接传给 AI 模型处理,AI 来回复你。比如”帮我写一封邮件”、”今天天气怎么样”。
  • 斜杠命令:被 OpenClaw 系统本身拦截和执行,AI 根本看不到这条消息。比如 /status/model gpt

斜杠命令只对授权用户生效。如果你是 OpenClaw 的所有者(Owner),大多数命令默认对你开放;如果其他人跟你的 OpenClaw 对话,他们能用的命令会受到限制。

还有一种叫内联快捷方式:某些命令可以嵌入在普通消息里,OpenClaw 会自动识别并在发给 AI 之前把它剥离出来。比如你说”嘿 /status 现在忙不忙?”——OpenClaw 会先执行 /status 给你看状态,再把”现在忙不忙”这部分发给 AI。

好,开始讲那 5 个指令。

第一个:/status ——看一眼你的 AI 现在怎么样了

用法

/status

它会告诉你什么

发出这条命令后,OpenClaw 会返回一个状态摘要,通常包括:

  • 当前使用的 AI 模型是哪个
  • 本次会话已消耗了多少 Token
  • 当前队列模式(消息如何排队处理)
  • 会话是否处于活跃状态
  • 可用的功能和工具

示例回复大概长这样:

📊 OpenClaw 状态
━━━━━━━━━━━━━━
模型:anthropic/claude-sonnet-4-6
Token 用量:2,847 / 200,000
队列模式:collect
会话:main(活跃)
工具:bash, browser, read, write, web_search
━━━━━━━━━━━━━━

什么时候用

  • 刚发完消息没有响应,不确定 AI 有没有收到
  • 想知道现在用的是哪个模型(有没有正确接入你配置的那个)
  • 长对话后担心 Token 快用完了
  • 想确认某个工具(比如网络搜索)是否可用

小技巧

/status 是内联快捷方式之一——你可以把它嵌在普通消息里:

嘿 /status 顺便帮我查一下今天的 AI 新闻

OpenClaw 会先返回状态信息,再把”帮我查一下今天的 AI 新闻”发给 AI 处理。

第二个:/help/commands ——查看所有可用命令

用法

/help
# 或者
/commands

它会告诉你什么

返回当前对你可用的所有斜杠命令列表,按类别分组。这是你最好的”说明书”,因为不同 OpenClaw 版本、不同配置、不同权限级别,可用命令会有差异——/help 始终给你看的是当下这个实例实际能用的命令,而不是一份固定文档。

什么时候用

  • 刚装好 OpenClaw,第一件事就应该发这条
  • 忘记某个命令的确切写法时
  • 升级到新版本后,看看有没有新增命令
  • 配置了新的技能或插件后,检查有没有对应的命令暴露出来

/help 相关的几个变体

/help              # 常用命令分类列表
/commands          # 完整命令列表(包含所有可用命令)
/status            # 当前状态(也是内联快捷方式)

新手必做:装好 OpenClaw 之后,第一条发送的命令建议就是 /help——先摸清楚有哪些工具可以用,比直接开始聊天更有效率。

第三个:/model ——换一个 AI 大脑

用法

/model                      # 打开模型选择器(列出可用模型)
/model list                 # 列出所有已配置模型
/model gpt                  # 切换到 GPT 系列(模糊匹配别名)
/model claude               # 切换到 Claude
/model flash                # 切换到 Gemini Flash(如果配置了别名)
/model openai/gpt-5.4       # 精确指定模型 ID
/model status               # 查看当前模型详情(包含认证信息)

它会做什么

/model 会切换当前会话使用的 AI 模型。不同模型各有所长:

  • 处理复杂推理任务 → 可能需要切换到 Claude Opus 或 GPT-5.4 Pro
  • 想省钱处理简单任务 → 切换到 Gemini Flash 或 DeepSeek
  • 代码相关工作 → 有些人偏好专门的 Codex 系列

重要特性:不会打断进行中的任务

如果 AI 正在执行一个任务(比如它在帮你搜索资料),这时你发 /model claude,OpenClaw 不会立刻打断当前运行——它会等当前任务完成,然后后续的工作才使用新模型。这是一个很贴心的设计,防止切换模型时造成任务中断。

模糊匹配和别名

/model 支持模糊匹配:你不需要记住完整的模型 ID(比如 anthropic/claude-sonnet-4-6),可以直接用别名或关键词:

/model sonnet    # 匹配 claude-sonnet-4-6
/model opus      # 匹配 claude-opus-4-6
/model gpt       # 匹配 openai/gpt 系列
/model gemini    # 匹配 google/gemini 系列
/model flash     # 匹配设置了 flash 别名的模型

自定义别名可以在 openclaw.json 中的 agents.defaults.models 里配置:

{
  "agents": {
    "defaults": {
      "models": {
        "google/gemini-3-flash-preview": {
          "alias": "flash"
        },
        "anthropic/claude-sonnet-4-6": {
          "alias": "sonnet"
        }
      }
    }
  }
}

什么时候用

  • 当前任务超出默认模型的能力范围,需要更强的模型
  • 简单任务用便宜模型节省 Token 费用
  • 测试不同模型对同一个任务的回答质量差异
  • 某个模型响应慢或者报错,临时切换到备用模型

第四个:/new ——开一段新的对话,清空记忆

用法

/new                        # 开启新会话(清空当前上下文)
/new claude                 # 开启新会话并同时切换到 Claude
/new gpt                    # 开启新会话并切换到 GPT

它会做什么

/new 会开启一个全新的对话会话。对 AI 来说,它相当于”失忆”——之前对话里讲过的所有内容都不再在上下文里,AI 会以一个完全干净的状态开始新对话。

为什么需要这个

AI 的”记忆”本质上是把历史对话塞进上下文窗口里,随着对话越来越长:

  • Token 消耗越来越多(费用增加)
  • AI 的注意力被旧对话分散(回答质量可能下降)
  • 可能产生上下文”污染”——前面讨论 A 项目的结论影响到了后面 B 项目的判断

完成一个任务之后,或者要切换到完全不同的话题时,/new 是个好习惯。

和 /new 相关的几个细节

  • /new 会为每个客户端分配独立的新会话(v2026.3.7+ 修复了之前多个 TUI 客户端共享同一会话的问题)
  • 新会话开始后,如果你之前设置了某个 /model 切换,会话级别的设置会重置,回到配置文件里的默认模型
  • 持久化记忆(memory.mdsoul.md 等文件)不会/new清除,这些跨会话的长期记忆仍然保留

什么时候用

  • 完成一个任务,切换到完全不同的工作内容
  • 感觉 AI 越说越偏,可能是被旧上下文带跑了
  • 对话很长,响应开始变慢(Token 快到上限)
  • 想测试 AI 对某个问题”没有前置信息”时的回答

第五个:/think ——让 AI 想得更深(或者更快)

用法

/think off        # 关闭深度推理(默认,速度最快)
/think low        # 轻度推理
/think medium     # 中等推理
/think high       # 深度推理
/think xhigh      # 最强推理(消耗 Token 最多)

它会做什么

这条指令控制 AI 在回答之前”想多深”。支持推理模式的模型(如 Claude、GPT-5.4、某些 DeepSeek 版本)会在给出最终答案之前进行内部推理——相当于在草稿纸上算完再告诉你结论。

/think 的级别决定了 AI 在这个内部推理过程上花多少精力:

级别 适合什么任务 Token 消耗 响应速度
off 日常聊天、简单查询、快速任务 最低 最快
low 有一点逻辑的问题,不复杂
medium 需要一定分析的任务,代码调试 中等 中等
high 复杂推理、架构设计、深度分析 较慢
xhigh 极端复杂任务、需要最高精度的判断 极高

两种使用方式:临时 vs 持久

这是 /think 最容易混淆的地方:

内联使用(只对当前这条消息生效):

帮我分析这段代码有什么安全漏洞 /think high

# /think high 只影响这一次回复,下一条消息恢复默认

独立发送(对当前会话持久生效):

/think high

# 单独发送这条指令,之后所有回复都使用 high 级别
# 直到你发 /think off 或开启新会话

什么时候用

  • 需要 AI 帮你做严肃的逻辑推导、数学计算 → /think high
  • 设计系统架构、分析风险、写复杂合同 → /think xhigh
  • 日常聊天和简单查询 → 保持默认 off,省钱又快
  • 感觉 AI 回答太潦草,漏掉了重要细节 → 试试加 /think medium

费用提示:xhigh 级别在复杂任务上可能消耗大量 Token。建议日常保持默认(off),只在真正需要深度推理的任务上才提升级别,任务完成后记得用 /think off 重置,或者直接开 /new 新对话。

5 个指令的使用场景组合

掌握这 5 个指令后,你的典型工作流可能是这样的:

# 场景:开始一天的工作

# 1. 先确认 AI 是不是正常运行的
/status

# 2. 查一下有哪些工具可以用
/help

# 3. 告诉 AI 去搜集今天的工作材料
帮我整理今天的邮件摘要,以及搜索一下有没有竞品发布新动态

# ---- AI 执行任务 ----

# 4. 看完摘要,切换到深度分析任务
/think high
基于这份竞品分析,帮我写一份我们产品的应对策略文档

# ---- AI 执行深度任务 ----

# 5. 下午要换一个完全不同的项目
/new
# 新会话开始,上午的对话不再影响 AI

# 6. 这个新项目用 GPT 效果更好
/model gpt
现在帮我优化这段 Python 代码……

5 个指令快速对照表

指令 一句话说明 最常见用途
/status 查看当前 AI 和会话状态 确认模型、看 Token 用量、排查问题
/help 查看所有可用命令列表 新手入门必发、忘记命令时查阅
/model 切换当前使用的 AI 模型 换更强 / 更便宜的模型,灵活调配
/new 开启新会话,清空当前上下文 切换任务、上下文太长时重置
/think 调整 AI 的推理深度 复杂任务提升质量,简单任务节省费用

还有哪些值得记住的指令?

5 个基础指令之外,还有几个用得比较多的,列出来供参考:

  • /tools:查看当前智能体实际可以调用的工具列表(什么工具”现在可用”)
  • /tasks:查看当前后台正在运行或已完成的任务看板(v2026.4.1 新增)
  • /queue:查看或更改消息队列模式(steer / collect / followup 等)
  • /verbose:切换详细模式,可以看到工具调用的详细执行过程
  • /compact:手动触发上下文压缩,在不开新会话的情况下减少 Token 占用
  • /btw:向 AI 提一个临时侧问,不影响当前任务的执行流
  • /stop/kill:立刻中止正在运行的任务

这些可以在熟悉了前 5 个之后慢慢探索,不用一次全记。

总结

OpenClaw 的斜杠命令系统是你控制 AI 助手的遥控器。记住这 5 个,就能覆盖日常使用中 80% 的场景:

  1. /status:看现在状态怎么样
  2. /help:看有哪些命令可以用
  3. /model:换一个合适的 AI 模型
  4. /new:开一段全新的对话
  5. /think:让 AI 想得更深或更快

装好了 OpenClaw,从发出第一个 /help 开始。剩下的,边用边学就好。

想了解更多 OpenClaw 使用技巧,欢迎访问 OpenClaw 中文版官网