2026 年 3 月 5 日,OpenAI 正式发布 GPT-5.4——第一个将 GPT-5.3-Codex 的领先编程能力与通用推理、原生 Computer Use 整合到单一模型的里程碑版本。仅一天后(3 月 6 日),OpenClaw 就通过 PR #36590 合并了 GPT-5.4 的完整支持。
GPT-5.4 对 OpenClaw 用户的核心价值在三点:105 万 Token 超长上下文(是 GPT-4 Turbo 的 8 倍)、Tool Search 机制将多技能场景的 Token 消耗降低 47%,以及原生 Computer Use 能力——这三点恰好是 OpenClaw 智能体工作流最需要的特性。本文提供两条接入路径的完整配置教程。更多资源请访问 OpenClaw 中文版官网。
一、GPT-5.4 核心参数与 OpenClaw 相关性
| 参数 | GPT-5.4 | GPT-5.4 Pro | 对 OpenClaw 的意义 |
|---|---|---|---|
| 上下文窗口 | 105 万 Token(标准 27.2 万) | 105 万 Token | 整个代码库、长期对话记忆一次性处理 |
| 最大输出 | 128,000 Token | 128,000 Token | 可生成完整大型文件,不被截断 |
| 输入定价 | $2.50 / M Token | $30.00 / M Token | 标准版性价比远高于 Pro |
| 输出定价 | $15.00 / M Token | $180.00 / M Token | 长输出任务按需选 Pro |
| 推理参数 | reasoning.effort:none/low/medium/high/xhigh | 同左 | 注意:不是 reasoning_effort,有下划线区别 |
| Tool Search | ✅ 原生支持 | ✅ 原生支持 | 技能密集 Agent 可减少 47% Token 消耗 |
| Computer Use | ✅ 原生(API + Codex) | ✅ 原生 | 直接驱动浏览器、桌面操作 |
| GDPval 专业任务胜率 | 83.0%(vs GPT-5.2 的 70.9%) | 更高 | 知识工作场景显著提升 |
| OSWorld 桌面自动化 | 75.0%(超越 72.4% 人类基线) | — | 浏览器 / 文件 / GUI 任务更可靠 |
二、两条接入路径:选哪条?
OpenClaw 支持两种 GPT-5.4 接入方式,使用不同的服务商前缀:
| 接入方式 | OpenClaw 模型 ID | 认证方式 | 适合场景 |
|---|---|---|---|
| 直接 API Key | openai/gpt-5.4 |
OpenAI API Key(sk-...) |
按量计费,服务器部署,生产环境 |
| Codex OAuth | openai-codex/gpt-5.4 |
ChatGPT / Codex 订阅 OAuth | 已有 ChatGPT Plus / Pro 订阅,个人使用 |
两条路径在 OpenClaw 内部走不同的 API 端点,认证和计费相互独立,请根据你的实际情况选择。
三、路径一:直接 API Key(openai/gpt-5.4)
第一步:获取 OpenAI API Key
- 访问
platform.openai.com/api-keys,登录 OpenAI 账号 - 点击 「+ Create new secret key」,填写描述(如 “OpenClaw Production”)
- 立即复制生成的 Key(格式:
sk-proj-xxxx或sk-xxxx),不保存则无法再查看 - 确认账户已开通付费计划(GPT-5.4 需要有效的计费账户)
第二步:引导向导配置(最快)
openclaw onboard --auth-choice openai-api-key
# 向导中填入:
# API Key → sk-你的密钥
# 默认模型 → openai/gpt-5.4
第三步:手动配置 openclaw.json(完整版)
在 ~/.openclaw/.env 中添加:
OPENAI_API_KEY=sk-你的OpenAI密钥
编辑 ~/.openclaw/openclaw.json:
{
"env": {
"OPENAI_API_KEY": "sk-你的OpenAI密钥"
},
"agents": {
"defaults": {
"model": {
"primary": "openai/gpt-5.4",
"fallbacks": [
"openai/gpt-5.4-pro",
"anthropic/claude-sonnet-4-6"
]
},
"models": {
"openai/gpt-5.4": {
"alias": "gpt",
"params": {
"transport": "auto",
"openaiWsWarmup": true,
"serviceTier": "auto"
}
},
"openai/gpt-5.4-pro": {
"alias": "gpt-pro",
"params": {
"transport": "auto",
"openaiWsWarmup": true,
"serviceTier": "auto"
}
}
}
}
}
}
配置完成后重启 Gateway:
openclaw daemon restart
# 验证 GPT-5.4 已加载
openclaw models list | grep "openai/gpt-5.4"
# 期望输出:openai/gpt-5.4 text+image 1050k no yes configured
四、路径二:Codex OAuth(openai-codex/gpt-5.4)
如果你有 ChatGPT Plus / Pro 订阅,可以通过 Codex OAuth 免 API Key 使用 GPT-5.4,消耗的是订阅额度而非按 Token 计费。
登录 Codex OAuth
# 通过引导向导(推荐)
openclaw onboard --auth-choice openai-codex
# 或直接执行登录流程
openclaw models auth login --provider openai-codex
# 登录后验证
# 浏览器会打开 Google/OpenAI OAuth 授权页面
# 完成授权后 Token 存储在 Gateway 的 auth profiles 中
openclaw.json 配置(Codex OAuth)
{
"agents": {
"defaults": {
"model": {
"primary": "openai-codex/gpt-5.4"
},
"models": {
"openai-codex/gpt-5.4": {
"alias": "gpt-codex",
"params": {
"transport": "auto"
}
}
}
}
}
}
已知问题(v2026.3.2 及更早):部分版本的 Codex OAuth 路径会将 GPT-5.4 请求发到错误的 API 端点(
/v1/responses而非chatgpt.com/backend-api/codex/responses),导致 401 错误并静默回退到 GPT-5.3-Codex。升级到 v2026.3.7+(PR #36590 修复版本)可彻底解决此问题。升级命令:npm install -g openclaw@latest。
五、WebSocket 传输与 serviceTier 详解
传输协议:WebSocket 优先,SSE 兜底
GPT-5.4 在 OpenClaw 中默认使用 WebSocket 优先(auto 模式)的传输策略,SSE 作为兜底:
{
"agents": {
"defaults": {
"models": {
"openai/gpt-5.4": {
"params": {
"transport": "auto", // WebSocket 优先,SSE 兜底(默认)
// "transport": "websocket", // 强制 WebSocket
// "transport": "sse" // 强制 SSE(兼容性模式)
}
}
}
}
}
}
WebSocket 预热(openaiWsWarmup)
OpenClaw 默认为 openai/* 路径开启 WebSocket 预热,在第一条消息发出前建立好连接,降低首次响应延迟:
{
"agents": {
"defaults": {
"models": {
"openai/gpt-5.4": {
"params": {
"openaiWsWarmup": true // 默认开启(降低首次响应延迟)
// 网络不稳定时可设为 false 关闭
}
}
}
}
}
}
服务处理层级(serviceTier)
OpenAI 提供四个处理层级,OpenClaw 通过 params.serviceTier 透传给 API:
| serviceTier 值 | 价格倍率 | 适用场景 |
|---|---|---|
flex |
标准价 × 0.5 | 离线批处理、不急任务(可能延迟数小时) |
default |
标准价 × 1 | 正常按量使用 |
auto |
标准价 × 1(推荐) | 让 OpenAI 自动选择最优层级 |
priority |
标准价 × 2 | 实时关键任务,要求最低延迟 |
{
"agents": {
"defaults": {
"models": {
"openai/gpt-5.4": {
"params": {
"serviceTier": "auto" // 推荐:让 OpenAI 自动决策
// "serviceTier": "priority" // 追求速度(费用 ×2)
// "serviceTier": "flex" // 批量离线任务(费用 ×0.5)
}
}
}
}
}
}
注意:serviceTier 只对直接 openai/* 请求生效(api.openai.com),若将 openai 路由到自定义代理或 Azure 端点,该参数会被 OpenClaw 忽略。
六、推理参数(reasoning.effort)配置
GPT-5.4 的推理强度通过 reasoning.effort 参数控制(注意:不是 reasoning_effort,参数名内没有下划线)。
在 OpenClaw 中,用运行时指令 /think 调整推理层级,系统会将其映射到 OpenAI 的 reasoning.effort:
# 聊天中使用(当次有效)
/think off → reasoning.effort: "none"(默认,速度最快)
/think low → reasoning.effort: "low"
/think medium → reasoning.effort: "medium"
/think high → reasoning.effort: "high"
/think xhigh → reasoning.effort: "xhigh"(最强推理,消耗最多 Token)
# 或持久设置(发送仅含指令的消息)
/think high # 作为独立消息发送时,对当前会话持久生效
在配置文件中设置默认推理强度:
{
"agents": {
"defaults": {
"models": {
"openai/gpt-5.4": {
"params": {
"reasoning": {
"effort": "medium" // 默认推理强度(可被 /think 覆盖)
}
}
}
}
}
}
}
成本提示:xhigh 推理强度下,单次复杂推理任务可能消耗数万乃至十万级 Token。建议日常任务使用默认的 “none” 或 “low”,只在需要深度分析时手动切换到 high/xhigh。超过 272K Token 的上下文会按 2 倍标准计费(超长上下文溢价)。
七、/fast 模式:低延迟加速
OpenClaw 提供一个跨服务商的快速模式切换,对 GPT-5.4 会自动映射为 service_tier=priority:
# 聊天中开启高速模式
/fast on
# 关闭高速模式(恢复默认)
/fast off
# 查看当前状态
/fast status
开启 fast 模式后,OpenAI 侧会以优先队列处理请求,Token 生成速度据官方说明提升最高 1.5x,代价是费用翻倍。
八、完整推荐配置:双路径 + 降级链
以下是社区推荐的生产级配置,结合直接 API Key 路径和完善的降级策略:
{
"env": {
"OPENAI_API_KEY": "sk-你的OpenAI密钥"
},
"agents": {
"defaults": {
"model": {
"primary": "openai/gpt-5.4",
"fallbacks": [
"openai/gpt-5.4-pro",
"anthropic/claude-sonnet-4-6",
"deepseek/deepseek-chat"
]
},
"models": {
"openai/gpt-5.4": {
"alias": "gpt",
"params": {
"transport": "auto",
"openaiWsWarmup": true,
"serviceTier": "auto",
"reasoning": {
"effort": "none"
}
}
},
"openai/gpt-5.4-pro": {
"alias": "gpt-pro",
"params": {
"transport": "auto",
"openaiWsWarmup": true,
"serviceTier": "auto"
}
}
}
}
}
}
九、GPT-5.4 在 OpenClaw 的三大优势场景
场景一:技能密集型 Agent(Tool Search 节省 47% Token)
当 OpenClaw 安装了大量技能(Skills)时,每次请求都需要将技能定义(Tool Definition)送入上下文,Token 消耗惊人。GPT-5.4 的 Tool Search 机制会动态检索只有本次任务需要的工具定义,跳过无关技能,直接节省约 47% 的 Token 消耗:
# 技能密集场景下,建议开启 xhigh 推理(Task Planning 阶段)
/think xhigh
帮我分析这份竞品报告,同时更新 Trello 看板,发邮件给团队,
并在 Notion 里创建跟进文档
# GPT-5.4 会通过 Tool Search 只加载:
# gh-issues, trello, email, notion 四个技能
# 而非全部 50+ 已安装技能
场景二:超长上下文工程任务(105 万 Token)
# 将整个代码仓库一次性送入分析
帮我全面重构 workspace/ 目录下所有 Python 文件,
统一代码风格,修复 type hints,并生成迁移说明文档
# 105 万 Token 上下文 = 可处理约 300 万字节的代码
# 注意:超过 27.2 万 Token 按 2x 计费
场景三:Computer Use 自动化(原生支持)
GPT-5.4 是 OpenAI 首个在 API 和 Codex 路径上都原生支持 Computer Use 的通用模型,结合 OpenClaw 的浏览器工具,可以执行截图→推理→操作的自动化循环:
# 在 OpenClaw 中触发 Computer Use 流程
帮我在浏览器中打开 GitHub,找到 openclaw 仓库最新的
open issues,整理成表格发给我
# GPT-5.4 会调用 browser.snapshot → browser.action 工具链
# 自动截图、分析页面、点击、输入,直至完成任务
十、GPT-5.4 vs GPT-5.4 Pro 选型
| 维度 | GPT-5.4(标准) | GPT-5.4 Pro |
|---|---|---|
| 输入价格 | $2.50/M | $30.00/M(12 倍) |
| 输出价格 | $15.00/M | $180.00/M(12 倍) |
| 推理上限 | xhigh | xhigh(更长推理时间) |
| 适合场景 | 99% 的日常 OpenClaw 任务 | 需要最大性能的极端复杂任务 |
| 推荐策略 | 作为 Primary 模型 | 作为 Fallback 备用,或按需 /model gpt-pro 切换 |
对于绝大多数 OpenClaw 用户,GPT-5.4 标准版就足够了。GPT-5.4 Pro 的 12 倍溢价只在需要极限推理质量的场景才值得——比如处理极度复杂的法律文件审查或高精度科研数据分析。建议将 Pro 版配置为 Fallback,在特定任务时手动切换:/model gpt-pro。
十一、常见报错与解决方案
报错:Model ID Not Allowed / model not in allowlist
你的 OpenClaw 版本早于 2026.3.7(PR #36590 合并前)。升级到最新版:
npm install -g openclaw@latest
openclaw --version # 确认 ≥ 2026.3.7
报错:Codex OAuth 401,静默回退到 gpt-5.3-codex
这是 v2026.3.2 的已知 Bug(Issue #38706),在 v2026.3.7 修复。升级版本后问题消失。升级后检查:
# 确认实际使用的模型
openclaw status
# 观察 agent model: 字段,确认显示 gpt-5.4 而非 gpt-5.3-codex
报错:Azure 代理端点收到 service_tier 字段导致请求失败
如果你将 openai 服务商路由到 Azure 端点,移除 serviceTier 参数(或明确设为空)——Azure 端点不接受此字段,v2026.3.7 修复了 OpenClaw 在非 api.openai.com 端点时误注入此字段的问题。
推理参数不生效:reasoning_effort 没有作用
参数名错误。GPT-5.4 使用的是 reasoning.effort(对象格式),不是旧版的 reasoning_effort(下划线字符串格式)。在 OpenClaw 中直接用 /think 指令即可,系统会自动处理格式转换。
超长上下文费用突增
超过 27.2 万 Token 的输入会按 2x 标准计费(对话和输出也会有 1.5x 溢价)。如果任务不需要完整的 105 万上下文,建议在 Cron 任务和 Heartbeat 中配置 isolatedSession: true 防止上下文不必要地积累。
总结
OpenClaw 接入 GPT-5.4 的关键配置五要素:
- 路径选择:按量计费用
openai/gpt-5.4(API Key),订阅用户用openai-codex/gpt-5.4(Codex OAuth) - 版本要求:v2026.3.7+(PR #36590),低于此版本会遇到模型拒绝或 Codex OAuth 无声回退
- 传输协议:
transport: "auto"+openaiWsWarmup: true,WebSocket 优先降低首轮延迟 - 推理参数:使用
reasoning.effort(不是reasoning_effort),日常用 none/low,复杂分析再切 high/xhigh - 费用控制:
serviceTier: "auto"日常,"flex"批处理省 50%,"priority"和 Pro 版按需切换
配合 OpenClaw 的 Tool Search 感知能力和浏览器自动化,GPT-5.4 能真正发挥其在智能体工作流中的价值——更少的 Token 消耗,更可靠的长任务执行,以及原生 Computer Use 驱动的自动化能力。想了解更多 OpenClaw 模型接入配置,欢迎访问 OpenClaw 中文版官网。