2026 年 3 月 5 日,OpenAI 正式发布 GPT-5.4——第一个将 GPT-5.3-Codex 的领先编程能力与通用推理、原生 Computer Use 整合到单一模型的里程碑版本。仅一天后(3 月 6 日),OpenClaw 就通过 PR #36590 合并了 GPT-5.4 的完整支持。

GPT-5.4 对 OpenClaw 用户的核心价值在三点:105 万 Token 超长上下文(是 GPT-4 Turbo 的 8 倍)、Tool Search 机制将多技能场景的 Token 消耗降低 47%,以及原生 Computer Use 能力——这三点恰好是 OpenClaw 智能体工作流最需要的特性。本文提供两条接入路径的完整配置教程。更多资源请访问 OpenClaw 中文版官网

一、GPT-5.4 核心参数与 OpenClaw 相关性

参数 GPT-5.4 GPT-5.4 Pro 对 OpenClaw 的意义
上下文窗口 105 万 Token(标准 27.2 万) 105 万 Token 整个代码库、长期对话记忆一次性处理
最大输出 128,000 Token 128,000 Token 可生成完整大型文件,不被截断
输入定价 $2.50 / M Token $30.00 / M Token 标准版性价比远高于 Pro
输出定价 $15.00 / M Token $180.00 / M Token 长输出任务按需选 Pro
推理参数 reasoning.effort:none/low/medium/high/xhigh 同左 注意:不是 reasoning_effort,有下划线区别
Tool Search ✅ 原生支持 ✅ 原生支持 技能密集 Agent 可减少 47% Token 消耗
Computer Use ✅ 原生(API + Codex) ✅ 原生 直接驱动浏览器、桌面操作
GDPval 专业任务胜率 83.0%(vs GPT-5.2 的 70.9%) 更高 知识工作场景显著提升
OSWorld 桌面自动化 75.0%(超越 72.4% 人类基线) 浏览器 / 文件 / GUI 任务更可靠

二、两条接入路径:选哪条?

OpenClaw 支持两种 GPT-5.4 接入方式,使用不同的服务商前缀:

接入方式 OpenClaw 模型 ID 认证方式 适合场景
直接 API Key openai/gpt-5.4 OpenAI API Key(sk-... 按量计费,服务器部署,生产环境
Codex OAuth openai-codex/gpt-5.4 ChatGPT / Codex 订阅 OAuth 已有 ChatGPT Plus / Pro 订阅,个人使用

两条路径在 OpenClaw 内部走不同的 API 端点,认证和计费相互独立,请根据你的实际情况选择。

三、路径一:直接 API Key(openai/gpt-5.4)

第一步:获取 OpenAI API Key

  1. 访问 platform.openai.com/api-keys,登录 OpenAI 账号
  2. 点击 「+ Create new secret key」,填写描述(如 “OpenClaw Production”)
  3. 立即复制生成的 Key(格式:sk-proj-xxxxsk-xxxx),不保存则无法再查看
  4. 确认账户已开通付费计划(GPT-5.4 需要有效的计费账户)

第二步:引导向导配置(最快)

openclaw onboard --auth-choice openai-api-key

# 向导中填入:
# API Key → sk-你的密钥
# 默认模型 → openai/gpt-5.4

第三步:手动配置 openclaw.json(完整版)

~/.openclaw/.env 中添加:

OPENAI_API_KEY=sk-你的OpenAI密钥

编辑 ~/.openclaw/openclaw.json

{
  "env": {
    "OPENAI_API_KEY": "sk-你的OpenAI密钥"
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "openai/gpt-5.4",
        "fallbacks": [
          "openai/gpt-5.4-pro",
          "anthropic/claude-sonnet-4-6"
        ]
      },
      "models": {
        "openai/gpt-5.4": {
          "alias": "gpt",
          "params": {
            "transport": "auto",
            "openaiWsWarmup": true,
            "serviceTier": "auto"
          }
        },
        "openai/gpt-5.4-pro": {
          "alias": "gpt-pro",
          "params": {
            "transport": "auto",
            "openaiWsWarmup": true,
            "serviceTier": "auto"
          }
        }
      }
    }
  }
}

配置完成后重启 Gateway:

openclaw daemon restart

# 验证 GPT-5.4 已加载
openclaw models list | grep "openai/gpt-5.4"
# 期望输出:openai/gpt-5.4  text+image  1050k  no  yes  configured

四、路径二:Codex OAuth(openai-codex/gpt-5.4)

如果你有 ChatGPT Plus / Pro 订阅,可以通过 Codex OAuth 免 API Key 使用 GPT-5.4,消耗的是订阅额度而非按 Token 计费。

登录 Codex OAuth

# 通过引导向导(推荐)
openclaw onboard --auth-choice openai-codex

# 或直接执行登录流程
openclaw models auth login --provider openai-codex

# 登录后验证
# 浏览器会打开 Google/OpenAI OAuth 授权页面
# 完成授权后 Token 存储在 Gateway 的 auth profiles 中

openclaw.json 配置(Codex OAuth)

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "openai-codex/gpt-5.4"
      },
      "models": {
        "openai-codex/gpt-5.4": {
          "alias": "gpt-codex",
          "params": {
            "transport": "auto"
          }
        }
      }
    }
  }
}

已知问题(v2026.3.2 及更早):部分版本的 Codex OAuth 路径会将 GPT-5.4 请求发到错误的 API 端点(/v1/responses 而非 chatgpt.com/backend-api/codex/responses),导致 401 错误并静默回退到 GPT-5.3-Codex。升级到 v2026.3.7+(PR #36590 修复版本)可彻底解决此问题。升级命令:npm install -g openclaw@latest

五、WebSocket 传输与 serviceTier 详解

传输协议:WebSocket 优先,SSE 兜底

GPT-5.4 在 OpenClaw 中默认使用 WebSocket 优先(auto 模式)的传输策略,SSE 作为兜底:

{
  "agents": {
    "defaults": {
      "models": {
        "openai/gpt-5.4": {
          "params": {
            "transport": "auto",        // WebSocket 优先,SSE 兜底(默认)
            // "transport": "websocket", // 强制 WebSocket
            // "transport": "sse"        // 强制 SSE(兼容性模式)
          }
        }
      }
    }
  }
}

WebSocket 预热(openaiWsWarmup)

OpenClaw 默认为 openai/* 路径开启 WebSocket 预热,在第一条消息发出前建立好连接,降低首次响应延迟:

{
  "agents": {
    "defaults": {
      "models": {
        "openai/gpt-5.4": {
          "params": {
            "openaiWsWarmup": true   // 默认开启(降低首次响应延迟)
            // 网络不稳定时可设为 false 关闭
          }
        }
      }
    }
  }
}

服务处理层级(serviceTier)

OpenAI 提供四个处理层级,OpenClaw 通过 params.serviceTier 透传给 API:

serviceTier 值 价格倍率 适用场景
flex 标准价 × 0.5 离线批处理、不急任务(可能延迟数小时)
default 标准价 × 1 正常按量使用
auto 标准价 × 1(推荐) 让 OpenAI 自动选择最优层级
priority 标准价 × 2 实时关键任务,要求最低延迟
{
  "agents": {
    "defaults": {
      "models": {
        "openai/gpt-5.4": {
          "params": {
            "serviceTier": "auto"     // 推荐:让 OpenAI 自动决策
            // "serviceTier": "priority" // 追求速度(费用 ×2)
            // "serviceTier": "flex"    // 批量离线任务(费用 ×0.5)
          }
        }
      }
    }
  }
}

注意:serviceTier 只对直接 openai/* 请求生效(api.openai.com),若将 openai 路由到自定义代理或 Azure 端点,该参数会被 OpenClaw 忽略。

六、推理参数(reasoning.effort)配置

GPT-5.4 的推理强度通过 reasoning.effort 参数控制(注意:不是 reasoning_effort,参数名内没有下划线)。

在 OpenClaw 中,用运行时指令 /think 调整推理层级,系统会将其映射到 OpenAI 的 reasoning.effort:

# 聊天中使用(当次有效)
/think off      → reasoning.effort: "none"(默认,速度最快)
/think low      → reasoning.effort: "low"
/think medium   → reasoning.effort: "medium"
/think high     → reasoning.effort: "high"
/think xhigh    → reasoning.effort: "xhigh"(最强推理,消耗最多 Token)

# 或持久设置(发送仅含指令的消息)
/think high     # 作为独立消息发送时,对当前会话持久生效

在配置文件中设置默认推理强度:

{
  "agents": {
    "defaults": {
      "models": {
        "openai/gpt-5.4": {
          "params": {
            "reasoning": {
              "effort": "medium"    // 默认推理强度(可被 /think 覆盖)
            }
          }
        }
      }
    }
  }
}

成本提示:xhigh 推理强度下,单次复杂推理任务可能消耗数万乃至十万级 Token。建议日常任务使用默认的 “none” 或 “low”,只在需要深度分析时手动切换到 high/xhigh。超过 272K Token 的上下文会按 2 倍标准计费(超长上下文溢价)。

七、/fast 模式:低延迟加速

OpenClaw 提供一个跨服务商的快速模式切换,对 GPT-5.4 会自动映射为 service_tier=priority

# 聊天中开启高速模式
/fast on

# 关闭高速模式(恢复默认)
/fast off

# 查看当前状态
/fast status

开启 fast 模式后,OpenAI 侧会以优先队列处理请求,Token 生成速度据官方说明提升最高 1.5x,代价是费用翻倍。

八、完整推荐配置:双路径 + 降级链

以下是社区推荐的生产级配置,结合直接 API Key 路径和完善的降级策略:

{
  "env": {
    "OPENAI_API_KEY": "sk-你的OpenAI密钥"
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "openai/gpt-5.4",
        "fallbacks": [
          "openai/gpt-5.4-pro",
          "anthropic/claude-sonnet-4-6",
          "deepseek/deepseek-chat"
        ]
      },
      "models": {
        "openai/gpt-5.4": {
          "alias": "gpt",
          "params": {
            "transport": "auto",
            "openaiWsWarmup": true,
            "serviceTier": "auto",
            "reasoning": {
              "effort": "none"
            }
          }
        },
        "openai/gpt-5.4-pro": {
          "alias": "gpt-pro",
          "params": {
            "transport": "auto",
            "openaiWsWarmup": true,
            "serviceTier": "auto"
          }
        }
      }
    }
  }
}

九、GPT-5.4 在 OpenClaw 的三大优势场景

场景一:技能密集型 Agent(Tool Search 节省 47% Token)

当 OpenClaw 安装了大量技能(Skills)时,每次请求都需要将技能定义(Tool Definition)送入上下文,Token 消耗惊人。GPT-5.4 的 Tool Search 机制会动态检索只有本次任务需要的工具定义,跳过无关技能,直接节省约 47% 的 Token 消耗:

# 技能密集场景下,建议开启 xhigh 推理(Task Planning 阶段)
/think xhigh
帮我分析这份竞品报告,同时更新 Trello 看板,发邮件给团队,
并在 Notion 里创建跟进文档

# GPT-5.4 会通过 Tool Search 只加载:
# gh-issues, trello, email, notion 四个技能
# 而非全部 50+ 已安装技能

场景二:超长上下文工程任务(105 万 Token)

# 将整个代码仓库一次性送入分析
帮我全面重构 workspace/ 目录下所有 Python 文件,
统一代码风格,修复 type hints,并生成迁移说明文档

# 105 万 Token 上下文 = 可处理约 300 万字节的代码
# 注意:超过 27.2 万 Token 按 2x 计费

场景三:Computer Use 自动化(原生支持)

GPT-5.4 是 OpenAI 首个在 API 和 Codex 路径上都原生支持 Computer Use 的通用模型,结合 OpenClaw 的浏览器工具,可以执行截图→推理→操作的自动化循环:

# 在 OpenClaw 中触发 Computer Use 流程
帮我在浏览器中打开 GitHub,找到 openclaw 仓库最新的
open issues,整理成表格发给我

# GPT-5.4 会调用 browser.snapshot → browser.action 工具链
# 自动截图、分析页面、点击、输入,直至完成任务

十、GPT-5.4 vs GPT-5.4 Pro 选型

维度 GPT-5.4(标准) GPT-5.4 Pro
输入价格 $2.50/M $30.00/M(12 倍)
输出价格 $15.00/M $180.00/M(12 倍)
推理上限 xhigh xhigh(更长推理时间)
适合场景 99% 的日常 OpenClaw 任务 需要最大性能的极端复杂任务
推荐策略 作为 Primary 模型 作为 Fallback 备用,或按需 /model gpt-pro 切换

对于绝大多数 OpenClaw 用户,GPT-5.4 标准版就足够了。GPT-5.4 Pro 的 12 倍溢价只在需要极限推理质量的场景才值得——比如处理极度复杂的法律文件审查或高精度科研数据分析。建议将 Pro 版配置为 Fallback,在特定任务时手动切换:/model gpt-pro

十一、常见报错与解决方案

报错:Model ID Not Allowed / model not in allowlist

你的 OpenClaw 版本早于 2026.3.7(PR #36590 合并前)。升级到最新版:

npm install -g openclaw@latest
openclaw --version   # 确认 ≥ 2026.3.7

报错:Codex OAuth 401,静默回退到 gpt-5.3-codex

这是 v2026.3.2 的已知 Bug(Issue #38706),在 v2026.3.7 修复。升级版本后问题消失。升级后检查:

# 确认实际使用的模型
openclaw status
# 观察 agent model: 字段,确认显示 gpt-5.4 而非 gpt-5.3-codex

报错:Azure 代理端点收到 service_tier 字段导致请求失败

如果你将 openai 服务商路由到 Azure 端点,移除 serviceTier 参数(或明确设为空)——Azure 端点不接受此字段,v2026.3.7 修复了 OpenClaw 在非 api.openai.com 端点时误注入此字段的问题。

推理参数不生效:reasoning_effort 没有作用

参数名错误。GPT-5.4 使用的是 reasoning.effort(对象格式),不是旧版的 reasoning_effort(下划线字符串格式)。在 OpenClaw 中直接用 /think 指令即可,系统会自动处理格式转换。

超长上下文费用突增

超过 27.2 万 Token 的输入会按 2x 标准计费(对话和输出也会有 1.5x 溢价)。如果任务不需要完整的 105 万上下文,建议在 Cron 任务和 Heartbeat 中配置 isolatedSession: true 防止上下文不必要地积累。

总结

OpenClaw 接入 GPT-5.4 的关键配置五要素:

  1. 路径选择:按量计费用 openai/gpt-5.4(API Key),订阅用户用 openai-codex/gpt-5.4(Codex OAuth)
  2. 版本要求:v2026.3.7+(PR #36590),低于此版本会遇到模型拒绝或 Codex OAuth 无声回退
  3. 传输协议transport: "auto" + openaiWsWarmup: true,WebSocket 优先降低首轮延迟
  4. 推理参数:使用 reasoning.effort(不是 reasoning_effort),日常用 none/low,复杂分析再切 high/xhigh
  5. 费用控制serviceTier: "auto" 日常,"flex" 批处理省 50%,"priority" 和 Pro 版按需切换

配合 OpenClaw 的 Tool Search 感知能力和浏览器自动化,GPT-5.4 能真正发挥其在智能体工作流中的价值——更少的 Token 消耗,更可靠的长任务执行,以及原生 Computer Use 驱动的自动化能力。想了解更多 OpenClaw 模型接入配置,欢迎访问 OpenClaw 中文版官网