模型配置

OpenClaw 支持内置 Provider 和自定义 Provider,可按成本与效果组合使用。本文同时介绍如何接入第三方 API 中转服务(以 AIGoCode 为例)。

内置 Provider

  • anthropic(Claude)
  • openai(GPT)
  • openrouter
  • minimax
  • zai
  • moonshot
  • ollama

多模型与别名

在配置文件中注册多个模型并设置别名:

{
  agents: {
    defaults: {
      models: {
        "anthropic/claude-opus-4-6": { alias: "opus" },
        "anthropic/claude-sonnet-4-5": { alias: "sonnet" },
        "openai/gpt-5.2": { alias: "gpt" },
        "deepseek/deepseek-chat": { alias: "ds" },
      },
      model: {
        primary: "anthropic/claude-sonnet-4-5",
        fallbacks: ["minimax/MiniMax-M2.1"],
      },
    },
  },
}

聊天中快速切换:

/model opus
/model gpt
/model ds

接入第三方 API 中转(推荐)

国内使用 Claude 官方 API 有诸多限制,建议用第三方中转服务,按量付费、国内直连。推荐 AIGoCode,支持 Claude Opus 4.6、GPT、Codex、Gemini 等主流模型。

最快方式:让 OpenClaw 帮你配置

在 Telegram/飞书/Discord 聊天框里发这段话:

帮我配置第三方 Claude 中转:
- Base URL: https://api.aigocode.com
- API Key: sk-你的密钥
- 模型 ID: claude-opus-4-6

请按照 models.providers 自定义 provider 的方式配置,api 类型用 anthropic-messages,配好后切换为默认模型。

OpenClaw 会自动修改配置文件、重启网关并验证。

手动配置

打开配置文件:

nano ~/.openclaw/openclaw.json
# 或
vi ~/.openclaw/openclaw.json

在文件里的 models 块中添加自定义 provider(如已有 models 字段,只需添加 providers 部分):

{
  "models": {
    "providers": {
      "aigocode": {
        "baseUrl": "https://api.aigocode.com",
        "apiKey": "sk-你的API密钥",
        "api": "anthropic-messages",
        "models": [
          {
            "id": "claude-opus-4-6",
            "name": "Claude Opus 4.6 (AIGoCode)",
            "reasoning": true,
            "input": ["text", "image"],
            "contextWindow": 200000,
            "maxTokens": 16384
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "aigocode/claude-opus-4-6"
      }
    }
  }
}

保存后重启网关:

openclaw gateway restart

验证配置

openclaw models list --all --provider aigocode
openclaw status

询问机器人"你现在用的是什么模型?"——它能告诉你当前使用的模型。

关键配置注意事项

api 字段必须填对

模型类型api 字段值
Claude 系列anthropic-messages
GPT / 大部分 OpenAI 兼容openai-responses
Codex 系列openai-responses(不能用 completions)

baseUrl 不要带 /v1

OpenClaw 会自动拼接 /v1,如果你写了 /v1,最终路径变成 /v1/v1,返回 404。

模型名用自定义 provider 格式

aigocode/claude-opus-4-6,不要写 anthropic/claude-opus-4-6。后者让 OpenClaw 去找内置 anthropic provider 的 Key,找不到就报错:No API key found for provider "anthropic"

不推荐用环境变量

设置 ANTHROPIC_BASE_URL 环境变量会覆盖内置 anthropic provider,可能导致不同渠道的会话读不到 Key(飞书能用但 Telegram 不行)。用自定义 provider 更干净。

常见报错

错误信息原因解决方法
No API key found for provider "anthropic"模型名写成了 anthropic/... 格式改为 自定义provider名/模型ID
404baseUrl 带了 /v1去掉 /v1
403Key 只授权特定客户端联系中转服务商确认 Key 权限
Unknown model: xxx模型 ID 写错,或未在 models 数组中声明检查 ID 拼写,确保已在 providers 的 models 数组里声明

Token 消耗与成本查看

openclaw status
openclaw dashboard

也可以直接问机器人:"你现在用了多少 token?"

如果用的是第三方中转,去中转服务商后台看 API 调用记录和消耗统计,那个数据最准确。

如需在消息前缀显示当前模型名:

{
  messages: {
    responsePrefix: "[{model}]",
  },
}

国内主流 Provider 配置示例

以下是国内常用大模型的最小可用配置,直接复制粘贴到 providers 块中即可使用。

Moonshot / Kimi

"moonshot": {
  "baseUrl": "https://api.moonshot.cn",
  "apiKey": "sk-你的密钥",
  "api": "openai-responses",
  "models": [
    { "id": "moonshot-v1-8k", "name": "Kimi 8K" },
    { "id": "moonshot-v1-32k", "name": "Kimi 32K" },
    { "id": "moonshot-v1-128k", "name": "Kimi 128K" }
  ]
}

智谱 GLM

"zhipu": {
  "baseUrl": "https://open.bigmodel.cn/api/paas",
  "apiKey": "你的GLM密钥",
  "api": "openai-responses",
  "models": [
    { "id": "glm-4", "name": "GLM-4" },
    { "id": "glm-4-flash", "name": "GLM-4 Flash(免费)" }
  ]
}

MiniMax

"minimax": {
  "baseUrl": "https://api.minimax.chat",
  "apiKey": "你的MiniMax密钥",
  "api": "openai-responses",
  "models": [
    { "id": "MiniMax-M2.1", "name": "MiniMax M2.1" },
    { "id": "abab6.5s-chat", "name": "MiniMax ABAB 6.5S" }
  ]
}

阿里 Qwen(通义千问)

"qwen": {
  "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode",
  "apiKey": "sk-你的通义密钥",
  "api": "openai-responses",
  "models": [
    { "id": "qwen-max", "name": "Qwen Max" },
    { "id": "qwen-plus", "name": "Qwen Plus" },
    { "id": "qwen-turbo", "name": "Qwen Turbo(快速)" }
  ]
}

DeepSeek

"deepseek": {
  "baseUrl": "https://api.deepseek.com",
  "apiKey": "sk-你的DeepSeek密钥",
  "api": "openai-responses",
  "models": [
    { "id": "deepseek-chat", "name": "DeepSeek Chat" },
    { "id": "deepseek-reasoner", "name": "DeepSeek R1(推理)" }
  ]
}

提示:配置完成后用别名切换:openclaw models set deepseek/deepseek-chat,或在聊天中发 /model ds(需先在 models.aliases 中配置别名)。


多 Provider 与切换

配好多个 provider 后,切换模型:

# 在同一中转内切换
openclaw models set aigocode/claude-sonnet-4-5

# 切换到另一个 provider
openclaw models set openai/gpt-5.2

# 重启生效
openclaw gateway restart