模型配置
OpenClaw 支持内置 Provider 和自定义 Provider,可按成本与效果组合使用。本文同时介绍如何接入第三方 API 中转服务(以 AIGoCode 为例)。
内置 Provider
anthropic(Claude)openai(GPT)openrouterminimaxzaimoonshotollama
多模型与别名
在配置文件中注册多个模型并设置别名:
{
agents: {
defaults: {
models: {
"anthropic/claude-opus-4-6": { alias: "opus" },
"anthropic/claude-sonnet-4-5": { alias: "sonnet" },
"openai/gpt-5.2": { alias: "gpt" },
"deepseek/deepseek-chat": { alias: "ds" },
},
model: {
primary: "anthropic/claude-sonnet-4-5",
fallbacks: ["minimax/MiniMax-M2.1"],
},
},
},
}
聊天中快速切换:
/model opus
/model gpt
/model ds
接入第三方 API 中转(推荐)
国内使用 Claude 官方 API 有诸多限制,建议用第三方中转服务,按量付费、国内直连。推荐 AIGoCode,支持 Claude Opus 4.6、GPT、Codex、Gemini 等主流模型。
最快方式:让 OpenClaw 帮你配置
在 Telegram/飞书/Discord 聊天框里发这段话:
帮我配置第三方 Claude 中转:
- Base URL: https://api.aigocode.com
- API Key: sk-你的密钥
- 模型 ID: claude-opus-4-6
请按照 models.providers 自定义 provider 的方式配置,api 类型用 anthropic-messages,配好后切换为默认模型。
OpenClaw 会自动修改配置文件、重启网关并验证。
手动配置
打开配置文件:
nano ~/.openclaw/openclaw.json
# 或
vi ~/.openclaw/openclaw.json
在文件里的 models 块中添加自定义 provider(如已有 models 字段,只需添加 providers 部分):
{
"models": {
"providers": {
"aigocode": {
"baseUrl": "https://api.aigocode.com",
"apiKey": "sk-你的API密钥",
"api": "anthropic-messages",
"models": [
{
"id": "claude-opus-4-6",
"name": "Claude Opus 4.6 (AIGoCode)",
"reasoning": true,
"input": ["text", "image"],
"contextWindow": 200000,
"maxTokens": 16384
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "aigocode/claude-opus-4-6"
}
}
}
}
保存后重启网关:
openclaw gateway restart
验证配置
openclaw models list --all --provider aigocode
openclaw status
询问机器人"你现在用的是什么模型?"——它能告诉你当前使用的模型。
关键配置注意事项
api 字段必须填对
| 模型类型 | api 字段值 |
|---|---|
| Claude 系列 | anthropic-messages |
| GPT / 大部分 OpenAI 兼容 | openai-responses |
| Codex 系列 | openai-responses(不能用 completions) |
baseUrl 不要带 /v1
OpenClaw 会自动拼接 /v1,如果你写了 /v1,最终路径变成 /v1/v1,返回 404。
模型名用自定义 provider 格式
写 aigocode/claude-opus-4-6,不要写 anthropic/claude-opus-4-6。后者让 OpenClaw 去找内置 anthropic provider 的 Key,找不到就报错:No API key found for provider "anthropic"。
不推荐用环境变量
设置 ANTHROPIC_BASE_URL 环境变量会覆盖内置 anthropic provider,可能导致不同渠道的会话读不到 Key(飞书能用但 Telegram 不行)。用自定义 provider 更干净。
常见报错
| 错误信息 | 原因 | 解决方法 |
|---|---|---|
No API key found for provider "anthropic" | 模型名写成了 anthropic/... 格式 | 改为 自定义provider名/模型ID |
| 404 | baseUrl 带了 /v1 | 去掉 /v1 |
| 403 | Key 只授权特定客户端 | 联系中转服务商确认 Key 权限 |
Unknown model: xxx | 模型 ID 写错,或未在 models 数组中声明 | 检查 ID 拼写,确保已在 providers 的 models 数组里声明 |
Token 消耗与成本查看
openclaw status
openclaw dashboard
也可以直接问机器人:"你现在用了多少 token?"
如果用的是第三方中转,去中转服务商后台看 API 调用记录和消耗统计,那个数据最准确。
如需在消息前缀显示当前模型名:
{
messages: {
responsePrefix: "[{model}]",
},
}
国内主流 Provider 配置示例
以下是国内常用大模型的最小可用配置,直接复制粘贴到 providers 块中即可使用。
Moonshot / Kimi
"moonshot": {
"baseUrl": "https://api.moonshot.cn",
"apiKey": "sk-你的密钥",
"api": "openai-responses",
"models": [
{ "id": "moonshot-v1-8k", "name": "Kimi 8K" },
{ "id": "moonshot-v1-32k", "name": "Kimi 32K" },
{ "id": "moonshot-v1-128k", "name": "Kimi 128K" }
]
}
智谱 GLM
"zhipu": {
"baseUrl": "https://open.bigmodel.cn/api/paas",
"apiKey": "你的GLM密钥",
"api": "openai-responses",
"models": [
{ "id": "glm-4", "name": "GLM-4" },
{ "id": "glm-4-flash", "name": "GLM-4 Flash(免费)" }
]
}
MiniMax
"minimax": {
"baseUrl": "https://api.minimax.chat",
"apiKey": "你的MiniMax密钥",
"api": "openai-responses",
"models": [
{ "id": "MiniMax-M2.1", "name": "MiniMax M2.1" },
{ "id": "abab6.5s-chat", "name": "MiniMax ABAB 6.5S" }
]
}
阿里 Qwen(通义千问)
"qwen": {
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode",
"apiKey": "sk-你的通义密钥",
"api": "openai-responses",
"models": [
{ "id": "qwen-max", "name": "Qwen Max" },
{ "id": "qwen-plus", "name": "Qwen Plus" },
{ "id": "qwen-turbo", "name": "Qwen Turbo(快速)" }
]
}
DeepSeek
"deepseek": {
"baseUrl": "https://api.deepseek.com",
"apiKey": "sk-你的DeepSeek密钥",
"api": "openai-responses",
"models": [
{ "id": "deepseek-chat", "name": "DeepSeek Chat" },
{ "id": "deepseek-reasoner", "name": "DeepSeek R1(推理)" }
]
}
提示:配置完成后用别名切换:
openclaw models set deepseek/deepseek-chat,或在聊天中发/model ds(需先在models.aliases中配置别名)。
多 Provider 与切换
配好多个 provider 后,切换模型:
# 在同一中转内切换
openclaw models set aigocode/claude-sonnet-4-5
# 切换到另一个 provider
openclaw models set openai/gpt-5.2
# 重启生效
openclaw gateway restart