🤖 模型配置进阶
支持的模型列表
OpenClaw 支持主流 LLM 提供商,通过内置 Provider 或自定义 OpenAI 兼容接口接入。
内置 Provider(直接使用)
| Provider | 模型示例 | 环境变量 |
|---|---|---|
anthropic | claude-opus-4-6, claude-sonnet-4-5 | ANTHROPIC_API_KEY |
openai | gpt-5.2, gpt-5-mini | OPENAI_API_KEY |
openrouter | 各种模型(中转) | OPENROUTER_API_KEY |
minimax | MiniMax-M2.1 | MINIMAX_API_KEY |
zai | glm-4.7 (智谱) | ZAI_API_KEY |
moonshot | kimi-k2.5 | MOONSHOT_API_KEY / KIMI_API_KEY |
ollama | 本地模型 | 无需 Key |
opencode | 多模型代理 | OPENCODE_API_KEY |
通过自定义 Provider 接入
| 模型 | API 兼容 | 说明 |
|---|---|---|
| DeepSeek | OpenAI | 国内直连 |
| 通义千问 (Qwen) | OpenAI | 阿里云百炼 |
| Kimi | OpenAI / Anthropic | Moonshot |
| 零一万物 (Yi) | OpenAI | 国内可用 |
| Cerebras GLM | OpenAI | 高速推理 |
多模型配置和切换
配置多个模型
{
agents: {
defaults: {
models: {
"anthropic/claude-opus-4-6": { alias: "opus" },
"anthropic/claude-sonnet-4-5": { alias: "sonnet" },
"openai/gpt-5.2": { alias: "gpt" },
"deepseek/deepseek-chat": { alias: "ds" },
"minimax/MiniMax-M2.1": { alias: "minimax" },
},
model: {
primary: "anthropic/claude-sonnet-4-5",
},
},
},
}
运行时切换
在聊天中使用 /model 命令:
/model opus # 切换到 Claude Opus
/model gpt # 切换到 GPT
/model ds # 切换到 DeepSeek
/model sonnet # 切回 Sonnet
💡 提示: 别名(alias)就是
/model 命令的快捷方式,取短一点好记。备用模型(Fallback)设置
当主模型 API 出错或限速时,自动切换到备用模型:
{
agents: {
defaults: {
model: {
primary: "anthropic/claude-opus-4-6",
fallbacks: [
"minimax/MiniMax-M2.1",
"openrouter/deepseek/deepseek-r1:free",
],
},
},
},
}
Fallback 触发条件:认证失败、限速(429)、服务不可用(5xx)、超时等。
国产模型接入详解
DeepSeek
{
env: { DEEPSEEK_API_KEY: "sk-xxx" },
agents: {
defaults: {
model: { primary: "deepseek/deepseek-chat" },
models: { "deepseek/deepseek-chat": { alias: "ds" } },
},
},
models: {
mode: "merge",
providers: {
deepseek: {
baseUrl: "https://api.deepseek.com/v1",
apiKey: "${DEEPSEEK_API_KEY}",
api: "openai-completions",
models: [{
id: "deepseek-chat",
name: "DeepSeek Chat",
reasoning: false,
input: ["text"],
contextWindow: 128000,
maxTokens: 8192,
}],
},
},
},
}
Kimi (Moonshot AI)
{
env: { KIMI_API_KEY: "sk-xxx" },
agents: {
defaults: {
model: { primary: "kimi-coding/k2p5" },
models: { "kimi-coding/k2p5": { alias: "kimi" } },
},
},
}
或者使用 Moonshot 通用端点:
{
env: { MOONSHOT_API_KEY: "sk-xxx" },
models: {
providers: {
moonshot: {
baseUrl: "https://api.moonshot.cn/v1", // 国内端点
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{
id: "kimi-k2.5",
name: "Kimi K2.5",
contextWindow: 256000,
maxTokens: 8192,
}],
},
},
},
}
通义千问(Qwen / 百炼)
{
models: {
providers: {
qwen: {
baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
apiKey: "${DASHSCOPE_API_KEY}",
api: "openai-completions",
models: [{
id: "qwen3-max",
name: "Qwen3 Max",
reasoning: false, // ⚠️ 必须设为 false
input: ["text"],
contextWindow: 128000,
maxTokens: 8192,
}],
},
},
},
}
MiniMax M2.1
{
env: { MINIMAX_API_KEY: "xxx" },
agents: {
defaults: {
model: { primary: "minimax/MiniMax-M2.1" },
models: { "minimax/MiniMax-M2.1": { alias: "minimax" } },
},
},
}
智谱 GLM (Z.AI)
{
env: { ZAI_API_KEY: "xxx" },
agents: {
defaults: {
model: { primary: "zai/glm-4.7" },
models: { "zai/glm-4.7": { alias: "glm" } },
},
},
}
💡 提示: GLM 模型自动启用 thinking mode,如不需要可在 params 中关闭。
aigocode 双 Provider 配置(Codex + Claude)
推荐使用以下配置同时接入 Codex 与 Claude:
{
models: {
providers: {
"openai-codex": {
baseUrl: "https://api.aigocode.com/v1",
apiKey: "你的 API Key",
auth: "api-key",
api: "openai-responses",
models: [{
id: "gpt-5.3-codex",
name: "GPT-5.3 Codex",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 16384,
}],
},
"aigocode-claude": {
baseUrl: "https://api.aigocode.com",
apiKey: "你的 API Key",
auth: "api-key",
api: "anthropic-messages",
models: [{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 16384,
}],
},
},
},
}
💡 提示: Codex 必须使用
openai-responses 且 baseUrl 需要带 /v1;Claude 必须使用 anthropic-messages 且 baseUrl 不带 /v1。支持的 API 类型:
openai-completions— OpenAI Chat Completions 兼容openai-responses— OpenAI Responses APIanthropic-messages— Anthropic Messages 兼容google-generative-ai— Google Gemini
本地模型(Ollama)
# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# 拉取模型
ollama pull llama3.1:8b
{
models: {
providers: {
ollama: {
baseUrl: "http://localhost:11434/v1",
api: "openai-completions",
models: [{
id: "llama3.1:8b",
name: "Llama 3.1 8B",
contextWindow: 128000,
maxTokens: 8192,
}],
},
},
},
}
成本控制技巧
- 主用便宜模型,备用强模型:日常用 DeepSeek/GPT-mini,复杂任务手动
/model opus - 设置 Thinking 级别:
/thinking off关闭深度思考省 token - 使用 OpenRouter 免费模型作为 fallback
- 用
responsePrefix显示当前模型:方便知道在用哪个模型花多少钱
{
messages: {
responsePrefix: "[{model}]", // 回复前显示模型名
},
}
🔒 付费章节: 第 7 章「Agent 配置」为社区付费内容,加入社区后可继续学习。
💡 学完这章想实战?加入社群获得 $50 算力额度 + 实时答疑
加入社群 ¥49加入 Claw101 社区
解锁第 7-13 章、持续更新资源和实战交流,扫码即可加入社区。
长按识别二维码,支付后自动弹出群二维码