第 6 章 · 免费

🤖 模型配置进阶

支持的模型列表

OpenClaw 支持主流 LLM 提供商,通过内置 Provider 或自定义 OpenAI 兼容接口接入。

内置 Provider(直接使用)

Provider模型示例环境变量
anthropicclaude-opus-4-6, claude-sonnet-4-5ANTHROPIC_API_KEY
openaigpt-5.2, gpt-5-miniOPENAI_API_KEY
openrouter各种模型(中转)OPENROUTER_API_KEY
minimaxMiniMax-M2.1MINIMAX_API_KEY
zaiglm-4.7 (智谱)ZAI_API_KEY
moonshotkimi-k2.5MOONSHOT_API_KEY / KIMI_API_KEY
ollama本地模型无需 Key
opencode多模型代理OPENCODE_API_KEY

通过自定义 Provider 接入

模型API 兼容说明
DeepSeekOpenAI国内直连
通义千问 (Qwen)OpenAI阿里云百炼
KimiOpenAI / AnthropicMoonshot
零一万物 (Yi)OpenAI国内可用
Cerebras GLMOpenAI高速推理

多模型配置和切换

配置多个模型

{
  agents: {
    defaults: {
      models: {
        "anthropic/claude-opus-4-6": { alias: "opus" },
        "anthropic/claude-sonnet-4-5": { alias: "sonnet" },
        "openai/gpt-5.2": { alias: "gpt" },
        "deepseek/deepseek-chat": { alias: "ds" },
        "minimax/MiniMax-M2.1": { alias: "minimax" },
      },
      model: {
        primary: "anthropic/claude-sonnet-4-5",
      },
    },
  },
}

运行时切换

在聊天中使用 /model 命令:

/model opus          # 切换到 Claude Opus
/model gpt           # 切换到 GPT
/model ds            # 切换到 DeepSeek
/model sonnet        # 切回 Sonnet
💡 提示: 别名(alias)就是 /model 命令的快捷方式,取短一点好记。

备用模型(Fallback)设置

当主模型 API 出错或限速时,自动切换到备用模型:

{
  agents: {
    defaults: {
      model: {
        primary: "anthropic/claude-opus-4-6",
        fallbacks: [
          "minimax/MiniMax-M2.1",
          "openrouter/deepseek/deepseek-r1:free",
        ],
      },
    },
  },
}

Fallback 触发条件:认证失败、限速(429)、服务不可用(5xx)、超时等。

国产模型接入详解

DeepSeek

{
  env: { DEEPSEEK_API_KEY: "sk-xxx" },
  agents: {
    defaults: {
      model: { primary: "deepseek/deepseek-chat" },
      models: { "deepseek/deepseek-chat": { alias: "ds" } },
    },
  },
  models: {
    mode: "merge",
    providers: {
      deepseek: {
        baseUrl: "https://api.deepseek.com/v1",
        apiKey: "${DEEPSEEK_API_KEY}",
        api: "openai-completions",
        models: [{
          id: "deepseek-chat",
          name: "DeepSeek Chat",
          reasoning: false,
          input: ["text"],
          contextWindow: 128000,
          maxTokens: 8192,
        }],
      },
    },
  },
}

Kimi (Moonshot AI)

{
  env: { KIMI_API_KEY: "sk-xxx" },
  agents: {
    defaults: {
      model: { primary: "kimi-coding/k2p5" },
      models: { "kimi-coding/k2p5": { alias: "kimi" } },
    },
  },
}

或者使用 Moonshot 通用端点:

{
  env: { MOONSHOT_API_KEY: "sk-xxx" },
  models: {
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.cn/v1",  // 国内端点
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{
          id: "kimi-k2.5",
          name: "Kimi K2.5",
          contextWindow: 256000,
          maxTokens: 8192,
        }],
      },
    },
  },
}

通义千问(Qwen / 百炼)

{
  models: {
    providers: {
      qwen: {
        baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
        apiKey: "${DASHSCOPE_API_KEY}",
        api: "openai-completions",
        models: [{
          id: "qwen3-max",
          name: "Qwen3 Max",
          reasoning: false,  // ⚠️ 必须设为 false
          input: ["text"],
          contextWindow: 128000,
          maxTokens: 8192,
        }],
      },
    },
  },
}

MiniMax M2.1

{
  env: { MINIMAX_API_KEY: "xxx" },
  agents: {
    defaults: {
      model: { primary: "minimax/MiniMax-M2.1" },
      models: { "minimax/MiniMax-M2.1": { alias: "minimax" } },
    },
  },
}

智谱 GLM (Z.AI)

{
  env: { ZAI_API_KEY: "xxx" },
  agents: {
    defaults: {
      model: { primary: "zai/glm-4.7" },
      models: { "zai/glm-4.7": { alias: "glm" } },
    },
  },
}
💡 提示: GLM 模型自动启用 thinking mode,如不需要可在 params 中关闭。

aigocode 双 Provider 配置(Codex + Claude)

推荐使用以下配置同时接入 Codex 与 Claude:

{
  models: {
    providers: {
      "openai-codex": {
        baseUrl: "https://api.aigocode.com/v1",
        apiKey: "你的 API Key",
        auth: "api-key",
        api: "openai-responses",
        models: [{
          id: "gpt-5.3-codex",
          name: "GPT-5.3 Codex",
          reasoning: true,
          input: ["text", "image"],
          contextWindow: 200000,
          maxTokens: 16384,
        }],
      },
      "aigocode-claude": {
        baseUrl: "https://api.aigocode.com",
        apiKey: "你的 API Key",
        auth: "api-key",
        api: "anthropic-messages",
        models: [{
          id: "claude-opus-4-6",
          name: "Claude Opus 4.6",
          reasoning: true,
          input: ["text", "image"],
          contextWindow: 200000,
          maxTokens: 16384,
        }],
      },
    },
  },
}
💡 提示: Codex 必须使用 openai-responsesbaseUrl 需要带 /v1;Claude 必须使用 anthropic-messagesbaseUrl 不带 /v1

支持的 API 类型:

  • openai-completions — OpenAI Chat Completions 兼容
  • openai-responses — OpenAI Responses API
  • anthropic-messages — Anthropic Messages 兼容
  • google-generative-ai — Google Gemini

本地模型(Ollama)

# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# 拉取模型
ollama pull llama3.1:8b
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://localhost:11434/v1",
        api: "openai-completions",
        models: [{
          id: "llama3.1:8b",
          name: "Llama 3.1 8B",
          contextWindow: 128000,
          maxTokens: 8192,
        }],
      },
    },
  },
}

成本控制技巧

  1. 主用便宜模型,备用强模型:日常用 DeepSeek/GPT-mini,复杂任务手动 /model opus
  2. 设置 Thinking 级别/thinking off 关闭深度思考省 token
  3. 使用 OpenRouter 免费模型作为 fallback
  4. responsePrefix 显示当前模型:方便知道在用哪个模型花多少钱
{
  messages: {
    responsePrefix: "[{model}]",  // 回复前显示模型名
  },
}
🔒 付费章节: 第 7 章「Agent 配置」为社区付费内容,加入社区后可继续学习。

💡 学完这章想实战?加入社群获得 $50 算力额度 + 实时答疑

加入社群 ¥49

加入 Claw101 社区

解锁第 7-13 章、持续更新资源和实战交流,扫码即可加入社区。

Claw101 社区二维码

长按识别二维码,支付后自动弹出群二维码