首页教程第 5 章
第 5 章进阶15 分钟阅读

国产模型接入

接入 KIMI、MiniMax、GLM 等国产 AI 模型,无需代理直接使用

本章内容
  • 1国产模型概览
  • 2接入 KIMI(月之暗面)
  • 3接入 MiniMax
  • 4接入 GLM(智谱 AI)
  • 5多模型智能路由

国产模型概览

国产 AI 模型近年来发展迅速,对中文理解更准确,国内直连无需代理,且价格更低。OpenClaw 完整支持以下国产模型,推荐国内用户优先尝试。

模型提供商擅长场景价格参考官网
moonshot-v1-8k/32k/128k月之暗面(KIMI)长文本处理、中文理解、文档分析platform.moonshot.cn
abab6.5s-chatMiniMax对话、创作、角色扮演api.minimax.chat
glm-4 / glm-4-flash智谱 AI(GLM)代码、推理、中文任务低/免费open.bigmodel.cn
deepseek-chatDeepSeek代码、数学推理极低platform.deepseek.com

💡 推荐新手从 KIMI 或 GLM-4-Flash(免费额度)开始体验,成本极低,中文效果优秀。

接入 KIMI(月之暗面)

KIMI 是月之暗面推出的大语言模型,以超长上下文(最高 128k tokens)和中文理解能力著称,非常适合处理长文档、分析报告等任务。

1

访问 platform.moonshot.cn,使用手机号注册账号

2

进入控制台 → API 密钥,点击"新建密钥"

3

复制生成的 API Key(格式:sk-xxx)

4

在 OpenClaw 中配置(见下方命令)

配置 KIMI
# 方式一:命令行配置
openclaw config set models.moonshot.apiKey "sk-你的KIMI密钥"
openclaw config set models.moonshot.baseUrl "https://api.moonshot.cn/v1"

# 设置 KIMI 为默认模型(推荐 128k 长上下文版本)
openclaw config set models.default "moonshot/moonshot-v1-128k"

# 验证连接
openclaw models test --provider moonshot
配置文件方式
{
  "models": {
    "default": "moonshot/moonshot-v1-128k",
    "moonshot": {
      "apiKey": "sk-你的KIMI密钥",
      "baseUrl": "https://api.moonshot.cn/v1",
      "models": {
        "fast": "moonshot-v1-8k",
        "balanced": "moonshot-v1-32k",
        "powerful": "moonshot-v1-128k"
      }
    }
  }
}

✅ KIMI 的 128k 超长上下文特别适合让 AI 分析整本书、整个代码库,一次性处理大量内容。

接入 MiniMax

MiniMax 的 abab6.5s 模型在中文对话、内容创作和角色扮演方面表现出色,API 价格实惠,适合高频调用的自动化任务。

1

访问 api.minimax.chat,注册开发者账号

2

进入"账号信息" → "接口密钥",复制 API Key

3

同时记录你的 Group ID(配置时需要)

4

在 OpenClaw 中配置

配置 MiniMax
# 配置 MiniMax API
openclaw config set models.minimax.apiKey "你的MiniMax API Key"
openclaw config set models.minimax.groupId "你的Group ID"
openclaw config set models.minimax.baseUrl "https://api.minimax.chat/v1"

# 设置默认模型
openclaw config set models.default "minimax/abab6.5s-chat"

# 测试连接
openclaw models test --provider minimax
配置文件方式
{
  "models": {
    "minimax": {
      "apiKey": "你的API Key",
      "groupId": "你的Group ID",
      "baseUrl": "https://api.minimax.chat/v1",
      "defaultModel": "abab6.5s-chat"
    }
  }
}

接入 GLM(智谱 AI)

智谱 AI 的 GLM-4 系列模型在代码生成、数学推理和中文任务上表现优秀。GLM-4-Flash 提供免费额度,非常适合入门体验。

1

访问 open.bigmodel.cn,使用手机号注册

2

新用户自动获得免费 tokens 额度(GLM-4-Flash 有较大免费额度)

3

进入"API 密钥"页面,创建新密钥

4

复制 API Key 并在 OpenClaw 中配置

配置 GLM
# 配置智谱 AI API
openclaw config set models.zhipu.apiKey "你的GLM API Key"
openclaw config set models.zhipu.baseUrl "https://open.bigmodel.cn/api/paas/v4"

# 使用 GLM-4-Flash(免费额度大,速度快)
openclaw config set models.default "zhipu/glm-4-flash"

# 或使用 GLM-4(更强大)
# openclaw config set models.default "zhipu/glm-4"

# 测试连接
openclaw models test --provider zhipu
GLM 模型特点适用场景价格
glm-4-flash速度极快,有免费额度日常对话、简单任务免费/极低
glm-4综合能力强代码、推理、复杂任务
glm-4v支持图片理解图像分析、截图处理
codegeex-4专注代码生成编程辅助、代码审查

💡 建议同时配置多个模型,通过模型路由让简单任务用 GLM-4-Flash(省钱),复杂任务用 Claude 或 GLM-4(效果好)。

多模型智能路由

配置多个模型后,可以设置智能路由,让不同类型的任务自动选择最合适的模型,兼顾效果和成本:

模型路由配置示例
{
  "models": {
    "default": "moonshot/moonshot-v1-32k",
    "routing": {
      "code": "anthropic/claude-3-5-sonnet-20241022",
      "analysis": "moonshot/moonshot-v1-128k",
      "quick": "zhipu/glm-4-flash",
      "creative": "minimax/abab6.5s-chat"
    }
  }
}

✅ 合理的模型路由可以将 AI 使用成本降低 60-80%,同时保持核心任务的高质量输出。

遇到问题?

加入 Telegram 社群,和数千名开发者一起学习,快速获得解答。

加入 Telegram 社群