国产模型接入
接入 KIMI、MiniMax、GLM 等国产 AI 模型,无需代理直接使用
- 1国产模型概览
- 2接入 KIMI(月之暗面)
- 3接入 MiniMax
- 4接入 GLM(智谱 AI)
- 5多模型智能路由
国产模型概览
国产 AI 模型近年来发展迅速,对中文理解更准确,国内直连无需代理,且价格更低。OpenClaw 完整支持以下国产模型,推荐国内用户优先尝试。
| 模型 | 提供商 | 擅长场景 | 价格参考 | 官网 |
|---|---|---|---|---|
| moonshot-v1-8k/32k/128k | 月之暗面(KIMI) | 长文本处理、中文理解、文档分析 | 低 | platform.moonshot.cn |
| abab6.5s-chat | MiniMax | 对话、创作、角色扮演 | 低 | api.minimax.chat |
| glm-4 / glm-4-flash | 智谱 AI(GLM) | 代码、推理、中文任务 | 低/免费 | open.bigmodel.cn |
| deepseek-chat | DeepSeek | 代码、数学推理 | 极低 | platform.deepseek.com |
💡 推荐新手从 KIMI 或 GLM-4-Flash(免费额度)开始体验,成本极低,中文效果优秀。
接入 KIMI(月之暗面)
KIMI 是月之暗面推出的大语言模型,以超长上下文(最高 128k tokens)和中文理解能力著称,非常适合处理长文档、分析报告等任务。
访问 platform.moonshot.cn,使用手机号注册账号
进入控制台 → API 密钥,点击"新建密钥"
复制生成的 API Key(格式:sk-xxx)
在 OpenClaw 中配置(见下方命令)
# 方式一:命令行配置
openclaw config set models.moonshot.apiKey "sk-你的KIMI密钥"
openclaw config set models.moonshot.baseUrl "https://api.moonshot.cn/v1"
# 设置 KIMI 为默认模型(推荐 128k 长上下文版本)
openclaw config set models.default "moonshot/moonshot-v1-128k"
# 验证连接
openclaw models test --provider moonshot{
"models": {
"default": "moonshot/moonshot-v1-128k",
"moonshot": {
"apiKey": "sk-你的KIMI密钥",
"baseUrl": "https://api.moonshot.cn/v1",
"models": {
"fast": "moonshot-v1-8k",
"balanced": "moonshot-v1-32k",
"powerful": "moonshot-v1-128k"
}
}
}
}✅ KIMI 的 128k 超长上下文特别适合让 AI 分析整本书、整个代码库,一次性处理大量内容。
接入 MiniMax
MiniMax 的 abab6.5s 模型在中文对话、内容创作和角色扮演方面表现出色,API 价格实惠,适合高频调用的自动化任务。
访问 api.minimax.chat,注册开发者账号
进入"账号信息" → "接口密钥",复制 API Key
同时记录你的 Group ID(配置时需要)
在 OpenClaw 中配置
# 配置 MiniMax API
openclaw config set models.minimax.apiKey "你的MiniMax API Key"
openclaw config set models.minimax.groupId "你的Group ID"
openclaw config set models.minimax.baseUrl "https://api.minimax.chat/v1"
# 设置默认模型
openclaw config set models.default "minimax/abab6.5s-chat"
# 测试连接
openclaw models test --provider minimax{
"models": {
"minimax": {
"apiKey": "你的API Key",
"groupId": "你的Group ID",
"baseUrl": "https://api.minimax.chat/v1",
"defaultModel": "abab6.5s-chat"
}
}
}接入 GLM(智谱 AI)
智谱 AI 的 GLM-4 系列模型在代码生成、数学推理和中文任务上表现优秀。GLM-4-Flash 提供免费额度,非常适合入门体验。
访问 open.bigmodel.cn,使用手机号注册
新用户自动获得免费 tokens 额度(GLM-4-Flash 有较大免费额度)
进入"API 密钥"页面,创建新密钥
复制 API Key 并在 OpenClaw 中配置
# 配置智谱 AI API
openclaw config set models.zhipu.apiKey "你的GLM API Key"
openclaw config set models.zhipu.baseUrl "https://open.bigmodel.cn/api/paas/v4"
# 使用 GLM-4-Flash(免费额度大,速度快)
openclaw config set models.default "zhipu/glm-4-flash"
# 或使用 GLM-4(更强大)
# openclaw config set models.default "zhipu/glm-4"
# 测试连接
openclaw models test --provider zhipu| GLM 模型 | 特点 | 适用场景 | 价格 |
|---|---|---|---|
| glm-4-flash | 速度极快,有免费额度 | 日常对话、简单任务 | 免费/极低 |
| glm-4 | 综合能力强 | 代码、推理、复杂任务 | 低 |
| glm-4v | 支持图片理解 | 图像分析、截图处理 | 低 |
| codegeex-4 | 专注代码生成 | 编程辅助、代码审查 | 低 |
💡 建议同时配置多个模型,通过模型路由让简单任务用 GLM-4-Flash(省钱),复杂任务用 Claude 或 GLM-4(效果好)。
多模型智能路由
配置多个模型后,可以设置智能路由,让不同类型的任务自动选择最合适的模型,兼顾效果和成本:
{
"models": {
"default": "moonshot/moonshot-v1-32k",
"routing": {
"code": "anthropic/claude-3-5-sonnet-20241022",
"analysis": "moonshot/moonshot-v1-128k",
"quick": "zhipu/glm-4-flash",
"creative": "minimax/abab6.5s-chat"
}
}
}✅ 合理的模型路由可以将 AI 使用成本降低 60-80%,同时保持核心任务的高质量输出。