OpenCode 配置 GLM-5 完整指南
如果你正在寻找一款高效的 AI 编程助手,OpenCode 配合 GLM-5 模型会是个不错的选择。这篇文章会手把手教你如何完成配置,让你快速上手。
什么是 OpenCode 与 GLM Coding Plan
OpenCode 是一款既能在终端运行,也能集成到 IDE 的 AI 编程工具。它能帮你快速生成代码、调试问题、分析项目,还能处理文件操作和跨项目协作。
如果你订阅了 GLM Coding Plan 套餐,使用成本会大幅降低,开发效率和稳定性也会全面提升。这个套餐提供了专属的 API 端点和 MCP 服务器,让 OpenCode 的能力更强大。
重要提示:使用 GLM Coding Plan 时,需要配置专属的 Coding API 端点 https://open.bigmodel.cn/api/coding/paas/v4,而不是通用 API 端点。这点很关键,配置错了工具就无法正常工作。
安装 OpenCode
安装 OpenCode 很简单,有两种方式可以选择。
方式一:官方脚本安装(推荐)
这是最简单的方式,一行命令搞定:
curl -fsSL https://opencode.ai/install | bash
方式二:npm 安装
如果你更习惯用 npm,也可以这样安装:
npm install -g opencode-ai
安装完成后,你就可以在终端输入 opencode 命令来启动工具了。
配置 GLM-5 模型
配置 GLM-5 有两种方式:自动化助手和手动配置。我建议你优先尝试自动化助手,省时省力。
方式一:自动化助手(推荐)
1. 获取 API 密钥
首先,你需要访问智谱 Bigmodel 开放平台,获取你的API Key。登录后在项目管理页面就能找到。
2. 运行 Coding Tool Helper
Coding Tool Helper 是一个自动化配置工具,它会帮你完成工具安装、套餐配置和 MCP 服务器管理。
在命令行中执行:
npx @z_ai/coding-helper
运行后,按照界面提示操作即可。工具会自动检测你的环境,并完成所有配置工作。
3. 启动 OpenCode 并选择模型
配置完成后,启动 OpenCode:
opencode
进入 OpenCode 后,使用 /models 命令来选择模型。在模型列表中找到并选择 GLM-5:
/models
这样就配置完成了,你可以开始使用 GLM-5 进行编程了。
方式二:手动配置
如果你想更清楚地了解配置过程,或者自动化助手遇到问题,可以选择手动配置。
1. 获取 API 密钥
同样需要访问智谱 Bigmodel 开放平台,获取你的 API Key。
2. 执行登录命令
在终端运行:
opencode auth login
你会看到一个交互式界面,选择 Zhipu AI Coding Plan:
┌ Add credential
│
◆ Select provider
│ ● Zhipu AI Coding Plan
│ ...
└
3. 输入 API Key
选择 Provider 后,系统会提示你输入 API Key:
┌ Add credential
│
◇ Select provider
│ Zhipu AI Coding Plan
│
◇ Enter your API key
│ _
└
把你刚才获取的 API Key 粘贴进去即可。
4. 启动 OpenCode 并选择模型
认证完成后,启动 OpenCode:
opencode
然后使用 /models 命令选择 GLM-5 模型:
/models
5. 低版本配置说明
如果你使用的是较低版本的 OpenCode,可能在 Provider 列表中找不到 Zhipu AI Coding Plan 选项。这种情况下,我建议你升级到最新版本。
如果暂时无法升级,可以选择 Zhipu AI Provider,然后手动修改配置文件。
打开配置文件 ~/.config/opencode/opencode.json,添加以下内容:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zhipuai": {
"api": "https://open.bigmodel.cn/api/coding/paas/v4"
}
}
}
这样就手动指定了专属的 Coding API 端点。
专属 MCP 服务器
GLM Coding Plan 套餐提供了一系列专属的 MCP 服务器,可以大幅扩展 OpenCode 的能力。
可用的 MCP 服务器
- 视觉 MCP 服务器:支持图像识别和分析,让 AI 能够"看懂"图片
- 搜索 MCP 服务器:支持网络搜索功能,获取最新信息
- 网页读取 MCP 服务器:支持网页内容提取,快速获取在线文档
- 开源仓库 MCP 服务器:支持开源仓库文档搜索、结构分析和代码读取
推荐安装方式
最简单的方式是使用 Coding Tool Helper 一键安装:
npx @z_ai/coding-helper
工具会自动检测你的环境并安装相应的 MCP 服务器,无需手动配置。
如果你在配置自动化助手时已经运行过这个命令,MCP 服务器应该已经安装好了。
常见问题与注意事项
API 端点配置错误
这是最常见的问题。记住,使用 GLM Coding Plan 时,必须配置专属端点:
https://open.bigmodel.cn/api/coding/paas/v4
而不是通用的 API 端点。如果配置错了,工具会无法正常调用模型。
版本兼容性
如果你的 OpenCode 版本较低,可能会遇到一些兼容性问题。建议定期更新到最新版本:
npm update -g opencode-ai
模型选择
配置完成后,记得使用 /models 命令选择 GLM-5 模型。如果不选择,OpenCode 可能会使用默认模型,无法享受 GLM-5 的强大能力。
MCP 服务器未生效
如果 MCP 服务器没有生效,可以尝试重启 OpenCode,或者重新运行 Coding Tool Helper 检查配置。
现在你应该已经成功配置好 OpenCode 和 GLM-5 了。试着在项目中使用它,体验 AI 编程助手带来的效率提升吧。如果遇到问题,可以参考智谱官方文档或社区寻求帮助。