OpenCode 配置 GLM-5 完整指南

248 次阅读

OpenCode 配置 GLM-5 完整指南

如果你正在寻找一款高效的 AI 编程助手,OpenCode 配合 GLM-5 模型会是个不错的选择。这篇文章会手把手教你如何完成配置,让你快速上手。

什么是 OpenCode 与 GLM Coding Plan

OpenCode 是一款既能在终端运行,也能集成到 IDE 的 AI 编程工具。它能帮你快速生成代码、调试问题、分析项目,还能处理文件操作和跨项目协作。

如果你订阅了 GLM Coding Plan 套餐,使用成本会大幅降低,开发效率和稳定性也会全面提升。这个套餐提供了专属的 API 端点和 MCP 服务器,让 OpenCode 的能力更强大。

重要提示:使用 GLM Coding Plan 时,需要配置专属的 Coding API 端点 https://open.bigmodel.cn/api/coding/paas/v4,而不是通用 API 端点。这点很关键,配置错了工具就无法正常工作。

安装 OpenCode

安装 OpenCode 很简单,有两种方式可以选择。

方式一:官方脚本安装(推荐)

这是最简单的方式,一行命令搞定:

bash
curl -fsSL https://opencode.ai/install | bash

方式二:npm 安装

如果你更习惯用 npm,也可以这样安装:

bash
npm install -g opencode-ai

安装完成后,你就可以在终端输入 opencode 命令来启动工具了。

配置 GLM-5 模型

配置 GLM-5 有两种方式:自动化助手和手动配置。我建议你优先尝试自动化助手,省时省力。

方式一:自动化助手(推荐)

1. 获取 API 密钥

首先,你需要访问智谱 Bigmodel 开放平台,获取你的API Key。登录后在项目管理页面就能找到。

2. 运行 Coding Tool Helper

Coding Tool Helper 是一个自动化配置工具,它会帮你完成工具安装、套餐配置和 MCP 服务器管理。

在命令行中执行:

bash
npx @z_ai/coding-helper

运行后,按照界面提示操作即可。工具会自动检测你的环境,并完成所有配置工作。

3. 启动 OpenCode 并选择模型

配置完成后,启动 OpenCode:

bash
opencode

进入 OpenCode 后,使用 /models 命令来选择模型。在模型列表中找到并选择 GLM-5

text
/models

这样就配置完成了,你可以开始使用 GLM-5 进行编程了。

方式二:手动配置

如果你想更清楚地了解配置过程,或者自动化助手遇到问题,可以选择手动配置。

1. 获取 API 密钥

同样需要访问智谱 Bigmodel 开放平台,获取你的 API Key

2. 执行登录命令

在终端运行:

bash
opencode auth login

你会看到一个交互式界面,选择 Zhipu AI Coding Plan

text
┌  Add credential
│
◆  Select provider
│  ● Zhipu AI Coding Plan
│  ...
└

3. 输入 API Key

选择 Provider 后,系统会提示你输入 API Key:

text
┌  Add credential
│
◇  Select provider
│  Zhipu AI Coding Plan
│
◇  Enter your API key
│  _
└

把你刚才获取的 API Key 粘贴进去即可。

4. 启动 OpenCode 并选择模型

认证完成后,启动 OpenCode:

bash
opencode

然后使用 /models 命令选择 GLM-5 模型:

text
/models

5. 低版本配置说明

如果你使用的是较低版本的 OpenCode,可能在 Provider 列表中找不到 Zhipu AI Coding Plan 选项。这种情况下,我建议你升级到最新版本。

如果暂时无法升级,可以选择 Zhipu AI Provider,然后手动修改配置文件。

打开配置文件 ~/.config/opencode/opencode.json,添加以下内容:

json
{
    "$schema": "https://opencode.ai/config.json",
    "provider": {
        "zhipuai": {
            "api": "https://open.bigmodel.cn/api/coding/paas/v4"
        }
    }
}

这样就手动指定了专属的 Coding API 端点。

专属 MCP 服务器

GLM Coding Plan 套餐提供了一系列专属的 MCP 服务器,可以大幅扩展 OpenCode 的能力。

可用的 MCP 服务器

  1. 视觉 MCP 服务器:支持图像识别和分析,让 AI 能够"看懂"图片
  2. 搜索 MCP 服务器:支持网络搜索功能,获取最新信息
  3. 网页读取 MCP 服务器:支持网页内容提取,快速获取在线文档
  4. 开源仓库 MCP 服务器:支持开源仓库文档搜索、结构分析和代码读取

推荐安装方式

最简单的方式是使用 Coding Tool Helper 一键安装:

bash
npx @z_ai/coding-helper

工具会自动检测你的环境并安装相应的 MCP 服务器,无需手动配置。

如果你在配置自动化助手时已经运行过这个命令,MCP 服务器应该已经安装好了。

常见问题与注意事项

API 端点配置错误

这是最常见的问题。记住,使用 GLM Coding Plan 时,必须配置专属端点:

text
https://open.bigmodel.cn/api/coding/paas/v4

而不是通用的 API 端点。如果配置错了,工具会无法正常调用模型。

版本兼容性

如果你的 OpenCode 版本较低,可能会遇到一些兼容性问题。建议定期更新到最新版本:

bash
npm update -g opencode-ai

模型选择

配置完成后,记得使用 /models 命令选择 GLM-5 模型。如果不选择,OpenCode 可能会使用默认模型,无法享受 GLM-5 的强大能力。

MCP 服务器未生效

如果 MCP 服务器没有生效,可以尝试重启 OpenCode,或者重新运行 Coding Tool Helper 检查配置。


现在你应该已经成功配置好 OpenCode 和 GLM-5 了。试着在项目中使用它,体验 AI 编程助手带来的效率提升吧。如果遇到问题,可以参考智谱官方文档或社区寻求帮助。

感谢阅读,如果觉得有用欢迎分享
返回 AI工具配置