Oh-My-OpenCode 安装指南
Oh-My-OpenCode 是一个 OpenCode 的插件,能够为你的 AI 编程助手提供更强大的多 Agent 协作能力。这篇笔记记录了完整的安装和配置流程。
安装方式
方式一:让 AI Agent 帮你安装(推荐)
这是官方推荐的安装方式。在你的 LLM Agent 会话中粘贴以下内容:
Install and configure oh-my-opencode by following the instructions here:
https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/refs/heads/dev/docs/guide/installation.md
AI Agent 会引导你完成整个安装和配置过程。
方式二:手动安装(不推荐)
如果你想自己动手,可以运行交互式安装程序:
bunx oh-my-opencode install # 推荐
npx oh-my-opencode install # 备选
安装后根据提示配置你的 Claude、ChatGPT 和 Gemini 订阅,然后按指引完成认证。
平台支持
CLI 为所有主流平台提供了独立二进制文件,安装后无需 Bun/Node.js 运行时:
- macOS (ARM64, x64)
- Linux (x64, ARM64, Alpine/musl)
- Windows (x64)
前置条件
安装 oh-my-opencode 之前,需要先安装 OpenCode:
if command -v opencode &> /dev/null; then
echo "OpenCode $(opencode --version) is installed"
else
echo "OpenCode is not installed. Please install it first."
echo "Ref: https://opencode.ai/docs"
fi
如果没有安装 OpenCode,请先参考 OpenCode 官方文档 完成安装。
订阅选项说明
安装时需要根据你拥有的订阅来选择对应的参数:
| 订阅类型 | 参数 | 说明 |
|---|---|---|
| Claude Pro/Max | --claude=yes |
普通订阅 |
| Claude Max20 | --claude=max20 |
20x 模式订阅 |
| 无 Claude | --claude=no |
未订阅(Sisyphus Agent 可能无法正常工作) |
| OpenAI/ChatGPT Plus | --openai=yes |
用于 Oracle agent 的 GPT-5.2 |
| Gemini | --gemini=yes |
Google Gemini 模型 |
| GitHub Copilot | --copilot=yes |
作为备用 Provider |
| OpenCode Zen | --opencode-zen=yes |
opencode/ 前缀模型 |
| Z.ai Coding Plan | --zai-coding-plan=yes |
GLM-4.7 模型访问 |
重要提示:如果没有 Claude 订阅,Sisyphus Agent 可能无法理想地工作。
非交互式安装命令
如果你已经清楚自己的订阅情况,可以直接使用命令行参数:
bunx oh-my-opencode install --no-tui \
--claude=<yes|no|max20> \
--gemini=<yes|no> \
--copilot=<yes|no> \
[--openai=<yes|no>] \
[--opencode-zen=<yes|no>] \
[--zai-coding-plan=<yes|no>]
常见安装示例
# 拥有所有原生订阅
bunx oh-my-opencode install --no-tui --claude=max20 --openai=yes --gemini=yes --copilot=no
# 只有 Claude 订阅
bunx oh-my-opencode install --no-tui --claude=yes --gemini=no --copilot=no
# Claude + OpenAI
bunx oh-my-opencode install --no-tui --claude=yes --openai=yes --gemini=no --copilot=no
# 只有 GitHub Copilot
bunx oh-my-opencode install --no-tui --claude=no --gemini=no --copilot=yes
# 使用 Z.ai 作为 Librarian
bunx oh-my-opencode install --no-tui --claude=yes --gemini=no --copilot=no --zai-coding-plan=yes
# 只有 OpenCode Zen
bunx oh-my-opencode install --no-tui --claude=no --gemini=no --copilot=no --opencode-zen=yes
# 没有任何订阅
bunx oh-my-opencode install --no-tui --claude=no --gemini=no --copilot=no
安装程序会自动完成以下工作:
- 在
opencode.json中注册插件 - 根据订阅参数配置 Agent 模型
- 显示需要完成的认证步骤
验证安装
安装完成后,验证配置是否正确:
# 检查 OpenCode 版本(需要 1.0.150 或更高)
opencode --version
# 检查插件是否已注册
cat ~/.config/opencode/opencode.json
# 应该能看到 "oh-my-opencode" 在 plugin 数组中
配置认证
根据你选择的订阅,需要完成相应的认证配置。
Anthropic (Claude) 认证
opencode auth login
# 选择 Provider: Anthropic
# 选择 Login method: Claude Pro/Max
# 在浏览器中完成 OAuth 授权
# 等待完成并确认
Google Gemini 认证(Antigravity OAuth)
Gemini 认证需要额外安装 opencode-antigravity-auth 插件。
第一步:在 opencode.json 中添加插件:
{
"plugin": [
"oh-my-opencode",
"opencode-antigravity-auth@latest"
]
}
第二步:配置模型设置
需要在 opencode.json 中添加完整的模型配置。参考 opencode-antigravity-auth 文档 获取配置详情。
该插件使用 variant 系统,例如 antigravity-gemini-3-pro 支持 low/high 变体。
第三步:配置 oh-my-opencode Agent 模型覆盖
由于 opencode-antigravity-auth 使用不同的模型名称,需要在 oh-my-opencode.json(或 .opencode/oh-my-opencode.json)中覆盖:
{
"agents": {
"multimodal-looker": { "model": "google/antigravity-gemini-3-flash" }
}
}
可用模型(Antigravity 配额):
google/antigravity-gemini-3-pro— 变体:low,highgoogle/antigravity-gemini-3-flash— 变体:minimal,low,medium,highgoogle/antigravity-claude-sonnet-4-6— 无变体google/antigravity-claude-sonnet-4-6-thinking— 变体:low,maxgoogle/antigravity-claude-opus-4-5-thinking— 变体:low,max
可用模型(Gemini CLI 配额):
google/gemini-2.5-flashgoogle/gemini-2.5-progoogle/gemini-3-flash-previewgoogle/gemini-3-pro-preview
第四步:完成认证
opencode auth login
# 选择 Provider: Google
# 选择 Login method: OAuth with Google (Antigravity)
# 在浏览器中完成登录
# 可选:添加更多 Google 账号实现多账号负载均衡
多账号负载均衡:该插件支持最多 10 个 Google 账号。当一个账号达到速率限制时,会自动切换到下一个可用账号。
GitHub Copilot 认证
GitHub Copilot 作为备用 Provider,当原生 Provider 不可用时使用。
opencode auth login
# 选择 GitHub
# 通过 OAuth 完成认证
当 GitHub Copilot 是最佳可用 Provider 时,oh-my-opencode 使用以下模型分配:
| Agent | 模型 |
|---|---|
| Sisyphus | github-copilot/claude-opus-4-6 |
| Oracle | github-copilot/gpt-5.2 |
| Explore | opencode/gpt-5-nano |
| Librarian | zai-coding-plan/glm-4.7(如有 Z.ai)或 fallback |
Z.ai Coding Plan
Z.ai Coding Plan 提供 GLM-4.7 模型访问。启用后,Librarian agent 始终使用 zai-coding-plan/glm-4.7,无论其他 Provider 是否可用。
如果 Z.ai 是唯一可用的 Provider,所有 Agent 都会使用 GLM 模型:
| Agent | 模型 |
|---|---|
| Sisyphus | zai-coding-plan/glm-4.7 |
| Oracle | zai-coding-plan/glm-4.7 |
| Explore | zai-coding-plan/glm-4.7-flash |
| Librarian | zai-coding-plan/glm-4.7 |
OpenCode Zen
OpenCode Zen 提供 opencode/ 前缀的模型,包括 opencode/claude-opus-4-6、opencode/gpt-5.2、opencode/gpt-5-nano 和 opencode/glm-4.7-free。
当 OpenCode Zen 是最佳可用 Provider(无原生或 Copilot)时,使用以下模型:
| Agent | 模型 |
|---|---|
| Sisyphus | opencode/claude-opus-4-6 |
| Oracle | opencode/gpt-5.2 |
| Explore | opencode/gpt-5-nano |
| Librarian | opencode/glm-4.7-free |
Provider 优先级
当配置了多个 Provider 时,oh-my-opencode 按以下优先级选择:
Native (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Zen > Z.ai Coding Plan
快速上手
安装完成后,在终端输入 opencode 即可开始使用。
- 快速模式:在提示词中包含
ultrawork(或ulw),Agent 会自动处理剩余工作 - 精确模式:按 Tab 进入 Prometheus(规划器)模式,通过问答创建工作计划,然后运行
/start-work执行
提示:Sisyphus agent 强烈推荐使用 Opus 4.6 模型,使用其他模型可能导致体验明显下降。