opencode.json 配置自定义 provider。接 PipeLLM 时,最稳的
方式是走 PipeLLM 的 OpenAI converter 路由,这样一个 provider 配置就能访问
Claude、GPT、Gemini 模型。
推荐路由
https://api.pipellm.ai/v1。
配置位置
OpenCode 会从以下位置读取配置:~/.config/opencode/opencode.json作为全局用户配置- 项目根目录的
opencode.json作为项目级配置
快速配置
- 先导出 PipeLLM API Key:
- 在
opencode.json里加入自定义 provider:
- 启动 OpenCode:
说明
- OpenCode 的自定义 provider id 可以任意命名,
pipellm只是示例。 - 只要目标是 Chat Completions 风格端点,就应该用
@ai-sdk/openai-compatible。 - 如果某个工作流明确依赖 OpenAI Responses API,那是另一条接法,不应该复用这 套 Chat Completions 配置。
相关文档
开发工具
查看当前支持的编码助手
OpenAI 转换器
保留 OpenAI 兼容格式,跨 provider 调用模型
OpenCode Providers 文档
官方 OpenCode 自定义 provider 示例