跳转到主要内容
路由规则请参考 路由与协议。模型 ID 请参考 列出模型 OpenCode 支持通过 opencode.json 配置自定义 provider。接 PipeLLM 时,最稳的 方式是走 PipeLLM 的 OpenAI converter 路由,这样一个 provider 配置就能访问 Claude、GPT、Gemini 模型。

推荐路由

https://api.pipellm.ai/openai/v1
只有当你明确只需要 OpenAI 兼容原生路由、并且不需要跨协议访问时,才建议用 https://api.pipellm.ai/v1

配置位置

OpenCode 会从以下位置读取配置:
  • ~/.config/opencode/opencode.json 作为全局用户配置
  • 项目根目录的 opencode.json 作为项目级配置

快速配置

  1. 先导出 PipeLLM API Key:
export PIPELLM_API_KEY="your-pipellm-api-key"
  1. opencode.json 里加入自定义 provider:
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "pipellm": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "PipeLLM",
      "options": {
        "baseURL": "https://api.pipellm.ai/openai/v1",
        "apiKey": "{env:PIPELLM_API_KEY}"
      },
      "models": {
        "claude-sonnet-4-6": {
          "name": "Claude Sonnet 4.6"
        },
        "gpt-4o-mini": {
          "name": "GPT-4o Mini"
        },
        "gemini-2.5-pro": {
          "name": "Gemini 2.5 Pro"
        }
      }
    }
  },
  "model": "pipellm/claude-sonnet-4-6"
}
  1. 启动 OpenCode:
opencode

说明

  • OpenCode 的自定义 provider id 可以任意命名,pipellm 只是示例。
  • 只要目标是 Chat Completions 风格端点,就应该用 @ai-sdk/openai-compatible
  • 如果某个工作流明确依赖 OpenAI Responses API,那是另一条接法,不应该复用这 套 Chat Completions 配置。

相关文档

开发工具

查看当前支持的编码助手

OpenAI 转换器

保留 OpenAI 兼容格式,跨 provider 调用模型

OpenCode Providers 文档

官方 OpenCode 自定义 provider 示例