~/.openclaw/openclaw.json 里配置 custom provider。接 PipeLLM
时,覆盖面最广、也最简单的方案,是使用 OpenAI 兼容 custom provider 指向
PipeLLM 的 OpenAI converter 路由。
推荐路由
https://api.pipellm.ai/anthropic,并把 api 设置为
"anthropic-messages"。
最快接法
直接用 onboarding 向导:- 运行
openclaw onboard - 选择
Custom Provider - 选择
OpenAI-compatible - Base URL 填
https://api.pipellm.ai/openai/v1 - 粘贴你的 PipeLLM API Key
- 输入模型 ID,例如
claude-sonnet-4-6、gpt-4o或gemini-2.5-pro
手动配置
OpenClaw 使用 JSON5,所以允许注释和尾随逗号。说明
model.primary在 OpenClaw 里使用provider/model这种格式。models.providers.<id>.api决定协议适配器。对于 PipeLLM 的推荐接法,使用openai-completions。- 如果你后面要切到 Anthropic 兼容路由,把 provider 改成
api: "anthropic-messages",并把baseUrl改成https://api.pipellm.ai/anthropic即可。
相关文档
开发工具
查看当前支持的编码助手
OpenAI 转换器
保留 OpenAI 兼容格式,跨 provider 调用模型
WebSearch npm 包
给 OpenClaw 增加 PipeLLM WebSearch 工具
OpenClaw 配置文档
官方 OpenClaw 配置参考