跳到主要内容

OpenAI 兼容

概览

OPL 数据空间可以连接 任何实现 OpenAI 兼容 API 的服务或 provider。本页介绍常见云 provider 与本地服务的接入方法。

如果你要直接连接 OpenAI 或 Azure OpenAI,请看专门的 OpenAI 指南


面向协议的设计

OPL 数据空间围绕 标准协议 设计,而不是为每个 provider 单独做一套逻辑。这样可以避免行为不一致和配置膨胀。核心思路是:界面和工具由 OPL 数据空间提供,而后端遵循 OpenAI Chat Completions 协议

  • 支持协议:只要 provider 遵循广泛采用的 API 标准,就能被原生支持。我们也对 Open Responses 提供实验性支持。
  • 避免私有 API 绑定:核心项目不会为每家 provider 的非标准接口都写专用适配层。若某个 provider 不兼容标准协议,可通过 pipe、LiteLLM、OpenRouter 等桥接。

更完整的设计解释见 FAQ:协议支持策略


重要:部分 provider 的连接验证可能失败

添加连接时, OPL 数据空间会通过标准 Bearer 认证调用 provider 的 /models 端点进行验证。有些 provider 根本没有 /models 端点,或者该端点使用非标准认证方式。出现这种情况时:

  • 连接验证会 报错,例如 400、401、403
  • 不代表 provider 不兼容,聊天请求通常仍能正常工作
  • 你只需要在连接设置中手动把模型名加入 Model IDs (Filter) 白名单

已知 /models 有问题的 provider:

Provider/models 是否可用处理方式
Anthropic可用,且有内建兼容层自动发现
GitHub Models不可用,路径非标准手动加入模型 ID
Perplexity不可用手动加入模型 ID
MiniMax不可用手动加入模型 ID
OpenRouter可用,但返回模型极多强烈建议加过滤白名单
Google Gemini可用自动发现
DeepSeek可用自动发现
Mistral可用自动发现
Groq可用自动发现

手动加模型的方法:在连接设置里找到 Model IDs (Filter),输入模型 ID 后点击 +,再保存即可。


第 1 步:添加 provider 连接

  1. 在浏览器中打开 OPL 数据空间。
  2. 前往 ⚙️ 管理设置连接OpenAI
  3. 点击 ➕ 添加连接
  4. 填入你的 provider 的 URLAPI Key。输入 URL 时系统会提示常见端点。
  5. 如果 provider 不支持 /models 自动发现,就把模型 ID 手动填进 Model IDs (Filter) 白名单。
  6. 点击 保存
提示

如果 OPL 数据空间运行在 Docker 中,而模型服务在宿主机上,请把 URL 中的 localhost 换成 host.docker.internal

启用 / 禁用连接

每个连接都有单独的开关,你可以暂时停用某个 provider,而无需删除配置。

云端 Provider

Anthropic(Claude)提供 OpenAI 兼容端点。 OPL 数据空间可以自动识别 Anthropic URL,并完成模型发现。

设置项
URLhttps://api.anthropic.com/v1
API Keyconsole.anthropic.com 获取
Model IDs可自动发现,也可手动过滤

详细步骤见 Anthropic(Claude)指南

本地服务

设置项
URLhttp://localhost:10000/v1
API Key留空

详见 Llama.cpp 指南