🔌 连接模型提供方
把 OPL 数据空间接到你的模型提供方,几分钟内开始聊天。
OPL 数据空间支持多种连接协议,包括:
- Ollama
- OpenAI-compatible APIs
- Open Responses
只要某个云 API 或本地 服务说的是这些协议之一, OPL 数据空间通常就能直接接。你只需要填一个 URL 和 API Key,模型就会出现在下拉列表里。
工作原理
┌──────────────┐ ┌──────────────────┐ ┌──────────────┐
│ │ HTTP │ │ Inference│ │
│ OPL 数据空间 │────────▶│ Provider API │────────▶ │ Model │
│ (frontend) │◀────────│ (cloud/local) │◀──────── │ (LLM/VLM) │
│ │ Stream │ │ Tokens │ │
└──────────────┘ └──────────────────┘ └──────────────┘- 你在 OPL 数据空间中输入消息
- OPL 数据空间把请求发往提供方 API
- 提供方在选定模型上完成推理
- token 实时流回 OPL 数据空间
- 你在聊天界面里看到响应
提示
添加提供方通常只需要在 Admin Settings → 外部连接 中填一个 URL 和 API Key。大多数提供方的可用模型都会被自动识别。
云提供方
这类 API 托管在云端,通常需要账户与 API Key,不要求你自己准备推理硬件。
| 提供方 | 模型 | 指南 |
|---|---|---|
| Ollama | Llama、Mistral、Gemma、Phi 等本地模型 | Starting with Ollama → |
| OpenAI | GPT-4o、GPT-4.1、o3、o4-mini | Starting with OpenAI → |
| Anthropic | Claude Opus、Sonnet、Haiku | Starting with Anthropic → |
| OpenAI-Compatible | Gemini、DeepSeek、Mistral、Groq、OpenRouter、Bedrock、Azure 等 | OpenAI-Compatible Providers → |
本地服务
如果你想在自己的硬件上运行模型,可以用本地服务方式接入。
| 服务端 | 说明 | 指南 |
|---|---|---|
| llama.cpp | 高效运行 GGUF 模型,并提供 OpenAI-compatible API | Starting with llama.cpp → |
| vLLM | 面向生产负载的高吞吐推理引擎 | Starting with vLLM → |
更多本地服务,例如 LM Studio、LocalAI、Docker Model Runner、Lemonade,可在 OpenAI-Compatible Providers 中查看。
其他连接方式
| 功能 | 说明 | 指南 |
|---|---|---|
| Open Responses | 通过 Open Responses 规范连接提供方 | Starting with Open Responses → |
| Functions | 通过自定义 Pipe Function 把任意后端接入 OPL 数据空间 | Starting with Functions → |