跳到主要内容

🔌 连接模型提供方

把 OPL 数据空间接到你的模型提供方,几分钟内开始聊天。

OPL 数据空间支持多种连接协议,包括:

  • Ollama
  • OpenAI-compatible APIs
  • Open Responses

只要某个云 API 或本地服务说的是这些协议之一, OPL 数据空间通常就能直接接。你只需要填一个 URL 和 API Key,模型就会出现在下拉列表里。

工作原理

┌──────────────┐         ┌──────────────────┐         ┌──────────────┐
│              │  HTTP    │                  │  Inference│             │
│ OPL 数据空间 │────────▶│  Provider API    │────────▶ │    Model     │
│  (frontend)  │◀────────│  (cloud/local)   │◀──────── │  (LLM/VLM)  │
│              │  Stream  │                  │  Tokens  │             │
└──────────────┘         └──────────────────┘         └──────────────┘
  1. 你在 OPL 数据空间中输入消息
  2. OPL 数据空间把请求发往提供方 API
  3. 提供方在选定模型上完成推理
  4. token 实时流回 OPL 数据空间
  5. 你在聊天界面里看到响应
提示

添加提供方通常只需要在 Admin Settings → 外部连接 中填一个 URL 和 API Key。大多数提供方的可用模型都会被自动识别。

云提供方

这类 API 托管在云端,通常需要账户与 API Key,不要求你自己准备推理硬件。

提供方模型指南
OllamaLlama、Mistral、Gemma、Phi 等本地模型Starting with Ollama →
OpenAIGPT-4o、GPT-4.1、o3、o4-miniStarting with OpenAI →
AnthropicClaude Opus、Sonnet、HaikuStarting with Anthropic →
OpenAI-CompatibleGemini、DeepSeek、Mistral、Groq、OpenRouter、Bedrock、Azure 等OpenAI-Compatible Providers →

本地服务

如果你想在自己的硬件上运行模型,可以用本地服务方式接入。

服务端说明指南
llama.cpp高效运行 GGUF 模型,并提供 OpenAI-compatible APIStarting with llama.cpp →
vLLM面向生产负载的高吞吐推理引擎Starting with vLLM →

更多本地服务,例如 LM Studio、LocalAI、Docker Model Runner、Lemonade,可在 OpenAI-Compatible Providers 中查看。

其他连接方式

功能说明指南
Open Responses通过 Open Responses 规范连接提供方Starting with Open Responses →
Functions通过自定义 Pipe Function 把任意后端接入 OPL 数据空间Starting with Functions →

想连接的是 Agent?

如果你要接的不是普通模型提供方,而是具备终端、文件操作、网页搜索等能力的自治 AI agent,请看 Connect an Agent