🤖 连接智能体
把 OPL 数据空 间当作自治 AI agent 的聊天前端。
AI agent 不只是模型提供方。它们可以:
- 执行终端命令
- 读写文件
- 搜索网页
- 维护长期记忆
- 串联复杂工作流
由于许多 agent 框架本身就暴露 OpenAI-compatible API,所以 OPL 数据空间可以几乎零额外中间层地成为它们的完整聊天前端。
它和 Provider 有什么不同?
当你 connect a provider 时,你连接的是一个模型:
- 你发消息
- 模型返回响应
而当你连接的是 agent,你连的是一个自治系统,它可以:
- 🖥️ 在你的机器上运行终端命令
- 📁 读写工作目录中的文件
- 🔍 搜索互联网
- 🧠 跨会话保留记忆
- 🧩 用技能与插件扩展能力
- 🔗 通过多次 tool call 解决复杂任务
Agent 会根据你的消息自己决定何时用什么工具,而 OPL 数据空间则负责把这一切展示在熟悉的聊天界面里。
可用 Agent
| Agent | Description | Guide |
|---|---|---|
| Hermes Agent | Nous Research 的自治 agent,支持终端、文件、网页搜索、记忆与扩展技能 | Set up Hermes Agent → |
| OpenClaw | 开源自托管 agent,支持 shell、文件操作、网页浏览和消息通道集成 | Set up OpenClaw → |
工作原理
无论接的是哪个 agent,整体结构都类似:
┌──────────────┐ ┌──────────────────┐ ┌──────────────┐
│ │ HTTP │ │ Tools │ │
│ OPL 数据空间 │────────▶│ Agent Gateway │────────▶│ Terminal, │
│ (frontend) │◀────────│ (API server) │◀────────│ Files, Web │
│ │ Stream │ │ Results│ │
└──────────────┘ └──────────────────┘ └──────────────┘- 你在 OPL 数据空间中输入消息
- OPL 数据空间把请求发到 agent 的 API server
- Agent 自己决定要调用哪些工具,并执行这些工具
- 最终响应再流回 OPL 数据空间
- 你在熟悉的聊天界面中看到结果,同时还能保留 OPL 数据空间的对话历史、账号体系和其他功能
提示
因为很多 agent 直接兼容 OpenAI Chat Completions 协议,所以接入方式通常就是:在 Admin Settings → 外部连接 → OpenAI 中填写它的 URL 和 API Key。一般不需要额外插件、pipe 或中间件。