Helicone 集成
Helicone 是一个 LLM 可观测性平台,适合监控 OPL 数据空间发出的模型请求、延迟、成本和使用模式。
能看到什么
- 每次请求的 prompt / response
- 本地模型和云模型的统一观测视图
- 延迟与吞吐
- 用户侧使用行为
- 成本统计
最简单做法
启动 OPL 数据空间时,把 OpenAI base URL 指向 Helicone:
export HELICONE_API_KEY=<YOUR_API_KEY>
export OPENAI_API_KEY=<YOUR_OPENAI_API_KEY>
docker run -d -p 3000:8080 \
-e OPENAI_API_BASE_URL="https://oai.helicone.ai/v1/$HELICONE_API_KEY" \
-e OPENAI_API_KEY="$OPENAI_API_KEY" \
ghcr.io/open-webui/open-webui如果你已经部署了 OPL 数据空间,也可以在 管理员面板 → 设置 → 外部连接 中手动新增 / 修改 OpenAI 连接。