跳到主要内容

Helicone 集成

Helicone 是一个 LLM 可观测性平台,适合监控 OPL 数据空间发出的模型请求、延迟、成本和使用模式。

能看到什么

  • 每次请求的 prompt / response
  • 本地模型和云模型的统一观测视图
  • 延迟与吞吐
  • 用户侧使用行为
  • 成本统计

最简单做法

启动 OPL 数据空间时,把 OpenAI base URL 指向 Helicone:

export HELICONE_API_KEY=<YOUR_API_KEY>
export OPENAI_API_KEY=<YOUR_OPENAI_API_KEY>

docker run -d -p 3000:8080 \
  -e OPENAI_API_BASE_URL="https://oai.helicone.ai/v1/$HELICONE_API_KEY" \
  -e OPENAI_API_KEY="$OPENAI_API_KEY" \
  ghcr.io/open-webui/open-webui

如果你已经部署了 OPL 数据空间,也可以在 管理员面板 → 设置 → 外部连接 中手动新增 / 修改 OpenAI 连接。