跳到主要内容

Intel GPU(IPEX-LLM)

如果你在 Intel CPU / iGPU / Arc / Flex / Max 环境中运行 Ollama,可以借助 IPEX-LLM 提升本地推理体验。

目标

让 OPL 数据空间接到一个由 IPEX-LLM 加速的 Ollama 后端。

步骤

  1. 先按 IPEX-LLM 官方文档完成 Ollama GPU 加速部署
  2. 如果要让其他机器访问 Ollama,启动前设置:
export OLLAMA_HOST=0.0.0.0
  1. 打开 OPL 数据空间的 设置 → 外部连接
  2. Ollama Base URL 指向你的 Ollama 服务地址
  3. 点击刷新,看到 Service Connection Verified

如果你在远端或跨机器部署,只需要把 OLLAMA_BASE_URL 改成对应 URL 即可。