Intel GPU(IPEX-LLM)
如果你在 Intel CPU / iGPU / Arc / Flex / Max 环境中运行 Ollama,可以借助 IPEX-LLM 提升本地推理体验。
目标
让 OPL 数据空间接到一个由 IPEX-LLM 加速的 Ollama 后端。
步骤
- 先按 IPEX-LLM 官方文档完成 Ollama GPU 加速部署
- 如果要让其他机器访问 Ollama,启动前设置:
export OLLAMA_HOST=0.0.0.0- 打开 OPL 数据空间的 设置 → 外部连接
- 把 Ollama Base URL 指向你的 Ollama 服务地址
- 点击刷新,看到
Service Connection Verified
如果你在远端或跨机器部署,只需要把 OLLAMA_BASE_URL 改成对应 URL 即可。