跳到主要内容

✨ 自动补全

OPL 数据空间提供 AI 驱动的自动补全。当你在输入提示词时,它会实时给出后续内容建议,类似聊天输入框里的 Copilot。

工作方式

启用后, OPL 数据空间会监控聊天输入框内容。当你暂停输入时,它会把当前文本发送给一个轻量级 Task Model,预测你接下来最可能输入的词或句子,并以“幽灵文本”的形式显示出来。

  • 接受建议:按 TabRight Arrow
  • 忽略建议:继续输入即可覆盖
性能建议

自动补全极度依赖 Task Model 的响应速度。推荐使用小型、快速、非推理型 模型,例如:

  • Llama 3.2(1B / 3B)
  • Qwen 3(0.6B / 3B)
  • Gemma 3(1B / 4B)
  • GPT-5 Nano

尽量不要用 o1o3 这类推理模型,否则补全延迟会非常明显。

配置方式

自动补全有两层配置:

1. 全局配置(管理员)

管理员决定服务器是否提供自动补全能力。

路径:

  • Admin Settings > 界面 > Task Model
  • 打开 Autocomplete Generation

2. 用户个人设置

即使全局已开启,用户也可以在个人设置中关闭:

  • 设置 > 界面
  • 切换 Autocomplete Generation
备注

如果管理员全局关闭了 Autocomplete,用户无法在个人设置里重新启用。

性能与排障

为什么没有出现建议

  1. 检查管理员和用户两侧是否都已启用
  2. 检查 Task Model 是否已配置
  3. 检查 Task Model 是否过大或运行过慢
  4. 确认没有使用推理模型作为 Task Model

性能影响

自动补全会在你每次暂停输入时向模型发请求:

  • 本地模型:会消耗宿主机 CPU / GPU
  • API Provider:会增加大量短请求
注意

在多用户实例且本地硬件有限时,通常建议关闭自动补全,把资源优先留给真正的对话生成。