跳到主要内容

DeepSeek R1 Dynamic

本教程演示如何通过 llama.cpp + OPL 数据空间 跑起动态量化版的完整 DeepSeek-R1。

核心事实

  • 真正完整的 DeepSeek-R1 是 671B 版本
  • 社区提供了动态量化 GGUF,可把体积压到更适合个人机器实验的范围
  • 即使能跑,消费级机器上的速度通常也不会快

流程

  1. 安装或编译 llama.cpp
  2. 从 Hugging Face 下载对应的 GGUF
  3. 启动 llama-server
  4. 在 OPL 数据空间中把它作为 OpenAI-compatible endpoint 接进来

示例命令

./llama-server \
  --model /path/to/DeepSeek-R1-UD-IQ1_S-00001-of-00003.gguf \
  --port 10000 \
  --ctx-size 1024 \
  --n-gpu-layers 40

在 OPL 数据空间中新增连接:

  • URL: http://127.0.0.1:10000/v1
  • API Key: none

随后就能在聊天界面直接使用该模型。