DeepSeek R1 Dynamic
本教程演示如何通过 llama.cpp + OPL 数据空间 跑起动态量化版的完整 DeepSeek-R1。
核心事实
- 真正完整的 DeepSeek-R1 是 671B 版本
- 社区提供了动态量化 GGUF,可把体积压到更适合个人机器实验的范围
- 即使能跑,消费级机器上的速度通常也不会快
流程
- 安装或编译
llama.cpp - 从 Hugging Face 下载对应的 GGUF
- 启动
llama-server - 在 OPL 数据空间中把它作为 OpenAI-compatible endpoint 接进来
示例命令
./llama-server \
--model /path/to/DeepSeek-R1-UD-IQ1_S-00001-of-00003.gguf \
--port 10000 \
--ctx-size 1024 \
--n-gpu-layers 40在 OPL 数据空间中新增连接:
- URL:
http://127.0.0.1:10000/v1 - API Key:
none
随后就能在聊天界面直接使用该模型。