本文最后更新于:2025年2月14日 上午
Deepseek 是近期杭州深度求索人工智能基础技术研究有限公司发布的国产大语言模型, 在推理速度上相较历史模型有了大幅提升。本文记录本地部署 DeepSeek 模型的流程。
DeepSeek-V3
DeepSeek-V3 是国产大语言模型,在推理速度上相较历史模型有了大幅提升。在目前大模型主流榜单中,DeepSeek-V3 在开源模型中位列榜首,与世界上最先进的闭源模型不分伯仲。
2025.01.20 DeepSeek-R1 发布,DeepSeek R1 是 DeepSeek AI 开发的第一代推理模型,擅长复杂的推理任务,官方对标OpenAI o1正式版。适用于多种复杂任务,如数学推理、代码生成和逻辑推理等。
官方网站:https://www.deepseek.com/
Benchmark (Metric) | DeepSeek V3 | DeepSeek V2.5 | Qwen2.5 | Llama3.1 | Claude-3.5 | GPT-4o |
---|---|---|---|---|---|---|
Architecture | MoE | MoE | Dense | Dense | - | - |
# Activated Params | 37B | 21B | 72B | 405B | - | - |
# Total Params | 671B | 236B | 72B | 405B | - | - |
MMLU (EM) | 88.5 | 80.6 | 85.3 | 88.6 | 88.3 | 87.2 |
MMLU-Redux (EM) | 89.1 | 80.3 | 85.6 | 86.2 | 88.9 | 88.0 |
MMLU-Pro (EM) | 75.9 | 66.2 | 71.6 | 73.3 | 78.0 | 72.6 |
DROP (3-shot F1) | 91.6 | 87.8 | 76.7 | 88.7 | 88.3 | 83.7 |
IF-Eval (Prompt Strict) | 86.1 | 80.6 | 84.1 | 86.0 | 86.5 | 84.3 |
GPQA-Diamond (Pass@1) | 59.1 | 41.3 | 49.0 | 51.1 | 65.0 | 49.9 |
SimpleQA (Correct) | 24.9 | 10.2 | 9.1 | 17.1 | 28.4 | 38.2 |
FRAMES (Acc.) | 73.3 | 65.4 | 69.8 | 70.0 | 72.5 | 80.5 |
LongBench v2 (Acc.) | 48.7 | 35.4 | 39.4 | 36.1 | 41.0 | 48.1 |
HumanEval-Mul (Pass@1) | 82.6 | 77.4 | 77.3 | 77.2 | 81.7 | 80.5 |
LiveCodeBench (Pass@1-COT) | 40.5 | 29.2 | 31.1 | 28.4 | 36.3 | 33.4 |
LiveCodeBench (Pass@1) | 37.6 | 28.4 | 28.7 | 30.1 | 32.8 | 34.2 |
Codeforces (Percentile) | 51.6 | 35.6 | 24.8 | 25.3 | 20.3 | 23.6 |
SWE Verified (Resolved) | 42.0 | 22.6 | 23.8 | 24.5 | 50.8 | 38.8 |
Aider-Edit (Acc.) | 79.7 | 71.6 | 65.4 | 63.9 | 84.2 | 72.9 |
Aider-Polyglot (Acc.) | 49.6 | 18.2 | 7.6 | 5.8 | 45.3 | 16.0 |
AIME 2024 (Pass@1) | 39.2 | 16.7 | 23.3 | 23.3 | 16.0 | 9.3 |
MATH-500 (EM) | 90.2 | 74.7 | 80.0 | 73.8 | 78.3 | 74.6 |
CNMO 2024 (Pass@1) | 43.2 | 10.8 | 15.9 | 6.8 | 13.1 | 10.8 |
CLUEWSC (EM) | 90.9 | 90.4 | 91.4 | 84.7 | 85.4 | 87.9 |
C-Eval (EM) | 86.5 | 79.5 | 86.1 | 61.5 | 76.7 | 76.0 |
C-SimpleQA (Correct) | 64.1 | 54.1 | 48.4 | 50.4 | 51.3 | 59.3 |
模型说明
根据官方信息DeepSeek R1 可以看到提供多个版本,包括完整版(671B 参数)和蒸馏版(1.5B 到 70B 参数)。完整版性能强大,但需要极高的硬件配置;蒸馏版则更适合普通用户,硬件要求较低
DeepSeek-R1官方地址:https://github.com/deepseek-ai/DeepSeek-R1
- 完整版(671B):需要至少 350GB 显存/内存,适合专业服务器部署
- 蒸馏版:基于开源模型(如 QWEN 和 LLAMA)微调,参数量从 1.5B 到 70B 不等,适合本地硬件部署。
蒸馏版与完整版的区别
特性 | 蒸馏版 | 完整版 |
---|---|---|
参数量 | 参数量较少(如 1.5B、7B),性能接近完整版但略有下降。 | 参数量较大(如 32B、70B),性能最强。 |
硬件需求 | 显存和内存需求较低,适合低配硬件。 | 显存和内存需求较高,需高端硬件支持。 |
适用场景 | 适合轻量级任务和资源有限的设备。 | 适合高精度任务和专业场景。 |
这里我们详细看下蒸馏版模型的特点
模型版本 | 参数量 | 特点 |
---|---|---|
deepseek-r1:1.5b |
1.5B | 轻量级模型,适合低配硬件,性能有限但运行速度快 |
deepseek-r1:7b |
7B | 平衡型模型,适合大多数任务,性能较好且硬件需求适中。 |
deepseek-r1:8b |
8B | 略高于 7B 模型,性能稍强,适合需要更高精度的场景。 |
deepseek-r1:14b |
14B | 高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高。 |
deepseek-r1:32b |
32B | 专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持。 |
deepseek-r1:70b |
70B | 顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持。 |
进一步的模型细分还分为量化版
模型版本 | 参数量 | 特点 |
---|---|---|
deepseek-r1:1.5b-qwen-distill-q4_K_M |
1.5B | 轻量级模型,适合低配硬件,性能有限但运行速度快,使用了4-bit 量化,模型精度下降 |
deepseek-r1:7b-qwen-distill-q4_K_M |
7B | 平衡型模型,适合大多数任务,性能较好且硬件需求适中,使用了4-bit 量化,模型精度下降 |
deepseek-r1:8b-llama-distill-q4_K_M |
8B | 略高于 7B 模型,性能稍强,适合需要更高精度的场景,使用了4-bit 量化,模型精度下降 |
deepseek-r1:14b-qwen-distill-q4_K_M |
14B | 高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高,使用了4-bit 量化,模型精度下降 |
deepseek-r1:32b-qwen-distill-q4_K_M |
32B | 专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持,使用了4-bit 量化,模型精度下降 |
deepseek-r1:70b-llama-distill-q4_K_M |
70B | 顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持,使用了4-bit 量化,模型精度下降 |
蒸馏版与量化版
模型类型 | 特点 |
---|---|
蒸馏版 | 基于大模型(如 QWEN 或 LLAMA)微调,参数量减少但性能接近原版,适合低配硬件。 |
量化版 | 通过降低模型精度(如 4-bit 量化)减少显存占用,适合资源有限的设备。 |
例如:
deepseek-r1:7b-qwen-distill-q4_K_M
:7B 模型的蒸馏+量化版本,显存需求从 5GB 降至 3GB。deepseek-r1:32b-qwen-distill-q4_K_M
:32B 模型的蒸馏+量化版本,显存需求从 22GB 降至 16GB
我们正常本地部署使用蒸馏版就可以
可根据下表配置选择使用自己的模型
模型名称 | 参数量 | 大小 | VRAM (Approx.) | 推荐 Mac 配置 | 推荐 Windows/Linux 配置 |
---|---|---|---|---|---|
deepseek-r1:1.5b |
1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
deepseek-r1:7b |
7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
deepseek-r1:8b |
8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
deepseek-r1:14b |
14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
deepseek-r1:32b |
32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
deepseek-r1:70b |
70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
deepseek-r1:1.5b-qwen-distill-q4_K_M |
1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
deepseek-r1:7b-qwen-distill-q4_K_M |
7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
deepseek-r1:8b-llama-distill-q4_K_M |
8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
deepseek-r1:14b-qwen-distill-q4_K_M |
14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
deepseek-r1:32b-qwen-distill-q4_K_M |
32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
deepseek-r1:70b-llama-distill-q4_K_M |
70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
部署工具
-
Ollama:
- 支持 Windows、Linux 和 Mac 系统,提供命令行和 Docker 部署方式
- 使用命令
ollama run deepseek-r1:7b
下载并运行模型
本地大模型管理框架,Ollama 让用户能够在本地环境中高效地部署和使用语言模型,而无需依赖云服务
-
LM Studio:
- 支持 Windows 和 Mac,提供可视化界面,适合新手用户
- 支持 CPU+GPU 混合推理,优化低配硬件性能
LM Studio 是一个桌面应用程序,它提供了一个用户友好的界面,允许用户轻松下载、加载和运行各种语言模型(如 LLaMA、GPT 等)
-
Docker:
- 支持 Linux 和 Windows,适合高级用户。
- 使用命令
docker run -d --gpus=all -p 11434:11434 --name ollama ollama/ollama
启动容器。
由于需要本地化部署语言模型的场景,对数据隐私和自定义或扩展语言模型功能有较高要求,我们这里使用Ollama来进行本地部署运行
Ollama 安装
官方地址:https://ollama.com/
选择自己的系统版本进行下载
控制台验证是否成功安装:
1 |
|
回到Ollama官网选择模型,选择适合你的蒸馏量化模型复制命令进行安装
安装模型:
1 |
|
越狱版
https://huggingface.co/huihui-ai
越狱版的DeepSeek R1现已托管在Hugging face上,支持8B、14B、32B 【链接直达】
在CMD终端下通过命令下载DeepSeek R1越狱版
7b
1 |
|
8b
1 |
|
14b
1 |
|
32b
1 |
|
70b
1 |
|
在终端中可以完成对话:
1 |
|
参考资料
- https://www.deepseek.com/
- https://www.cnblogs.com/shook/p/18700561
- https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
- https://www.freedidi.com/18431.html
- https://huggingface.co/huihui-ai
文章链接:
https://www.zywvvd.com/notes/study/llm/deepseek-deploy/deepseek-deploy/
“觉得不错的话,给点打赏吧 ୧(๑•̀⌄•́๑)૭”

微信支付

支付宝支付