Deepseek R1蒸馏模型本地部署

Deepseek在春节期间算是火出圈了,访问其服务器,没回答几条就会看见以下提示:

Image

那有没有办法在自己的电脑上部署呢?首先“满血版”的R1(671b,6710亿个参数)模型就不要想了,一般人的电脑带不动,下面是推荐的配置:硬盘:最少404G安装空间内存:1342GB显卡: 多显卡如NVIDIA A100 80GB ×16满血版的跑不动,但是可以尝试下“残血版”的低参数的模型嘛,deepseek提供了以下六个小模型,分别是基于阿里的千问和Meta的Llama。DeepSeek 团队已经证明,较大模型的推理模式可以提炼为较小的模型,与通过强化学习在小型模型上发现的推理模式相比,其性能更好。

以下是使用 DeepSeek-R1 生成的推理数据,针对研究界广泛使用的几种密集模型进行微调而创建的模型。评估结果表明,提炼后的较小密集模型在基准测试中表现优异。

蒸馏模型基础模型
DeepSeek-R1-Distill-Qwen-1.5BQwen2.5-Math-1.5B
DeepSeek-R1-Distill-Qwen-7BQwen2.5-Math-7B
DeepSeek-R1-Distill-Llama-8BLlama-3.1-8B
DeepSeek-R1-Distill-Qwen-14BQwen2.5-14B
DeepSeek-R1-Distill-Qwen-32BQwen2.5-32B
DeepSeek-R1-Distill-Llama-70BLlama-3.3-70B-Instruct

以下是蒸馏模型的评估结果:

ModelAIME 2024 pass@1AIME 2024 cons@64MATH-500 pass@1GPQA Diamond pass@1LiveCodeBench pass@1CodeForces rating
GPT-4o-05139.313.474.649.932.9759
Claude-3.5-Sonnet-102216.026.778.365.038.9717
o1-mini63.680.090.060.053.81820
QwQ-32B-Preview44.060.090.654.541.91316
DeepSeek-R1-Distill-Qwen-1.5B28.952.783.933.816.9954
DeepSeek-R1-Distill-Qwen-7B55.583.392.849.137.61189
DeepSeek-R1-Distill-Qwen-14B69.780.093.959.153.11481
DeepSeek-R1-Distill-Qwen-32B72.683.394.362.157.21691
DeepSeek-R1-Distill-Llama-8B50.480.089.149.039.61205
DeepSeek-R1-Distill-Llama-70B70.086.794.565.257.51633

以ollama软件为例,介绍一下如何安装运行R1的蒸馏模型。首先去到ollama主页:https://ollama.com/,很明显的看到DeepSeek-R1放在了显眼的位置:

Image

点击去可以看到deepseek r1所有的模型:

Image

但是首先点击下载安装ollama,注意它默认安装在C盘,而且无法修改安装路径,所以要保证C盘有足够空间,也不用太多,大概1G左右。

Image

安装完成后可以在任务栏看到草泥马的图标就表示安装已经成功,如果启动了。

Image

打开命令行,输入对应的模型下载命令,比如这里下载的是1.5B的模型,对应的命令为

ollama run deepseek-r1:1.5b

输入命令后系统自动开始下载模型,也是保存在C盘。

Image

安装完成后会提示sucess,就可以开始提问了,如果关闭了命令行窗口,可以重新打开,然后输入以下命令(还是是1.5b的参数模型为例):

ollama run deepseek-r1:1.5b
Image

命令行的界面毕竟很简陋,如果使用chrome浏览器的话,可以下载一个page assist的插件,然后选择安装的本地模型:

Image

提问示意:

Image