以下是本地电脑部署DeepSeek的实战教程,使用Ollama和Chatbox工具,步骤详细易懂,每一步骤都有图片和说明,适合新手参考👇
其中,所用软件Ollama是运行DeepSeek模型的引擎,Chatbox是聊天界面(可选项)。
关于使用Ollama部署的原因,请参考《DeepSeek本地部署工具Ollama和vLLM对比表丨性能、并发、定位、硬件区别丨AI 指南》https://aizhinan.cc/203 中的说明。
可以选择下载DeepSeek R1(推理模型)、DeepSeek V2.5、DeepSeek V3(通用模型),或者DeepSeek Coder(代码模型)等模型在本地运行。
📋 准备工作:DeepSeek本地部署硬件要求,需要多少显存/内存?
其实,本地电脑没有显卡也可以部署和运行DeepSeek,就是说只有CPU,没有显存仅使用内存,也可以正常运行!
- Windows/macOS/Linux系统
- 处理器要求:近5年的多核CPU(如Intel i5/Ryzen 5及以上)
- 内存建议≥8GB(模型越大需要内存越多),推荐32GB
- 硬盘空间≥5GB(存放模型文件)
详细信息请参考《本地电脑安装部署DeepSeek最低配置要求丨GPU方案、CPU方案丨AI 指南》 https://aizhinan.cc/188 一文。
我使用的是一台配置非常低的笔记本电脑,Windows11系统,没有显卡和显存,内存16G:
处理器 13th Gen Intel(R)Core(TM) i5-13500H 2.60 GHz
RAM 16.0GB(15.7 GB可用)
系统类型 64位操作系统,基于x64的处理器
就我这样低配置的笔记本电脑,实测也可以流畅运行DeepSeek各模型的 7b 以上的版本。
虽然DeepSeek对本地部署的硬件要求不高,但是,本地电脑硬件配置肯定无法和DeepSeek服务器相比,都会有不同程度的「降智」现象。要使用「满血」DeepSeek功能,还是建议优先选择完全免费的网页版、App版,可参考《DeepSeek丨中文官网、API申请使用、App下载等百科常识丨AI 指南》https://aizhinan.cc/sites/184 。
🔧 第一步:下载和安装 Ollama,这是DeepSeek本地部署、运行和管理工具
1,首先,下载Ollama安装文件
Ollama官方下载网址:https://ollama.com/download

我是通过上面Ollama官网下载的安装文件,如果下载不了,也可以在Ollama官方GitHub仓库下载网址:https://github.com/ollama/ollama/releases/download/v0.5.8-rc7/OllamaSetup.exe
2,安装Ollama
双击下载的安装包,开始安装Ollama:

安装完毕会自动运行,在Windows电脑桌面右下角状态栏中,显示Ollama图标。
安装后如果自动打开了命令提示符窗口,不要关闭,如果没有自动打开也没关系,先继续下一步骤。
🚀 第二步:选择要部署的DeepSeek模型并下载
1,选择DeepSeek模型:
Ollama官网DeepSeek模型库网址:https://ollama.com/search?q=DeepSeek
在Ollama官网模型库中,有以下DeepSeek模型和版本型号可以选择:

DeepSeek R1:推理模型,版本1.5b、7b到671b共七个。
DeepSeek Coder:代码模型,版本1.3b、6.7b、33b。
DeepSeek V2.5、DeepSeek V3:通用模型,版本分别有236b、671b。
各模型的版本,参数量越大,模型功能也越强大,但也需要更多的计算资源。
我的笔记本硬件配置太低,因此先选择了DeepSeek r2推理模型的1.5b版本。如果你的电脑有显卡,建议选择 7b 或 32b 以上的版本,这也是《本地电脑安装部署DeepSeek最低配置要求丨GPU方案、CPU方案丨AI 指南》https://aizhinan.cc/188 文中的建议。
🌱在电脑硬件配置能够支持在本地正常运行 DeepSeek 的情况下,建议优先选择更大的版本进行下载。模型版本越大,DeepSeek越智能,用户体验也会越好。
2,获取模型下载执行命令代码
需要在Windows系统的「命令提示符」窗口,或者「终端(PowerShell)」窗口内,执行命令来下载DeepSeek模型,因此需要获取各个模型不同版本的下载命令执行代码。
在前图的Ollama模型页面中,点击需要部署的DeepSeek r1模型(根据所需和电脑硬件条件选择),点击下拉菜单,选择模型版本,再复制后面命令框中的下载执行命令,如下图所示:

🌻提示:经实测发现,不要选择1.5b版本,降智严重,我这台笔记本电脑,没有显卡,没有显存,就只有16G内存,运行7b版本也非常流畅,所以建议直接从 32b 版本起步。
3,在命令提示符窗口,或者终端(Windows PowerShell)窗口中执行下载命令
「命令提示符」窗口打开方式:按快捷键「Win+R」,输入cmd
,按确定键打开命令行窗口。
「终端」窗口打开方式:右键点击Win系统左下角的「开始」图标,选择「终端」或「终端管理员」打开。
将前面复制的下载/运行命令ollama run deepseek-r1:1.5b
,建议下载7b或以上版本,下载命令ollama run deepseek-r1:7b
,粘贴进去,按确定键执行:

我的笔记本电脑用的手机上网卡,所以网速很慢。如果是宽带,速度会更快。
各模型、版本型号下载/运行命令:
DeepSeek R1 推理模型:
DeepSeek-R1-Distill-Qwen-1.5b:ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7b:ollama run deepseek-r1:7b
DeepSeek-R1-Distill-lalama-8b:ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14b:ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32b:ollama run deepseek-r1:32b
DeepSeek-R1-Distill-lalama-70b:ollama run deepseek-r1:70b
DeepSeek Coder 代码模型:
1.3 billion parameter model:ollama run deepseek-coder
6.7 billion parameter model:ollama run deepseek-coder:6.7b
33 billion parameter model:ollama run deepseek-coder:33b
DeepSeek V2.5 通用模型:已升级到下面的V3,建议直接部署V3。
DeepSeek V3 通用模型:
DeepSeek-V3-671b:ollama run deepseek-v3
很快,下载完毕会自动加载,完成后,看到>>> Send a message...
,意思是启动成功,可以发送消息了:

✏️ 第三步,本地运行DeepSeek,测试本地部署是否成功
测试一下是否可以正常与DeepSeek对话:

虽然能正常对话,但是由于模型版本为1.5b,所以虽然下载的是DeepSeek r1推理模型,也没有思考过程。
☘️提示:将来需要本地运行DeepSeek时,也需要首先启动Ollama软件,再在命令提示符窗口,或者终端(Windows PowerShell)窗口执行上面的命令,下载和运行命令是相同的。
到这里,DeepSeek本地电脑部署成功了,如果不介意界面,也可以直接通过命令提示符窗口,或者终端(Windows PowerShell)窗口与DeepSeek对话。
后续可以安装Chatbox软件,来优化与DeepSeek的对话界面。
🖥️ 第四步:安装Chatbox,配置聊天界面
详见《图文教程丨Chatbox官网、GitHub下载网址,配置DeepSeek的使用方法丨AI 指南》https://aizhinan.cc/212 一文。
💡很重要的后续:又下载了参数量更大的 DeepSeek R1 8b 模型,并进行了编程测试
前文中用来配置本地DeepSeek的电脑是没有显卡的低配笔记本电脑,只有16G内存。
下载的模型为 1.5b 版本,文件大小为 1.1 GB,试用后发现选择的模型版本过于保守了,因此刚才又下载了 DeepSeek R1 8b 版本,文件大小为 4.9G 。
安装后,进行了复杂的编程测试,详情见《DeepSeek本地部署后续丨无显卡笔记本电脑运行DeepSeek-R1-8b模型测试丨AI 指南》https://aizhinan.cc/219 一文。
更多相关文章:
《专题丨DeepSeek使用教程》https://aizhinan.cc/tag/deepseek-tutorial
《专题丨人工智能技术和应用案例教程》https://aizhinan.cc/ai-tutorial
《专题丨AI人工智能领域最新前沿资讯、未来发展趋势展望》https://aizhinan.cc/ai-news
禁止转载丨原文链接:https://aizhinan.cc/204