本教程将详细介绍如何在Roo Code插件中,调用通过Ollama在本地电脑部署的AI模型,适用于需要本地智能编程功能的开发场景。
Roo Code是VS Code中的智能编程插件,不仅能接入DeepSeek等各大模型API,而且还可以调用Ollama在本地部署的AI大模型。例如,以下Ollama支持在本地部署的模型,都可以在Roo Code插件中调用:
- DeepSeek:如DeepSeek-R1、DeepSeek-Coder、DeepSeek-V3等。
- Qwen:Qwen2.5等阿里的通义千问大模型。
- Llama系列:Llama 2、Llama 3、Code Llama等。
- Mistral:如Mistral 7B。
- Gemma:谷歌相关的大模型。
- Phi-3:微软的大模型。
- Baichuan:百川智能的百川大模型。
- Ziya:智谱AI的智谱清言大模型。
一、环境准备
本地部署DeepSeek等大模型的硬件要求:
- 操作系统:Windows 10/11 或 Linux(Ubuntu 20.04+)
- 处理器:Intel i5 10代+/AMD Ryzen 5 3600+
- 内存:最低16GB(推荐32GB)
- 存储:SSD硬盘至少50GB可用空间
- GPU:NVIDIA GTX 1080+(可选,建议配备)
详细最低硬件配置要求请参考:
《本地电脑安装部署DeepSeek最低配置要求丨GPU方案、CPU方案丨AI 指南》https://aizhinan.cc/188 《DeepSeek R1、V3的1.5b/7b/32b/70b和671b模型,本地部署硬件要求对应表丨AI 指南》https://aizhinan.cc/217
二、本地电脑环境搭建,安装Ollama
新手用户请参考《Ollama图文教程丨DeepSeek V3、R1本地部署实战,面向新手的专业攻略丨AI 指南 https://aizhinan.cc/204 一文,傻瓜式安装Ollama、下载/运行DeepSeek模型。
如果有其他需求,可参考下面1、2、3操作。
1,安装基础组件
# 创建虚拟环境(推荐)
conda create -n ollama_env python=3.9
conda activate ollama_env
# 克隆Ollama仓库
git clone <https://github.com/ollama/ollama.git>
cd ollama/core
2,模型文件准备
从官方渠道获取模型文件:
- DeepSeek R1:huggingface.co/deepseek-ai/deepseek-r1
- 千问2.5:huggingface.co/Qwen/Qwen2.5-7B
将下载的模型文件存放至:
~/ollama/models/
├── deepseek
│ └── r1-7b.bin
└── qwen
└── qwen2.5-7b.bin
3,服务端配置
# config.yaml
server:
host: 127.0.0.1
port: 11434
models:
paths:
- /ollama/models
gpu_acceleration: true # 启用GPU加速
三、在VS Code中安装Roo Code插件
打开VSCode,在插件市场中搜索RooCode安装,详细步骤请参考:
《图文教程丨AI编程插件Roo Code(原Roo Cline)接入DeepSeek API Key,体验R1、V3模型的详细方法丨AI 指南》https://aizhinan.cc/227
四、Roo Code调用Ollama本地DeepSeek R1/V3/千问2.5等AI模型
首先,确保已经运行Ollama,并执行了DeepSeek或其他模型的运行命令。
在VS Code软件中,点击左侧栏Roo Code图标,再点击「设置」齿轮图标。在设置页,点击「API Provider」下拉菜单并选择「Ollama」,如下图所示:

然后,选择本地电脑下载/运行的模型版本,这里选择deepseek-r1:8b
,可以看到我另外还下载了deepseek-r1:1.5b
版本:

最后,点击右上角的「Done」按钮保存设置,简单测试一下能否使正常与DeepSeek对话:

到这里,已成功在Roo Code调用通过Ollama部署的DeepSeek模型。可以在VS Code使用DeepSeek的AI编程功能,不会再出现连接DeepSeek API时的「服务器繁忙,请稍后再试」情况了。
五、故障排查指南
问题现象 | 解决方案 |
---|---|
503 Service Unavailable | 检查Ollama服务是否启动:systemctl status ollama |
CUDA内存不足 | 降低gpu_layers 值或减少batch_size |
响应速度慢 | 在config.yaml中开启cache_enabled: true |
中文输出异常 | 添加generation_config={"language": "zh"} |
模型加载失败 | 验证模型文件SHA256校验值 |
希望以上内容,能帮助新手朋友了解Ollama在本地部署DeepSeek、千问等大模型后,如何在VS Code插件Roo Code或其他工具中调用。
更多相关文章:
《专题丨DeepSeek使用教程》https://aizhinan.cc/tag/deepseek-tutorial
《专题丨人工智能技术和应用案例教程》https://aizhinan.cc/ai-tutorial
《专题丨AI人工智能领域最新前沿资讯、未来发展趋势展望》https://aizhinan.cc/ai-news
禁止转载丨原文链接:https://aizhinan.cc/235