Roo Code调用Ollama本地DeepSeek R1/V3/千问2.5等AI模型的配置方法

本教程将详细介绍如何在Roo Code插件中,调用通过Ollama在本地电脑部署的AI模型,适用于需要本地智能编程功能的开发场景。

Roo Code是VS Code中的智能编程插件,不仅能接入DeepSeek等各大模型API,而且还可以调用Ollama在本地部署的AI大模型。例如,以下Ollama支持在本地部署的模型,都可以在Roo Code插件中调用:

  • DeepSeek:如DeepSeek-R1、DeepSeek-Coder、DeepSeek-V3等。
  • Qwen:Qwen2.5等阿里的通义千问大模型。
  • Llama系列:Llama 2、Llama 3、Code Llama等。
  • Mistral:如Mistral 7B。
  • Gemma:谷歌相关的大模型。
  • Phi-3:微软的大模型。
  • Baichuan:百川智能的百川大模型。
  • Ziya:智谱AI的智谱清言大模型。

一、环境准备

本地部署DeepSeek等大模型的硬件要求:

  • 操作系统:Windows 10/11 或 Linux(Ubuntu 20.04+)
  • 处理器:Intel i5 10代+/AMD Ryzen 5 3600+
  • 内存:最低16GB(推荐32GB)
  • 存储:SSD硬盘至少50GB可用空间
  • GPU:NVIDIA GTX 1080+(可选,建议配备)

详细最低硬件配置要求请参考:

本地电脑安装部署DeepSeek最低配置要求丨GPU方案、CPU方案丨AI 指南》https://aizhinan.cc/188 DeepSeek R1、V3的1.5b/7b/32b/70b和671b模型,本地部署硬件要求对应表丨AI 指南》https://aizhinan.cc/217

二、本地电脑环境搭建,安装Ollama

新手用户请参考Ollama图文教程丨DeepSeek V3、R1本地部署实战,面向新手的专业攻略丨AI 指南 https://aizhinan.cc/204 一文,傻瓜式安装Ollama、下载/运行DeepSeek模型。

如果有其他需求,可参考下面1、2、3操作。

1,安装基础组件

# 创建虚拟环境(推荐)
conda create -n ollama_env python=3.9
conda activate ollama_env

# 克隆Ollama仓库
git clone <https://github.com/ollama/ollama.git>
cd ollama/core

2,模型文件准备

从官方渠道获取模型文件:

将下载的模型文件存放至:

~/ollama/models/
   ├── deepseek
   │   └── r1-7b.bin
   └── qwen
       └── qwen2.5-7b.bin

3,服务端配置

# config.yaml
server:
  host: 127.0.0.1
  port: 11434
models:
  paths:
    - /ollama/models
gpu_acceleration: true  # 启用GPU加速

三、在VS Code中安装Roo Code插件

打开VSCode,在插件市场中搜索RooCode安装,详细步骤请参考:

图文教程丨AI编程插件Roo Code(原Roo Cline)接入DeepSeek API Key,体验R1、V3模型的详细方法丨AI 指南》https://aizhinan.cc/227

四、Roo Code调用Ollama本地DeepSeek R1/V3/千问2.5等AI模型

首先,确保已经运行Ollama,并执行了DeepSeek或其他模型的运行命令。

在VS Code软件中,点击左侧栏Roo Code图标,再点击「设置」齿轮图标。在设置页,点击「API Provider」下拉菜单并选择「Ollama」,如下图所示:

Roo Code调用Ollama本地DeepSeek R1/V3/千问2.5等AI模型的配置方法
图片丨在Roo Code插件API提供商菜单中选择Ollama

然后,选择本地电脑下载/运行的模型版本,这里选择deepseek-r1:8b,可以看到我另外还下载了deepseek-r1:1.5b 版本:

Roo Code调用Ollama本地DeepSeek R1/V3/千问2.5等AI模型的配置方法
图片丨选择本地部署运行的DeepSeek模型

最后,点击右上角的「Done」按钮保存设置,简单测试一下能否使正常与DeepSeek对话:

Roo Code调用Ollama本地DeepSeek R1/V3/千问2.5等AI模型的配置方法
图片丨在Roo Code插件中与部署在本地的DeepSeek模型对话

到这里,已成功在Roo Code调用通过Ollama部署的DeepSeek模型。可以在VS Code使用DeepSeek的AI编程功能,不会再出现连接DeepSeek API时的「服务器繁忙,请稍后再试」情况了。

五、故障排查指南

问题现象解决方案
503 Service Unavailable检查Ollama服务是否启动:systemctl status ollama
CUDA内存不足降低gpu_layers值或减少batch_size
响应速度慢在config.yaml中开启cache_enabled: true
中文输出异常添加generation_config={"language": "zh"}
模型加载失败验证模型文件SHA256校验值

希望以上内容,能帮助新手朋友了解Ollama在本地部署DeepSeek、千问等大模型后,如何在VS Code插件Roo Code或其他工具中调用。

更多相关文章:

《专题丨DeepSeek使用教程》https://aizhinan.cc/tag/deepseek-tutorial

《专题丨人工智能技术和应用案例教程》https://aizhinan.cc/ai-tutorial

《专题丨AI人工智能领域最新前沿资讯、未来发展趋势展望》https://aizhinan.cc/ai-news

禁止转载丨原文链接:https://aizhinan.cc/235

版权声明:AI 指南 发表于 2025年2月14日 am12:29。
禁止转载:Roo Code调用Ollama本地DeepSeek R1/V3/千问2.5等AI模型的配置方法 | AI 指南

相关文章