AI大模型本地部署工具Ollama,支持接入的大模型非常丰富,例如以下这些常用模型:
- DeepSeek系列:如DeepSeek-R1,DeepSeek-V3,在智能问答、文本创作等方面有良好的性能。
- Qwen系列:像Qwen2、Qwen2.5等,这是阿里巴巴开发的模型,对中文的支持较好,在中文语境下的各种任务中能有不错的表现。
- Llama系列:如Llama 3、Llama2等。Llama系列模型在自然语言处理任务中表现出色,具有较强的语言理解和生成能力。
- Phi系列:例如Phi 3等,在文本生成、知识问答等方面有一定的优势。
- Mistral:该模型具备高效的语言处理能力,在一些文本生成等任务中效率较高。
- Gemma系列:如Gemma2等,具有独特的语言处理特点,可用于多种自然语言处理场景。
- DolphinPhi:在特定的领域和任务中可能有专门的优化和表现。
- CodeLlama:是专门为代码相关任务设计的模型,在代码生成、代码理解等方面具有专业优势。
- LLaVA:是多模态模型,支持处理文本和图片等多种类型的输入。
此外,Ollama还支持从Huggingface Hub上直接拉取各种模型,包括社区创建的GGUF量化模型等。
在本地电脑中使用Ollama成功部署DeepSeek R1/V3、千问(qwen)2.5等大模型后,在AI编程插件Cline中怎么配置和调用,才能正常使用智能编码功能呢?
以下是Cline调用Ollama本地大模型的详细配置方法:
第1步,启动Ollama并执行命令运行大模型
首先,打开本地电脑中的Ollama应用,然后在命令提示符窗口,或者终端(Windows PowerShell)窗口中执行模型运行命令。
例如,运行DeepSeek R1模型的命令ollama run deepseek-r1:8b
,运行千问2.5模型的命令ollama run qwen2.5:7b
,根据自己部署的模型来执行,复制命令到命令行窗口确定即可。
如果还不了解怎么通过Ollama在本地部署大模型,可参考 :《Ollama图文教程丨DeepSeek V3、R1本地部署实战,面向新手的专业攻略丨AI 指南》https://aizhinan.cc/204
第2步,在Cline中配置Ollama本地模型
在VS Code软件的左侧栏,找到Cline图标并点击,然后点击右上角的齿轮设置图标,在「API Provider」下拉菜单中,选择「Ollama」,如下图所示:

选择Ollama后,下面的「Base URL (optional)」,意思是基本URL(可选),不用管他,默认自动填写的看上去是Default: http://localhost:11434
,其实是示例,实际框内是空白的。
需要选择的是下面的「Model ID」,指定要调用的模型,下面显示出我在本地电脑下载运行的两个模型型号,deepseek-r1:8b
和deepseek-r1:1.5b
,选择需要调用的模型,如下图所示:

最后,点击右上角的「Done」按钮,完成配置并保存。
经过以上这样的配置,就可以在本地电脑中调用通过Ollama部署的DeepSeek R1/V3、千问(qwen)2.5等大模型了,实现在本地使用AI编程功能的目的。
更多相关文章:
《专题丨DeepSeek使用教程》https://aizhinan.cc/tag/deepseek-tutorial
《专题丨人工智能技术和应用案例教程》https://aizhinan.cc/ai-tutorial
《专题丨AI人工智能领域最新前沿资讯、未来发展趋势展望》https://aizhinan.cc/ai-news
禁止转载丨原文链接:https://aizhinan.cc/232