前提

在将deepseek模型接入微信之前首先要先保证本地安装好了ollama并成功部署了deepseek,具体操作方法可以参考我的上一篇博文:在本地部署deepseek模型

准备工作

  1. 任意一款JetBrains IDE:包括但不限于IDEA、Pycharm、WebStorm、CLion。
  2. CodeGPT:CodeGPT是JetBrains IDE的一款通用插件,是目前支持开源大模型编程最好的插件之一,操作对小白十分友好。CodeGPT可以在IDE的plugin中搜索到

为IDE安装CodeGPT插件

  • 打开Pycharm-Settings-Plugins-Marketplace
    在这里插入图片描述在这里插入图片描述
  • 搜索CodeGPT,点击Install
    在这里插入图片描述
    安装成功后重启IDE即可

使用CodeGPT插件导入本地deepseek环境

  • 再次打开Pycharm后,在最右侧会出现如箭头所示的图标,点击该图标,开始配置CodeGPT
    在这里插入图片描述
  • 点击CodeGPT settings,查看CodeGPT当前的模型配置,将其修改为本地的Ollama。
    在这里插入图片描述
  • 点击CodeGPT settings,查看CodeGPT当前的模型配置,将其修改为本地的Ollama,按照下图所示将CodeGPT的模型修改为本地部署过的deepseek-r1
    在这里插入图片描述
  • 当CodeGPT的左下角对话框显示本地模型信息时说明deepseek已经成功接入IDE
    在这里插入图片描述
    注意:Model选项中没有显示本地的deepseek模型,请点击Refresh Models刷新Ollama的配置,如果依然没有显示,请确定Ollama处于打开状态,只有Ollama模型一直在后台运行才可以使用deepseek
    在这里插入图片描述
  • 开始与deepseek对话
    在这里插入图片描述

后话

个人还是建议从官网申请一个API key用满血版的deepseek R1部署,本地模型受硬件条件限制往往无法完全发挥deepseek的优势。
Logo

一站式 AI 云服务平台

更多推荐