DeepSeek R1 本地部署 & idea集成,太酷啦

使用DeepSeek本地部署可以避免服务器卡顿的问题,具体操作分两步:

下载olama框架,用于管理LLM大模型

官网下载:在 macOS 上下载 Ollama - Ollama 框架
夸克网盘:
链接:https://pan.quark.cn/s/9acfa6aa257d
提取码:DpMy

在这里插入图片描述

下载完成会显示在最小化图标窗口
在这里插入图片描述

安装完成后打开命令行窗口执行ollama -v,看是否有版本信息,有版本信息则安装成功

在这里插入图片描述

安装DeepSeek,直接在命令窗口输入ollama run deepseek-r1:1.5b运行即可,如下所示。(这边博主配置不够,只能安装丐版R1,如果需要安装更加完美的可以参考下方内容)

olama官网可以查看各个模型的名字

deepseek-r1 - Ollama 框架

官网可以查看各个模型的配置

在这里插入图片描述

在这里插入图片描述

根据电脑不同配置安装适合的版本

下载完成,下载可能会很慢,可以尝试在慢的时候ctrl+C中断,然后等一分钟继续下载
在这里插入图片描述

CodeGPT集成DeepSeek本地部署

插件市场找到CodeGPT插件安装
在这里插入图片描述

配置Ollama,打开IDEA -》Settings -》Tools -》CodeGPT -》Providers,在Selected provider中选择Ollama(Local)即可,点击【OK】按钮,如下所示。

在这里插入图片描述

完成后就会在Providers中看到Ollama的配置信息,修改Code Completions以及FIM template的信息,如下所示。

在这里插入图片描述

在IDEA右侧点击CodeGPT按钮,即可使用,如下所示。

在这里插入图片描述

Logo

一站式 AI 云服务平台

更多推荐