本地部署DeepSeek+AnythingLLM创建本地知识库
deepseek本地部署 结合anythingLLM创建自己的知识库
一、下载ollama
https://www.ollama.com/download/OllamaSetup.exe
二、下载deepseek模型
cmd
ollama run deepseek-r1:1.5b
1.5b是模型版本,约1.1GB
测试用的笔记本,i7-1260P,16G内存
7b 4.7G 测试可以运行,就是有些慢
其他版本占用的磁盘空间较大,且模型越大,需要的算力越大,本地部署要考虑计算机的算力

三、设置环境变量
OLLAMA_HOST
0.0.0.0
0.0.0.0:11434
OLLAMA_ORIGINS
OLLAMA_MODELS
D:\ollama\models
四、chatbox
直接使用网页版
也可以下载客户端并安装,进行如下设置

五、创建本地的知识库
需要安装RAG,LLM框架以:anythingLLM为例,连接
下载地址:https://cdn.useanything.com/latest/AnythingLLMDesktop.exe
下载后安装,安装的过程有点慢,耐心等待。
安装后启动,启动后要做一些设置
1、Search LLM provider
这里选择Ollama

Ollama Model:
这里选择下载的deepseek-r1:1.5b或其他版本模型7b等

2、Embedding Preference
这里需要选择一下,当然也可以再后面再进行设置。
这里不做选择,当你上传本地文档时会报错。
Ollama Enbedding Model:
nomic-embed-text:latest
这里的nomic-embed-tex是Ollama提供的Enbeeder模型之一,
需要在ollama中拉取
cmd
ollama pull nomic-embed-text
拉取成功后,需要重启ollama,才能看到这个模型。
AnythingLLM 系统设置中也设置一下。

六、创建工作区,并上传本地资料


可以上传word文档,md文档
最后,新创建的工作区也要设置一下。

更多推荐




所有评论(0)