本地知识库配置指南

1. 准备工作

目标

通过本地部署 DeepSeek 和 RAGFlow,结合 Embedding 模型构建个人知识库

工具需求

  • ollama(本地运行和管理大语言模型)
  • Docker(部署 RAGFlow)
  • DeepSeek 模型
  • Embedding 模型
  • RAGFlow 源代码

2. 下载并配置 ollama

下载 ollama 平台

  • 官网地址:ollama
  • 支持 Windows/Linux/macOS 系统

配置环境变量

# 设置访问地址
export OLLAMA_HOST=0.0.0.0:11434

# 自定义模型存储路径(可选)


export OLLAMA_MODELS=D:\models
  • 需重启系统生效配置
  • 防火墙需放行 11434 端口

下载 DeepSeek 模型

ollama run deepseek-r1:32b

3. 下载并部署 RAGFlow

-获取源代码

GitHub 仓库示例:https://github.com/infiniflow/ragflow

在这里插入图片描述

  • 安装 Docker
官网下载:https://www.docker.com/

在这里插入图片描述

  • 拉取镜像
docker pull ragflow:latest
  • 启动容器
 docker run -d -p 8080:8080 --name ragflow-container ragflow:latest

4. 配置知识库

4.1 模型配置

Chat 模型配置
  • 在 RAGFlow “模型提供商” 添加 DeepSeek
  • 选择 deepseek 作为 Chat 模型
Embedding 模型配置
  • 使用系统自带或单独部署模型
  • 支持多种开源 Embedding 模型

4.2 知识库构建

  1. 创建新知识库
  2. 上传文件(支持 PDF/Word/TXT 等格式)
  3. 文件自动解析流程
    • 文段切分处理
    • Embedding 模型生成向量指纹
    • 向量索引存储

Prompt 示例
“根据我的知识库内容回答问题。如果知识库中没有相关信息,请明确告知。”

工作流程

  1. 用户输入 → 向量化
  2. 向量匹配知识库片段
  3. 上下文扩展 + 问题整合
  4. DeepSeek 生成最终回答

5. 在线快速搭建方案(可选)

5.1 部署流程
  1. 使用 Docker 部署 RAGFlow
  2. 配置在线模型
    • Chat 模型:GPT-4/Claude 等
    • Embedding 模型:OpenAI Embedding 等
  3. 上传文件构建知识库
Logo

一站式 AI 云服务平台

更多推荐