从零搭建基于langchain的本地大模型+本地向量数据库的RAG系统
这是从零开始搭建langchain本地化RAG服务(本地部署的lamma3.1+本地部署的chroma)的保姆级教程
·
这是从零开始搭建langchain本地化RAG服务(本地部署的lamma3.1+本地部署的chroma)的保姆级教程,希望对您有帮助。
它主要包含以下功能:
- 使用本地大语言模型做语言翻译
- 使用本地大语言模型做专业领域的知识问答
vuetify-langchain-rag
从系统架构来看,本系统包含了前端、API网关、后台服务三大部分:
功能
前端使用vue3和vuetify3开发,脚本主要是使用组合式API写的,主要功能有:
- 基于
OAuth2.0和JWT标准的用户认证 - 翻译组件
- 问答聊天组件
前端代码还包含了本地会话管理、请求拦截的通用模块、切换主题等常用功能,使用了很多veutify3控件。
API网关使用FastAPI实现,主要实现以下功能:
- 基于
OAuth2.0和JWT规范的用户认证 - 请求代理转发
后台服务主要基于本地大语言模型提供服务,包括:
- 使用
Ollama平台,在本地部署和使用Ollama3.1开源大语言模型 - 使用
Chroma做本地矢量数据存储和检索 - 使用
Ollama3.1或者nomic-embed-text进行矢量化 - 使用本地大语言模型
Ollama3.1实现增强生成 - 使用
langchian将以上功能整合起来提供服务
系列文章目录
- 在Visual Studio Code中配置venv
- 在langchian中使用本地部署的llama3大模型
- 使用langchain和本地部署的lamma3+chroma做RAG
- 基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答
- 基于langchian和对话式RAG实现知识问答
- 使用LangServe做本地大模型的API
- 使用Flask做langchain的API
- 用FastAPI和langchain做本地大模型的API
- 基于FastAPI实现简单的微服务API网关
- 基于FastAPI使用JWT技术实现的OAuth2用户认证接口
- 基于OAuth2.0和JWT规范实现安全易用的用户认证
- 用图形验证码增强用户认证安全性
如果您不了解vuetify,您可以先看看下面的入门教程:
🔗Veutify3入门实战
查看完整代码
🪐祝好运🪐
更多推荐




所有评论(0)