这是从零开始搭建langchain本地化RAG服务(本地部署的lamma3.1+本地部署的chroma)的保姆级教程,希望对您有帮助。
它主要包含以下功能:

  • 使用本地大语言模型做语言翻译
  • 使用本地大语言模型做专业领域的知识问答

vuetify-langchain-rag

从系统架构来看,本系统包含了前端、API网关、后台服务三大部分:
系统架构

功能

前端使用vue3vuetify3开发,脚本主要是使用组合式API写的,主要功能有:

  • 基于OAuth2.0JWT标准的用户认证
  • 翻译组件
  • 问答聊天组件
    前端代码还包含了本地会话管理请求拦截的通用模块、切换主题等常用功能,使用了很多veutify3控件。

API网关使用FastAPI实现,主要实现以下功能:

  • 基于OAuth2.0JWT规范的用户认证
  • 请求代理转发

后台服务主要基于本地大语言模型提供服务,包括:

  • 使用Ollama平台,在本地部署和使用Ollama3.1开源大语言模型
  • 使用Chroma做本地矢量数据存储和检索
  • 使用Ollama3.1或者nomic-embed-text进行矢量化
  • 使用本地大语言模型Ollama3.1实现增强生成
  • 使用langchian将以上功能整合起来提供服务

系列文章目录

  1. 在Visual Studio Code中配置venv
  2. 在langchian中使用本地部署的llama3大模型
  3. 使用langchain和本地部署的lamma3+chroma做RAG
  4. 基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答
  5. 基于langchian和对话式RAG实现知识问答
  6. 使用LangServe做本地大模型的API
  7. 使用Flask做langchain的API
  8. 用FastAPI和langchain做本地大模型的API
  9. 基于FastAPI实现简单的微服务API网关
  10. 基于FastAPI使用JWT技术实现的OAuth2用户认证接口
  11. 基于OAuth2.0和JWT规范实现安全易用的用户认证
  12. 用图形验证码增强用户认证安全性

如果您不了解vuetify,您可以先看看下面的入门教程:
🔗Veutify3入门实战

查看完整代码


🪐祝好运🪐

Logo

一站式 AI 云服务平台

更多推荐