本文用于记录和描述如何在本地通过配置dify+firecral+ollama的方式来实现RAG知识库chatbot。

整个配置流程在macos15.5下完成,其他操作系统还请依据实际情况更改对应内容。

安装dify

git clone git@github.com:langgenius/dify.git

配置dify环境变量

 cd dify/docker cp .env.example .env

我们可以对dify参数进行调整也可以直接使用默认参数

运行dify

docker-compose up -d

默认运行在80端口

图片

首次登陆需要配置admin密码信息

图片

首次登陆后需要配置模型提供商,点击右上角头像图标,设置

图片

选择模型供应商,选择你需要使用的模型,我这里配置使用ollama

图片

选择添加模型,配置本地地址,确保你的ollama已经运行并且可以被访问。

curl http://192.168.31.157:11434/v1/models

正确的话会输出当前ollama已经下载的模型列表

图片

图片

配置模型

图片

可以配置多个,并且配置embedding模型

图片

安装firecrawl爬虫工具

使用firecrawl还需要安装nodejs和pnpm为依赖,还请提前安装

 git clone git@github.com:mendableai/firecrawl.gi

修改firecrawl参数

cd firecrawlcp apps/api/.env.example ./.envvi .env

修改两个内容

USE_DB_AUTHENTICATION=false

TEST_API_KEY=xxxxx  #记录该key后续配置会用上

图片

启动firecrawl

在firecrawl的目录下运行

docker-compose up -d 

图片

firecrawl运行成功 打开本地3002/test可以看到hello,world字样

图片

打开dify,配置数据来源

图片

api key使用刚才在env文件中所设置的内容

图片

随后我们创建新的知识库

图片

选择同步自web站点,我们以https://docs.dify.ai/zh-hans/guides为例子

限制数量设置为50,深度为3,代表让firecrawl抓取网页上最先出现的10个内容并且抓取这50个链接下的3层子目录

图片

勾选删除所有url和电子邮件地址

图片

选择混合检索,采用权重设置(本文不涉及RAG精度优化,暂不使用rerank模型)点击保存并处理。

图片

我们可以看到知识库已经完成了创建并在embedding

图片

embedding完成后我可以点击前往文档查看结果

图片

可以看到利用firecrawl抓取的网页embedding所生成的文档

图片

现在我们来创建一个新的应用,选择chatflow

图片

在给出的模板基础上修改,在开始和llm中间增加知识检索节点

图片

选择引用知识库,使用我们刚才创建的库

图片

随后修改llm模型节点

修改温度(默认0.7)降到较低的值,使其回答更为稳妥。

上下文选择知识检索节点的result

在system prompt中输入 根据下面的检索结果回答用户问题 调用sys.query变量 并调用上下文

图片

我们选择预览,输入一个问题

如何配置embedding模型?

图片

可以看到在思考的过程中引用了知识库的内容

图片

回答的内容符合预期,可以发布了

我们选择发布。

图片

点击运行,可以看到单独的chatbot页面,我们再次提问

如何配置插件?

图片

图片

可以看到对应的流程,符合预期。

当然我们也可以选择把chatbot嵌入到网站中,可以在发布下获取对应的代码。

图片

  如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

 

Logo

一站式 AI 云服务平台

更多推荐