依星源码资源网,依星资源网

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 116|回复: 0

AnythingLLM:基于RAG方案构专属私有知识库(开源|高效|可...

[复制链接] 主动推送

6859

主题

6911

帖子

7114

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
7114
发表于 2024-1-26 16:37:08 | 显示全部楼层 |阅读模式
AnythingLLM:基于RAG方案构专属私有知识库(开源|高效|可定制)一、前言
继OpenAI和Google的产品发布会之后,大模型的能力进化速度之快令人惊叹,然而,对于很多个人和企业而言,为了数据安全不得不考虑私有化部署方案,从GPT-4发布以来,国内外的大模型就拉开了很明显的差距,能够实现的此路径无非就只剩下国内的开源大模型可以选择了。而现阶段切入大模型应用落地最合适的方案依然是结合大模型基于RAG检索增强来实现知识库的检索和生存。从而构建个人或者企业私有化的本地知识库。
你只需要将本地私有的 PDF、Word 文档和文本文件嵌入到本地向量库,连接上LLM,然后就可以通过对话、搜索的方式进行回答问题、提供见解,甚至生成摘要。
接下来我们就介绍一下 Mintplex Labs 的两个高度创新的开源项目。它们是 AnythingLLM(一种企业级解决方案,专为创建自定义 ChatBot(包括 RAG 模式)而设计)和 Vector Admin(一种用于有效管理多个向量存储的复杂管理 GUI)。
AnythingLLM 不仅仅是另一个聊天机器人。它是一个全栈应用程序,这意味着它融合了从数据处理到用户界面的所有技术优势。最好的部分?它是开源且可定制的。这意味着如果您有技能,您可以根据自己的喜好进行调整。或者,如果您像我一样更喜欢现成的东西,那么它开箱即用,效果非常好。
二、概述2.1、AnythingLLM 介绍
AnythingLLM 是 Mintplex Labs Inc. 开发的一款开源 ChatGPT 等效工具,用于在安全的环境中与文档等进行聊天,专为想要使用现有文档进行智能聊天或构建知识库的任何人而构建。
AnythingLLM 能够把各种文档、资料或者内容转换成一种格式,让LLM(如ChatGPT)在聊天时可以引用这些内容。然后你就可以用它来和各种文档、内容、资料聊天,支持多个用户同时使用,还可以设置谁能看或改哪些内容。 支持多种LLM、嵌入器和向量数据库。
001.png
2.2、AnythingLLM 特点
  • 多用户支持和权限管理:允许多个用户同时使用,并可设置不同的权限。
  • 支持多种文档类型:包括 PDF、TXT、DOCX 等。
  • 简易的文档管理界面:通过用户界面管理向量数据库中的文档。
  • 两种聊天模式:对话模式保留之前的问题和回答,查询模式则是简单的针对文档的问答
  • 聊天中的引用标注:链接到原始文档源和文本。
  • 简单的技术栈,便于快速迭代。
  • 100% 云部署就绪。
  • “自带LLM”模式:可以选择使用商业或开源的 LLM。
  • 高效的成本节约措施:对于大型文档,只需嵌入一次,比其他文档聊天机器人解决方案节省 90% 的成本。
  • 完整的开发者 API:支持自定义集成。
2.3、支持的 LLM、嵌入模型和向量数据库
  • LLM:包括任何开源的 llama.cpp 兼容模型、OpenAI、Azure OpenAI、Anthropic ClaudeV2、LM Studio 和 LocalAi。
  • 嵌入模型:AnythingLLM 原生嵌入器、OpenAI、Azure OpenAI、LM Studio 和 LocalAi。
  • 向量数据库:LanceDB(默认)、Pinecone、Chroma、Weaviate 和 QDrant。
2.4、技术概览
整个项目设计为单线程结构,主要由三部分组成:收集器、前端和服务器。
  • collector:Python 工具,可快速将在线资源或本地文档转换为 LLM 可用格式。
  • frontend:ViteJS + React 前端,用于创建和管理 LLM 可使用的所有内容。
  • server:NodeJS + Express 服务器,处理所有向量数据库管理和 LLM 交互。
首先,收集器是一个实用的Python工具,它使用户能够快速将来自在线资源(如指定的YouTube频道的视频、Medium文章、博客链接等)或本地文档中的可公开访问数据转换为LLM可用的格式。该应用程序的前端采用了vitejs 和React进行构建,通过Node.js和Express服务器处理所有LLM交互和VectorDB管理。这种设计使得用户能够在直观友好的界面中进行操作,并且通过高效的服务器架构实现快速响应和管理大规模的数据。
三、AnythingLLM 部署
接下来开始完成本地模型(特别是文本嵌入和生成)以及向量存储的部署,所有这些都旨在与上述解决方案无缝集成。为此,我们将结合使用 LocalAI 和 Chroma。
3.1、安装 Chroma Vectorstore
该过程首先克隆官方存储库并启动 Docker 容器。
  1. git clone https://github.com/chroma-core/chroma.git
  2. cd chroma
  3. docker compose up -d --build
复制代码
为了验证向量存储的可用性,我们连接到其 API 文档,网址为:http://localhost:8000/docs
002.png
使用此 API,我们继续创建一个新集合,恰当地命名为“playground”。
  1. curl -X 'POST' 'http://localhost:8000/api/v1/collections?tenant=default_tenant&database=default_database'
  2.   -H 'accept: application/json'
  3.   -H 'Content-Type: application/json'
  4.   -d '{ "name": "playground", "get_or_create": false}'
复制代码
接下来,我们检查结果以确保设置正确。
  1. curl http://localhost:8000/api/v1/collections

  2. [
  3.   {
  4.     "name": "playground",
  5.     "id": "0072058d-9a5b-4b96-8693-c314657365c6",
  6.     "metadata": {
  7.       "hnsw:space": "cosine"
  8.     },
  9.     "tenant": "default_tenant",
  10.     "database": "default_database"
  11.   }
  12. ]
复制代码
3.2、LocalAI 的部署
LocalAi 是一个功能齐全的 CLI 应用程序,你可以运行它来轻松启动 API 服务器,以便与 HuggingFace 上找到的开源模型聊天以及运行嵌入模型!
接下来,我们的重点转移到建立 LocalAI Docker 容器。
  1. git clone https://github.com/go-skynet/LocalAI
  2. cd LocalAI
  3. docker compose up -d --pull always
复制代码
一旦容器运行,我们就开始下载、安装和测试两个特定模型。
我们的第一个模型是来自 Bert 的句子转换器嵌入模型:MiniLM L6。
  1. curl http://localhost:8080/models/apply
  2.   -H "Content-Type: application/json"
  3.   -d '{ "id": "model-gallery@bert-embeddings" }'

  4. curl http://localhost:8080/v1/embeddings
  5.   -H "Content-Type: application/json"
  6.   -d '{ "input": "The food was delicious and the waiter...",
  7.         "model": "bert-embeddings" }'

  8. {
  9.   "created": 1702050873,
  10.   "object": "list",
  11.   "id": "b11eba4b-d65f-46e1-8b50-38d3251e3b52",
  12.   "model": "bert-embeddings",
  13.   "data": [
  14.     {
  15.       "embedding": [
  16.         -0.043848168,
  17.         0.067443006,
  18.     ...
  19.         0.03223838,
  20.         0.013112408,
  21.         0.06982294,
  22.         -0.017132297,
  23.         -0.05828256
  24.       ],
  25.       "index": 0,
  26.       "object": "embedding"
  27.     }
  28.   ],
  29.   "usage": {
  30.     "prompt_tokens": 0,
  31.     "completion_tokens": 0,
  32.     "total_tokens": 0
  33. }
  34. }
复制代码
随后,我们探索 Hugging Face 的LLM:Zephyr-7B-β,这是基础 Mistral 7B 模型的改进版本。
  1. curl http://localhost:8080/models/apply
  2.   -H "Content-Type: application/json"
  3.   -d '{ "id": "huggingface@thebloke__zephyr-7b-beta-gguf__zephyr-7b-beta.q4_k_s.gguf",
  4.         "name": "zephyr-7b-beta" }'

  5. curl http://localhost:8080/v1/chat/completions
  6.   -H "Content-Type: application/json"
  7.   -d '{ "model": "zephyr-7b-beta",
  8.         "messages": [{
  9.           "role": "user",
  10.           "content": "Why is the Earth round?"}],
  11.         "temperature": 0.9 }'

  12. {
  13.   "created": 1702050808,
  14.   "object": "chat.completion",
  15.   "id": "67620f7e-0bc0-4402-9a21-878e4c4035ce",
  16.   "model": "thebloke__zephyr-7b-beta-gguf__zephyr-7b-beta.q4_k_s.gguf",
  17.   "choices": [
  18.     {
  19.       "index": 0,
  20.       "finish_reason": "stop",
  21.       "message": {
  22.         "role": "assistant",
  23.         "content": "\nThe Earth appears round because it is
  24. actually a spherical body. This shape is a result of the
  25. gravitational forces acting upon it from all directions. The force
  26. of gravity pulls matter towards the center of the Earth, causing
  27. it to become more compact and round in shape. Additionally, the
  28. Earth's rotation causes it to bulge slightly at the equator,
  29. further contributing to its roundness. While the Earth may appear
  30. flat from a distance, up close it is clear that our planet is
  31. indeed round."
  32.       }
  33.     }
  34.   ],
  35.   "usage": {
  36.     "prompt_tokens": 0,
  37.     "completion_tokens": 0,
  38.     "total_tokens": 0
  39.   }
  40. }
复制代码
3.3、部署和配置 AnythingLLM
成功安装模型和向量存储后,我们的下一步是部署 AnythingLLM 应用程序。为此,我们将利用 Mintplex Labs 提供的官方 Docker 镜像。
  1. docker pull mintplexlabs/anythingllm:master

  2. export STORAGE_LOCATION="/var/lib/anythingllm" && \
  3. mkdir -p $STORAGE_LOCATION && \
  4. touch "$STORAGE_LOCATION/.env" && \
  5. docker run -d -p 3001:3001 \
  6. -v ${STORAGE_LOCATION}:/app/server/storage \
  7. -v ${STORAGE_LOCATION}/.env:/app/server/.env \
  8. -e STORAGE_DIR="/app/server/storage" \
  9. mintplexlabs/anythingllm:master
复制代码
通过导航到 http://localhost:3001 可以访问应用程序,我们可以在其中使用直观的 GUI 开始配置过程。
在配置中,我们选择 LocalAI 后端,可通过 http://127.0.0.1:8080/v1 URL 访问,并集成 Zephyr 模型。值得注意的是,AnythingLLM 还支持其他后端,例如 OpenAI、Azure OpenAI、Anthropic Claude 2 和本地可用的 LM Studio。
003.png
接下来,我们将嵌入模型与相同的 LocalAI 后端保持一致,确保系统具有凝聚力。
004.png
接下来,我们选择 Chroma 向量数据库,使用 URL http://127.0.0.1:8000。值得一提的是,AnythingLLM 还与其他向量存储兼容,例如 Pinecone、QDrant、Weaviate 和 LanceDB。
005.png
AnythingLLM 的自定义选项包括添加徽标以个性化实例的可能性。但是,为了本教程的简单起见,我们将跳过这一步。同样,虽然有配置用户和权限管理的选项,但我们将继续进行简化的单用户设置。
然后,我们继续创建一个工作区,恰当地命名为“Playground”,反映了我们早期 Chroma 系列的名称。
006.png
AnythingLLM 起始页旨在通过类似聊天的界面向用户提供初始说明,并可以灵活地根据特定需求定制此内容。
007.png
从我们的“Playground”工作区,我们可以上传文档,进一步扩展我们的设置的功能。
008.png
我们监控日志以确认 AnythingLLM 有效地将相应的向量插入到 Chroma 中。
  1. Adding new vectorized document into namespace playground
  2. Chunks created from document: 4
  3. Inserting vectorized chunks into Chroma collection.
  4. Caching vectorized results of custom-documents/techsquad-3163747c-a2e1-459c-92e4-b9ec8a6de366.json to prevent duplicated embedding.
  5. Adding new vectorized document into namespace playground
  6. Chunks created from document: 8
  7. Inserting vectorized chunks into Chroma collection.
  8. Caching vectorized results of custom-documents/techsquad-f8dfa1c0-82d3-48c3-bac4-ceb2693a0fa8.json to prevent duplicated embedding.
复制代码
此功能使我们能够与文档进行交互式对话。
009.png AnythingLLM 的一个有趣功能是它能够显示构成其响应基础的内容。
010.png
总之,AnythingLLM 及其中的每个工作区都提供了一系列可配置参数。其中包括系统提示、响应温度、聊天记录、文档相似度阈值等,从而实现定制化、高效的用户体验。
011.png

012.png

3.4、安装和配置 Vector Admin
为了完成我们的架构,我们现在专注于安装 Vector Admin GUI,它是一个强大的工具,用于可视化和管理 AnythingLLM 在 Chroma 中存储的向量。
安装过程涉及利用 Mintplex Labs 提供的 Docker 容器:一个用于 Vector Admin 应用程序,另一个用于 PostgreSQL 数据库,该数据库存储应用程序的配置和聊天历史记录。
  1. git clone https://github.com/Mintplex-Labs/vector-admin.git
  2. cd vector-admin/docker/
  3. cp .env.example .env
复制代码
我们修改 .env 文件,将服务器端口从 3001 调整为 3002,避免与 AnythingLLM 已使用的端口发生冲突。在Linux系统上,还需要为PostgreSQL连接字符串设置默认的Docker网关IP地址。
  1. SERVER_PORT=3002
  2. DATABASE_CONNECTION_STRING="postgresql://vectoradmin:password@127.0.0.1:5433/vdbms"
复制代码
此外,我们配置 SYS_EMAIL 和 SYS_PASSWORD 变量来定义第一个 GUI 连接的凭据。
鉴于默认端口的更改,我们还在 docker-compose.yaml 和 Dockerfile 中反映了此修改。
配置完后端之后,我们将注意力转向前端安装。
  1. cd ../frontend/
  2. cp .env.example .env.production
复制代码
在 .env.production 文件中,我们更新端口以与 Docker 网关保持一致。
  1. GENERATE_SOURCEMAP=false
  2. VITE_API_BASE="http://127.0.0.1:3002/api"
复制代码
完成这些设置后,我们构建并启动 Docker 容器。
  1. docker compose up -d --build vector-admin
复制代码
通过 http://localhost:3002 访问 GUI 非常简单。初始连接使用 .env 文件中指定的 SYS_EMAIL 和 SYS_PASSWORD 值。仅在首次登录时需要这些凭据,以从 GUI 创建主管理员用户并开始配置该工具。
GUI 中的第一步是创建组织,然后建立向量数据库连接。对于数据库类型,我们选择 Chroma,尽管 Pinecone、QDrant 和 Weaviate 也是兼容的选项。
013.png
同步工作区数据后,存储在 Chroma 内“playground”集合中的文档和向量变得可见。
014.png
这些载体的详细信息也可用于深入分析。
015.png
关于功能的说明:直接通过 Vector Admin 编辑向量内容目前受到限制,因为它利用 OpenAI 的嵌入模型。由于我们选择了 s-BERT MiniLM,因此此功能不可用。如果我们选择 OpenAI 的模型,上传新文档并将向量直接嵌入到 Chroma 中是可能的。
Vector Admin 还拥有其他功能,如用户管理和高级工具,包括相似性搜索中的自动偏差检测、即将推出的快照以及组织之间的迁移功能(以及扩展后的 vectostores)。
该工具特别令人钦佩的是它能够完全控制载体,从而大大简化其管理。
四、总结
至此,我们对Mintplex Labs的AnythingLLM和Vector Admin进行了全面探索。这些工具简化了RAG模式的设置流程,并使得与文档的对话交互成为可能。随着这些项目不断进化,新功能也在不断推出。因此,关注他们的更新并开始使用这些工具来交互式处理您的文件将是一个明智的选择。
五、References
[2]. LocalAI Docs: https://localai.io/
[3]. VectorAdmin: https://vectoradmin.com/
[4]. AnythingLLM: https://useanything.com/


扫码关注微信公众号,及时获取最新资源信息!下载附件优惠VIP会员5折;永久VIP免费
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

免责声明:
1、本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与商业和非法行为,请在24小时之内自行删除!
2、本站所有内容均由互联网收集整理、网友上传,并且以计算机技术研究交流为目的,仅供大家参考、学习,请勿任何商业目的与商业用途。
3、若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。
4、论坛的所有内容都不保证其准确性,完整性,有效性。阅读本站内容因误导等因素而造成的损失本站不承担连带责任。
5、用户使用本网站必须遵守适用的法律法规,对于用户违法使用本站非法运营而引起的一切责任,由用户自行承担
6、本站所有资源来自互联网转载,版权归原著所有,用户访问和使用本站的条件是必须接受本站“免责声明”,如果不遵守,请勿访问或使用本网站
7、本站使用者因为违反本声明的规定而触犯中华人民共和国法律的,一切后果自己负责,本站不承担任何责任。
8、凡以任何方式登陆本网站或直接、间接使用本网站资料者,视为自愿接受本网站声明的约束。
9、本站以《2013 中华人民共和国计算机软件保护条例》第二章 “软件著作权” 第十七条为原则:为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。若有学员需要商用本站资源,请务必联系版权方购买正版授权!
10、本网站如无意中侵犯了某个企业或个人的知识产权,请来信【站长信箱312337667@qq.com】告之,本站将立即删除。
郑重声明:
本站所有资源仅供用户本地电脑学习源代码的内含设计思想和原理,禁止任何其他用途!
本站所有资源、教程来自互联网转载,仅供学习交流,不得商业运营资源,不确保资源完整性,图片和资源仅供参考,不提供任何技术服务。
本站资源仅供本地编辑研究学习参考,禁止未经资源商正版授权参与任何商业行为,违法行为!如需商业请购买各资源商正版授权
本站仅收集资源,提供用户自学研究使用,本站不存在私自接受协助用户架设游戏或资源,非法运营资源行为。
 
在线客服
点击这里给我发消息 点击这里给我发消息 点击这里给我发消息
售前咨询热线
312337667

微信扫一扫,私享最新原创实用干货

QQ|免责声明|依星源码资源网 ( 鲁ICP备2021043233号-3 )|网站地图

GMT+8, 2024-5-14 17:06

Powered by Net188.com X3.4

邮箱:312337667@qq.com 客服QQ:312337667(工作时间:9:00~21:00)

快速回复 返回顶部 返回列表