Kotaemon:RAG 技术赋能,多语言模型问答系统,高效文档检索

443 阅读3分钟

❤️ 如果你也关注大模型与 AI 的发展现状,且对大模型应用开发非常感兴趣,我会快速跟你分享最新的感兴趣的 AI 应用和热点信息,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

微信公众号|搜一搜:蚝油菜花

preview-graph.png

🚀 快速阅读

  1. Kotaemon 是一款基于 RAG 技术的开源工具,支持用户通过自然语言与文档进行互动,快速检索和理解信息。
  2. Kotaemon 支持多种语言模型,包括 OpenAI、Azure OpenAI、Cohere 等,并提供简单的安装脚本。
  3. Kotaemon 支持多用户协作、文档管理、复杂推理方法,支持用户自定义 UI 元素。

正文(附运行示例)

Kotaemon 是什么

Kotaemon 是一个基于 RAG(检索增强生成)技术的开源工具。它能让用户通过自然语言与文档互动,快速找到和理解信息。这个工具特别适合需要处理大量文档的场景,比如学术研究、企业文档管理和知识管理。它的用户界面简单易用,支持多种语言模型,比如 OpenAI、Azure OpenAI 和 Cohere,还提供了简单的安装脚本。Kotaemon 还支持多用户协作、文档管理以及复杂的推理方法,用户还可以自定义界面元素。

Kotaemon 的主要功能

  • 基于 RAG 的问答系统:利用检索增强生成技术,从文档中找到相关信息,生成准确的回答。
  • 多语言模型支持:支持多种语言模型 API,比如 OpenAI、Azure OpenAI、Cohere,也支持本地语言模型。
  • 简单安装脚本:提供容易执行的安装脚本,让安装过程更简单。
  • 文档管理:支持多用户登录,用户可以在私人或公共收藏中组织文件,方便协作和分享。
  • 混合 RAG 管道:结合全文和矢量检索器,通过重新排名确保最佳的检索质量。
  • 多模式问答支持:能处理图表和表格等多模式内容,支持多模式文档解析。
  • 可扩展性:基于 Gradio 构建,用户可以自定义或添加任何 UI 元素,支持多种文档索引和检索策略。

如何运行 Kotaemon

使用 Docker 运行 Kotaemon

  1. 拉取 Docker 镜像
docker pull ghcr.io/cinnamon/kotaemon:main-lite

或者使用完整版:

docker pull ghcr.io/cinnamon/kotaemon:main-full
  1. 运行 Docker 容器
docker run \
-e GRADIO_SERVER_NAME=0.0.0.0 \
-e GRADIO_SERVER_PORT=7860 \
-p 7860:7860 -it --rm \
ghcr.io/cinnamon/kotaemon:main-lite

或者使用完整版:

docker run \
-e GRADIO_SERVER_NAME=0.0.0.0 \
-e GRADIO_SERVER_PORT=7860 \
-p 7860:7860 -it --rm \
ghcr.io/cinnamon/kotaemon:main-full
  1. 访问 Web 界面: 在浏览器中访问http://localhost:7860/,开始使用 Kotaemon。

不使用 Docker 运行 Kotaemon

  1. 克隆仓库
git clone https://github.com/Cinnamon/kotaemon
cd kotaemon
  1. 安装依赖
pip install -e "libs/kotaemon[all]"
pip install -e "libs/ktem"
  1. 配置环境变量

创建一个.env文件,使用.env.example作为模板,并填写必要的 API 密钥和其他配置。

  1. 启动 Web 服务器
python app.py

应用程序将自动在浏览器中打开。

  1. 使用 Kotaemon

在 Web 界面上传文档,开始提问并获取答案。

资源


❤️ 如果你也关注大模型与 AI 的发展现状,且对大模型应用开发非常感兴趣,我会快速跟你分享最新的感兴趣的 AI 应用和热点信息,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

微信公众号|搜一搜:蚝油菜花