❤️ 如果你也关注大模型与 AI 的发展现状,且对大模型应用开发非常感兴趣,我会快速跟你分享最新的感兴趣的 AI 应用和热点信息,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
微信公众号|搜一搜:蚝油菜花
🚀 快速阅读
- Kotaemon 是一款基于 RAG 技术的开源工具,支持用户通过自然语言与文档进行互动,快速检索和理解信息。
- Kotaemon 支持多种语言模型,包括 OpenAI、Azure OpenAI、Cohere 等,并提供简单的安装脚本。
- Kotaemon 支持多用户协作、文档管理、复杂推理方法,支持用户自定义 UI 元素。
正文(附运行示例)
Kotaemon 是什么
Kotaemon 是一个基于 RAG(检索增强生成)技术的开源工具。它能让用户通过自然语言与文档互动,快速找到和理解信息。这个工具特别适合需要处理大量文档的场景,比如学术研究、企业文档管理和知识管理。它的用户界面简单易用,支持多种语言模型,比如 OpenAI、Azure OpenAI 和 Cohere,还提供了简单的安装脚本。Kotaemon 还支持多用户协作、文档管理以及复杂的推理方法,用户还可以自定义界面元素。
Kotaemon 的主要功能
- 基于 RAG 的问答系统:利用检索增强生成技术,从文档中找到相关信息,生成准确的回答。
- 多语言模型支持:支持多种语言模型 API,比如 OpenAI、Azure OpenAI、Cohere,也支持本地语言模型。
- 简单安装脚本:提供容易执行的安装脚本,让安装过程更简单。
- 文档管理:支持多用户登录,用户可以在私人或公共收藏中组织文件,方便协作和分享。
- 混合 RAG 管道:结合全文和矢量检索器,通过重新排名确保最佳的检索质量。
- 多模式问答支持:能处理图表和表格等多模式内容,支持多模式文档解析。
- 可扩展性:基于 Gradio 构建,用户可以自定义或添加任何 UI 元素,支持多种文档索引和检索策略。
如何运行 Kotaemon
使用 Docker 运行 Kotaemon
- 拉取 Docker 镜像:
docker pull ghcr.io/cinnamon/kotaemon:main-lite
或者使用完整版:
docker pull ghcr.io/cinnamon/kotaemon:main-full
- 运行 Docker 容器:
docker run \
-e GRADIO_SERVER_NAME=0.0.0.0 \
-e GRADIO_SERVER_PORT=7860 \
-p 7860:7860 -it --rm \
ghcr.io/cinnamon/kotaemon:main-lite
或者使用完整版:
docker run \
-e GRADIO_SERVER_NAME=0.0.0.0 \
-e GRADIO_SERVER_PORT=7860 \
-p 7860:7860 -it --rm \
ghcr.io/cinnamon/kotaemon:main-full
- 访问 Web 界面:
在浏览器中访问
http://localhost:7860/,开始使用 Kotaemon。
不使用 Docker 运行 Kotaemon
- 克隆仓库:
git clone https://github.com/Cinnamon/kotaemon
cd kotaemon
- 安装依赖:
pip install -e "libs/kotaemon[all]"
pip install -e "libs/ktem"
- 配置环境变量:
创建一个.env文件,使用.env.example作为模板,并填写必要的 API 密钥和其他配置。
- 启动 Web 服务器:
python app.py
应用程序将自动在浏览器中打开。
- 使用 Kotaemon:
在 Web 界面上传文档,开始提问并获取答案。
资源
- GitHub 仓库:github.com/DefamationS…
❤️ 如果你也关注大模型与 AI 的发展现状,且对大模型应用开发非常感兴趣,我会快速跟你分享最新的感兴趣的 AI 应用和热点信息,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
微信公众号|搜一搜:蚝油菜花