在快速迭代的数字化时代,许多企业还在为如何高效搭建并应用AI大模型而苦恼。 繁琐的技术流程、高昂的成本投入以及复杂的人员配置,常常让企业望而却步。
今天就和大家分享一款企业级开源知识库检索AI
先看下效果图:
搭建教程:
先拉取代码,然后 docker-comopse 启动,此处需要 科学上网
源码地址:
github.com/onyx-dot-ap…
进入docker部署目录:
cd onyx/deployment/docker_compose
docker-compose -f docker-compose.dev.yml -p onyx-stack up -d --pull always --force-recreate
启动后访问:
http://localhost
首次使用需要配置
1.配置LLM,这里使用ollama本地模型,也可以使用其他在线模型厂商,比如OpenAI。
API Base 如果在同一台机器上就填:
host.docker.internal:11434
不是本机则替换下面IP:
http://{IP}:11434
模型我使用的 glm4,大家可以是自行替换LLama3,qwen2.5,前提是ollama服务已经拉取模型
配置好后点击启用按钮,等待完成。\
进入聊天页面
http://localhost/chat
选择普通生成式聊天助手(红框里)就可以和AI聊天了。
当然我们看重的是它根据知识库聊天的功能
点击右上角,进入控制台
首先,来添加连接器,上传需要使用的知识库文档,它支持很多方式:
我这里使用文件File类型,随便上传一个,支持.txt .doc .pdf 等格式
然后我们在这里创建一个文档集,在里面选中需要关联的文档
接着来创建一个聊天助手:
创建完我们回到聊天页面:
选择刚刚创建的助手
已经可以愉快的问答了,如果检索到知识库文档的内容会引用出来,点击还可以查看文档内容。
当然如果还想定制更高的AI技术模型,这里推荐一款AI大模型定制系统,可以在短短3分钟内即可实现企业级AI的搭建与应用,轻松迈入智能化时代。
这是一个面向高级用户的创新平台——大模型定制系统,赋予用户自主创建与部署AI模型的能力。
用户可通过该系统进行模型参数的自由调节、个性化的文档上传与管理,从而生成专属于自己的大语言模型。 项目不仅仅提供了高度灵活的模型定制服务,还简化了部署流程,让用户的模型可以快速上线应用。
产品核心优势
我们的解决方案通过创新性地整合资源推荐与模型定制两大技术,为用户提供了全方位的AI应用体验:
1. 技术领先:采用业界最新的深度学习技术,确保推荐效果和模型性能始终保持领先。
2. 易于使用:简化了复杂的技术操作流程,让用户能够快速上手并实现价值。
3. 高度个性化:无论是内容推荐还是模型定制,都能完美契合用户的个性化需求。
4. 场景丰富:支持多样化的应用场景,满足不同行业、不同规模用户的多元化需求。
独立后台演示
ai-chat.oneredhealth.com/?appKey=885…
聊天演示:
知识库模型:\
虚拟人模型:
感兴趣的话可以去官网了解下哦~(studio.oneredhealth.com/)