每个拥有 LLM 学位的开发人员最终都会面临同样的问题 —
“如何管理聊天内存、矢量搜索和实时对话,而不需要每次都重新设计后端?”
这正是启发Vezlo 第二阶段的原因——推出Vezlo AI 助手服务器,这是一个开源的、可立即投入生产的 AI 后端,专为希望快速行动而不破坏现状的开发人员构建。
🧩 什么是 Vezlo AI 助手服务器? Vezlo AI 助手服务器是一个全栈后端框架,可帮助您构建、运行和扩展自己的 AI 助手 - 由 Node.js、TypeScript 和 Supabase 提供支持。
它为您提供了一个即插即用的服务器来处理:
💬使用 WebSockets (Socket.io) 进行实时聊天 🔍使用 pgvector 和 Supabase 进行 语义搜索 🧠持久对话记忆 ⚙️ REST API + WebSocket 端点 🐳 Docker 支持生产环境 ☁️一键部署到 Vercel 简而言之 — — 它是盒子里的 AI 后端,没有外部依赖或锁定。
⚙️ 为什么开发人员喜欢它 如果你曾经尝试过手动构建人工智能助手,你就会知道其中的痛苦:
设置嵌入+向量搜索 编写聊天记忆逻辑 有效管理 OpenAI 调用 处理 API 速率限制 部署可扩展的基础设施 Vezlo 开箱即用地解决了所有这些问题。您只需安装、配置密钥,即可在本地或 Vercel 上运行一个可用的助手服务器。
npx vezlo-setup 确实如此。
🧱 主要功能(专为开发人员打造) 特征 描述 🧠人工智能大脑 连接任何 LLM(OpenAI、Anthropic、Gemini 等) 🔍矢量搜索 Supabase + pgvector 集成用于语义搜索 💬实时聊天 WebSocket 支持的助理对话 ⚙️ REST + WebSocket API 易于集成到任何前端(React、Next.js、Vue) 🗄️对话记忆 自动存储用户会话和聊天记录 ☁️一键部署 在 Vercel 上部署或在生产中使用 Docker 🔐 TypeScript 支持 完全类型化,提供可预测、安全的开发者体验 🧰 技术栈底层 Vezlo AI 助手服务器采用现代开发人员工具构建:
Node.js + TypeScript — 核心后端 Supabase + pgvector — 向量嵌入和语义搜索 Socket.io — 实时消息流 OpenAI SDK — 默认 LLM 集成 Vercel + Docker — 部署和扩展 这种设置意味着您可以从小规模(本地)开始并无缝扩展到生产。
🧠 工作原理(简化流程) 用户发送消息→/chat端点 Vezlo 服务器从 Supabase 检索过去的记忆 + 相关上下文 LLM API 调用(默认为 OpenAI) 通过 WebSocket 生成并传回 响应 对话和嵌入会自动存储 您可以获得持久性、记忆性和语义理解——所有这些都无需编写自定义逻辑。
🧪 示例设置 以下是如何在几分钟内启动您自己的 AI 后端:
1. Install globally
npm install -g @vezlo/assistant-server
2. Initialize project
npx vezlo-setup
3. Add your OpenAI + Supabase keys
4. Start server
npm run dev 您已准备好立即与您的助手聊天。
🌐 一键部署 Vezlo 支持即时部署到 Vercel。 或者,为了进行生产级控制,可以使用 Docker 运行它:
docker compose up 这就是托管您自己的开源 AI 后端所需要的全部内容——无需专有 API,无需供应商锁定。
💡 我们为什么建造这个 Vezlo的第一阶段帮助开发人员将源代码转化为知识库。
但开发人员想要的不仅仅是文档或嵌入,而是一个能够聊天、搜索和记忆的完整后端。
因此,我们构建了第二阶段:AI 助手服务器,使开发人员能够:
🤝 将 AI 助手直接集成到 SaaS 应用程序中 🧑💻 为工程团队构建定制副驾驶 ⚙️ 比以往更快地构建 AI 工作流程原型 ⚡ 下一步是什么 这仅仅是个开始。即将推出的更新包括:
🔗 Pinecone、Qdrant和Chroma的矢量适配器 🧠 内置代理工作流程 💬 用于聊天 + 嵌入仪表板的 UI SDK ☁️ 在Render、Fly.io和AWS上进行自托管设置 作者www.lglngy.com