我做了个“会聊天的博客”,用 RAG 把知识库玩明白了(开源)

58 阅读2分钟

❗我发现一个很离谱的事情

我们技术人一直在做一件“低效”的事:

  • 写博客
  • 发文章
  • 等别人来看

但现实是👇

👉 大部分内容 没人搜、没人看、也没人用


于是我换了个思路:

❓如果用户不想“找文章”,
👉 那就让博客“直接回答问题”

所以我做了这个项目👇


🤖 一个“会聊天的博客”

👉 在线体验(可以直接问我问题):
http://47.97.186.200:3000/

👉 开源地址:
github.com/rht-fsang/a…

你可以直接理解为:

🧠 你的博客 = 一个AI助手

用户不需要翻文章,只需要:

👉 直接问

比如:

  • “你这个项目怎么实现RAG?”
  • “Next.js 怎么接入向量数据库?”
  • “这个技术方案的核心难点是什么?”

AI 会基于你的内容回答,而不是乱编。


⚡这个东西到底解决了什么?

一句话:

把“内容” → 变成“服务”

以前:

  • 用户:找文章 → 点进去 → 自己读
  • 成本:高

现在:

  • 用户:直接问
  • AI:直接给答案

👉 体验是完全不一样的


🧩 技术上我做了什么?

核心其实就是一套完整的 RAG:

1️⃣ 文档 → 向量

  • PDF / Markdown 自动解析
  • 切分文本
  • embedding(qwen3)

2️⃣ 向量检索(重点)

  • PostgreSQL + pgvector
  • 根据“语义相似度”找内容

👉 不是关键词匹配,而是“理解意思”


3️⃣ AI生成回答

  • 把检索到的内容喂给大模型(GLM-4)
  • 生成最终答案

整个流程就是:

用户提问
 → embedding
 → pgvector检索
 → 拼上下文
 → LLM生成答案

🚀 技术栈(比较干净的一套)

  • Next.js 14(前后端一体)
  • PostgreSQL + pgvector
  • Drizzle ORM
  • GLM-4-flash(回答)
  • qwen embedding(向量)

👉 没有搞复杂架构,但该有的全有


🧠 做完之后,我有3个认知

1️⃣ 博客正在“失效”

未来不是:

搜文章 → 看内容

而是:

直接问 → 得答案


2️⃣ 每个技术人都该有AI分身

这个真的很关键:

  • 帮你回答问题
  • 用你的知识说话
  • 24小时在线

👉 本质是:放大你自己


3️⃣ RAG 是 AI 应用的基本盘

如果你在做 AI:

  • 不会 RAG,基本等于没入门
  • 会 RAG,可以做一大半应用

🛠 想自己搞一个?

很简单,几步就能跑:

git clone https://github.com/rht-fsang/ai-blog-public
pnpm install
cp .env.example .env.local
docker-compose up -d
pnpm dev

填好:

  • API Key
  • 数据库

直接起飞。


⭐ 最后(很重要)

如果你觉得这个思路对你有启发:

👉 可以去点个 Star 支持一下:
github.com/rht-fsang/a…

👉 或者直接体验一下我的“AI博客”:
http://47.97.186.200:3000/


💡 一句话总结

未来不是“写博客的人更厉害”
而是“让内容能被问的人更厉害”