获得徽章 0
- 一句话Prompt收集
有没有哪句话是每次调整prompt的时候,你一定要加进去的?
我先来,AI 写作加这句话,有奇效:
不要比喻、不要双引号,逻辑层层递进,不断有阅读钩子吸引读者读下去。注意语言保持干练,能用一句话说清楚的,不用两句话;但要确保讲清楚、逻辑通畅。控制在1000字以内。
再分享一个压箱底的好 prompt 每次写新东西都会加到提示词里:
---
我准备写一篇关于【xx 主题】的文章,现在需要你到推特 x、Reddit 、YouTube 等论坛查找大家在【xx 主题】的遇到的最大的痛点、难点是什么? 【或者找不同的观点】列 30 个 每个都要有原链接地址确保真实
---
指定渠道可以确保找到的内容非常具有观点性,而不是千篇一律的文章。再加上要求原地址链接,确保内容真实可靠。
跟 ChatGPT 5.1 thinking 搭配效果最佳
再分享一个自己写作一定会用的 「审稿员」提示:
```
不要对我谄媚、不要迎合我的观点、要站在超越我的外部视角来审视。需要你对我的内容进行审稿,每篇内容都要反思几个点:
1. 活人感:是否有自己的思考过程
2. 故事感: 节奏上有没有起伏,一开始怎么样 结果出了问题 赶紧换方案
3. 共鸣:写的东西读者是不是也经历过同样的痛苦、困境?
4.人设: 始终围绕着 AI 创业者【你自己的人设】的身份来写
5. 干货:读者是否有获得感?信息增益?
6. 好玩: case 是否好玩?这是流量基础
7. 受众是谁?是否广
8. 对话感:好内容语气应该是跟读者对话 让读者忍不住在评论区里回复
对以下内容进行审稿:【写好的初稿】
“”展开评论2 - 为什么知识库配置明明一样,但不同平台的效果却完全不同?
昨晚给一家企业做咨询,讨论到他们内部流程的知识库目前检索效果不佳。我看他们在用的是一个私有部署的工作流平台,顺口问了一句:“这块有没有试过专门的 FastGPT 或 RAGFlow?”
对方很疑惑:“没有。我们这个平台现在的知识库功能挺全的,切片、向量化、混合检索都有。底层的原理不都是 RAG 吗?换个平台效果能有多大差别?”
这其实是很多B端落地的误区:以为 RAG(检索增强生成)是一个标准化的功能模块,只要有了“上传 + 切片 + 搜索”这三板斧,效果就应该是一样的。
其实不然。这里的核心差异在于「知识库工程化」的深度。即使你上传同样的文件、配置同样的切片大小(Chunk Size)、使用同样的 Embedding 模型,不同平台跑出来的检索命中率可能天差地别。
1、很多人被平台配置的UI 骗了。
通用的 RAG 流程确实大同小异:文档解析、切片、向量化、存储、检索、生成。在 UI 界面上,你看到的配置项也无非是“切片长度 512,TopK 5”。
但这两个看似相同的数字背后,执行的代码逻辑可能完全不同。决定检索质量的,往往是那些配置界面上看不到的隐形工程。
2、差异的第一步发生在「文档解析」(Parsing)阶段:是读文字,还是理解排版?
很多通用平台使用开源的基础库(如 LangChain 的默认 Loader)来读取 PDF。如果你的文档是双栏排版,普通解析器只会傻傻地按行读取,结果就是把左栏的半句话和右栏的半句话拼在一起,造成语义错乱。这种数据一旦进入数据库,检索效果必然崩塌。
而在RAGFlow 这类平台中,它引入了 DeepDoc 视觉模型。它像人眼一样先看文档的布局,识别出哪里是标题、哪里是表格、哪里是跨页段落。比如处理一张复杂的财务报表,普通平台提取出来的是一堆乱码字符,而 RAGFlow 能保留表格结构。解析精度的差异,避免了Garbage in, Garbage out的问题。展开17