背景:一个工程师的内容自动化实验
我在做一个实验:用 AI + 自动化工具(OpenClaw + Claude)跑一套自媒体内容生产流水线。
目标是让 AI 负责选题、写稿、批量生成多平台版本,人工只负责审核和最终定稿。
第一周,Claude 给我生成了 7 篇小红书原稿。审完之后,我把整个过程记录下来——不是为了说 AI 多厉害,而是为了搞清楚:AI 写作到底会在哪里出问题?
结论先说:AI 有固定的输出模式,这些模式在"看起来像内容"这件事上做得很好,但在"让真人觉得有意思"这件事上,还差一截。差在几个具体的地方。
问题一:emoji 小标题模板感
七篇稿子,七篇全部有 emoji 小标题结构。
AI 原稿(Day 1):
🔧我在折腾什么
一个上海的全栈工程师,最近在研究AI自动化运营...
💡为什么开这个账号
想记录整个过程,把工具和踩坑都分享出来...
📌这里会有什么
工具测评、流程拆解、翻车现场...
人工终稿:
这个账号本身就是个实验。
我是个上海的全栈工程师,最近在折腾一套 AI + 自动化的内容运营系统,选题、写稿、
发布全流程都交给工具,试图让自己只负责……嗯,盯着别出大错。
差距一眼就能看出来。前者像 PPT,后者像人说话。
emoji 小标题的问题不在于 emoji 本身,而在于它把一篇文章分割成几块独立的"功能区",丢失了叙述的连贯感。在小红书这种强调"滑动留存"的平台,每隔两行就出现一个小标题,会让人觉得这是模板填空,不是真人写的。
这个模式在 7 篇稿子里出现了 7 次。说明这是 Claude 写内容类文本的默认输出结构,不是偶发。
修复方式: 在 prompt 里明确禁止,并给出替代结构示例。
system:
你是一个小红书内容创作者。写作规则:
1. 禁止使用 emoji 做小标题(如"🔧我在折腾什么"这种格式)
2. 禁止开头自我介绍
3. 用短段落叙述,段落间自然过渡
4. 参考风格:[贴一篇你满意的文章]
问题二:惯用"嗨,我是XX"开头
这是 AI 写自我介绍类内容的高频起手式。
AI 原稿:
嗨,我是XX👋,一个折腾AI自动化的全栈工程师……
这种开头在小红书基本是减分项。平台用户刷到一条内容,前两秒决定停不停。"嗨,我是XX"这种自我介绍式开头,没有给读者任何停下来的理由。
人工终稿第一句:
这个账号本身就是个实验。
一句话,有悬念,有定性,留住了继续读的理由。
AI 不是不能写出这样的句子,但它在没有明确指令的情况下,会默认选择"最安全"的开头——自我介绍是社交场景中最常见的开场方式,AI 训练数据里大量存在,所以会默认套用。
修复方式: 在 prompt 里给定开头类型约束。
开头方向(三选一):
A. 直接给出反常识结论(让读者想知道为什么)
B. 直接进入具体场景(读者自然代入)
C. 抛出一个具体问题或冲突
禁止:自我介绍式开头。
问题三:编造数据
这是我认为最需要警惕的问题。
Day 3 稿子:
一个工程师的日常有多少时间在做重复的事?数据说大概是40%。
这个"40%"哪来的?不知道。AI 写的。我没有提供任何数据来源,它自己补了一个听起来合理的数字。
Day 5 稿子:
跑了三个多月,统计下来每周能省13.5小时……
问题:那篇稿子写于实验第一周,哪来的"三个多月"?而且"每周省13.5小时"这个数据从来没有被实际测量过,是 AI 根据工具描述推算出来的。
AI 编造数据的逻辑是:为了让内容显得有说服力,它会主动补充"缺失的证据"。这些数据往往有几个特征:
- 听起来精确但无法溯源("40%"、"13.5小时")
- 符合文章想传达的结论方向
- 不会太夸张,保持在可信区间内
这比明显的幻觉更危险,因为它不容易被发现。
我实际在用的修复方式: 在 Agent 的 SOUL.md 里写死一条规则——"事实/数据是否可验证,不确定的标注'待核实'",配合 learned-rules.md 里的规则:"不编造数据"。Agent 每次输出前会走 Reflect 阶段逐条自检。
但老实说,纯靠 Agent 自检还不够。真正靠谱的方案是人工审核时重点看数字:文章里每个百分比、每个时间段、每个统计数据,都要能追溯到具体来源。追溯不到的,删掉或者标注"待核实"。
问题四:踩坑描述缺乏细节
这是 AI 写"踩坑"类内容的通病。
AI 原稿(Day 6 踩坑帖):
坑1:API 调用不稳定,需要做好重试机制 坑2:上下文窗口有限制,长文档处理要分段 坑3:模型输出格式不稳定,需要做格式校验
这些坑没错,但任何人都能说。这是 AI 从训练数据里提炼出的"通用踩坑清单",不是从实际项目里踩出来的。
真实的坑长什么样:
公众号接口 IP 白名单没加。调用推送接口一直报
40164,错误信息是"invalid ip",但我一开始以为是 AppID 配置问题,对着文档查了二十分钟。最后发现就是服务器外网 IP 没加进微信后台的白名单。加完立刻通。
同样是"踩坑",后者有具体报错、有排查过程、有解决方案,读者能对号入座;前者是通用建议,谁都可以说,也就谁都不觉得有价值。
问题根源: AI 没有真实运行过这套系统,它只能描述"可能会出的问题",而不是"实际出了什么问题"。这个差距无法通过改 prompt 解决,只能靠人工补充真实细节。
问题五:时间线和事实一致性
Day 7 稿子(周总结)里:
下周预告:……
这篇稿子是 Day 1 批量生成的,在发布时间上是第一周末。"下周预告"是 AI 根据模板推断出来的——它不知道这段内容在实际写作时间轴上的位置。
类似的问题还有年份写错(Day 4 写成 2025 年版工具箱,实际是 2026 年)。
修复方式: 在 prompt 里明确注入上下文信息。
# 批量生成时的上下文注入
context = {
"current_date": "2026-03-12",
"experiment_start": "2026-03-12",
"days_elapsed": 0,
"posts_published": 0,
"series_position": "Day 1 of ongoing series"
}
prompt = f"""
当前上下文:
- 今天是实验的第1天
- 账号刚开坑,没有历史发布记录
- 不要预测或提及未来内容(下周预告等)
- 年份:2026年
基于以上背景生成内容:...
"""
问题六:标题中规中矩,缺冲突感
AI 给的标题方案通常没问题,但很少有那种让人眼睛一亮、必须点进去的感觉。
AI 给的 Day 1 标题选项:
- 用AI自动化运营自媒体,这是我的实验记录
- 工程师的AI内容运营实验
- 我在用AI帮我运营账号
人工改后(实际发布版):
这个账号是个实验品,随时可能翻车
差别在哪?AI 的标题是"描述这件事是什么",人工标题是"制造悬念和情绪"。"随时可能翻车"这五个字带来了不确定感,不确定感驱动点击。
总结:怎么用好 AI 做内容
用 AI 写内容不是"让它写,你发",而是建立一套发现问题→修复模式→迭代 prompt的循环。
| 问题类型 | AI 能自查吗 | 修复方式 |
|---|---|---|
| emoji 小标题 | ✅ 可以,给明确禁止规则 | prompt 约束 |
| 自我介绍式开头 | ✅ 可以,给示例 | prompt 约束 |
| 编造数据 | ⚠️ 部分,需要专门审计步骤 | pipeline 增加数据审核 |
| 踩坑缺细节 | ❌ 不能,没有真实运行记录 | 人工补充 |
| 时间线错误 | ✅ 可以,注入上下文 | prompt 注入 |
| 标题缺冲突感 | ⚠️ 有限,需给冲突感示例 | 人工迭代标题 |
AI 不是替代人工的,而是把"写出一个合格的基础稿"这件事自动化了。从合格到好,还需要人。
知道 AI 在哪里会出问题,比不知道要省时间得多。
我的自动化运营工具栈:Claude + OpenClaw + 自定义发布脚本 实验还在进行中,踩坑记录持续更新。