做了一年 AI 写作工具后,我终于明白为什么"一键生成长篇小说"是个伪命题。
先说结论
AI 写小说最大的难题不是"写不好",而是"记不住"。
一个真实的翻车现场
上个月我用某 AI 工具写了一部修仙小说的前三章:
- 第一章:主角叫张三,筑基期,师傅是青云宗长老
- 第二章:主角叫张三,金丹期(?),师傅变成了玄天宗掌门
- 第三章:主角叫李四(???),还俗下山了
AI 不是写不出华丽的文字,而是它压根不知道自己上一章写了什么。
技术上,这叫"上下文窗口"问题
目前主流大模型的 context window:
| 模型 | 上下文窗口 | 约等于字数 |
|---|---|---|
| GPT-4 | 128K tokens | ~6万字 |
| Claude | 200K tokens | ~10万字 |
| Gemini | 1M tokens | ~50万字 |
看起来很多?一部网文轻松 100-300 万字。
就算是 Gemini 的 100 万 tokens,塞进去的不只是正文,还有:
- 人物设定表
- 世界观设定
- 大纲和细纲
- 前情提要
- 写作风格样本
实际可用的"记忆空间"大打折扣。
更致命的问题:一致性崩塌
长篇小说有三个一致性要求:
1. 人物一致性
第10章:女主性格冷艳高贵
第50章:女主突然变成傻白甜
第100章:女主人设量子叠加态
2. 逻辑一致性
前文:主角被废了灵根
后文:主角突然施展了高阶法术
(作者:我觉得可以圆回来.jpg)
3. 风格一致性
第1卷:文笔细腻,节奏舒缓
第3卷:突然变成爽文风格
第5卷:开始混入各种流行梗
AI 每次生成都是"独立同分布"的,它不会自动维护这些约束。
现有方案的困境
方案一:塞更多上下文
把所有前文都塞进 prompt,成本爆炸:
- 100万字小说,每生成一章都要处理全部前文
- API 成本直接起飞
- 延迟高到用户想砸电脑
方案二:RAG 检索
用向量数据库存储前文,按需检索相关片段:
- 检索不一定准确
- 容易丢失细节
- "相关"不等于"必要"
方案三:总结压缩
定期总结前文,用摘要代替原文:
- 信息损失严重
- 细节和伏笔容易丢失
- 越往后写,累积误差越大
我的思考:状态化 vs 无状态
传统 AI 工具是无状态的——每次对话都是全新开始。
但小说创作本质上是有状态的——需要持续积累的记忆。
这让我想到一个类比:
| 无状态工具 | 有状态伙伴 |
|---|---|
| 代写枪手 | 专属编辑 |
| 每次重新了解需求 | 熟悉你的风格和偏好 |
| 交付即结束 | 关系持续积累 |
可能的解法
我目前在探索的方向:
1. 分层记忆系统
长期记忆:世界观、人物核心设定
中期记忆:当前卷的剧情线
短期记忆:当前章节上下文
2. 主动遗忘机制
不是什么都要记住,而是智能判断:
- 这个伏笔重要吗?
- 这个人物还会出现吗?
- 这段描写影响后续吗?
3. 结构化知识图谱
把小说世界建模成知识图谱:
- 人物关系网络
- 时间线
- 因果链
生成时做实时校验。
写在最后
AI 全自动写小说,现阶段确实是个难题。
但这不妨碍我们用 AI 辅助写小说——让它做扩写、润色、生成对话,人类把控整体方向和一致性。
完全交给 AI?或许还需要等下一代模型架构的突破。
作者正在做一个叫 StoryAlter 的 AI 写作工具,欢迎交流。
如果这篇文章对你有帮助,点个赞?