效果评估:如何判断一个祝福 AI 是否“走心”

16 阅读7分钟

这是一个“没有标准答案”的评估问题

在大模型项目里,评估往往被认为是一个“技术收尾”的环节:

  • 跑几个指标

  • 对比一下 loss

  • 看看示例输出

 

但一旦你进入创意生成类任务,比如春节祝福、文案创作、风格写作,这套方法几乎立刻失效。

 

因为你会发现:

  • loss 在降,但输出没变好

  • BLEU 在升,但读起来更像模板

  • 指标很好,但用户说“没感觉”

 

于是问题变成了:

 

**“走心”这种东西,

到底能不能被评估?

如果能,该怎么评?**

 

「码上拜年」这个祝福 AI 的案例,恰好提供了一个非常真实、也非常典型的评估样本。

 

一、先承认现实:创意生成不存在“客观最优解”

在进入方法之前,必须先把一个前提说清楚:

 

**春节祝福这种任务,

不存在唯一正确答案。**

 

这意味着几件事:

  • 不存在“标准参考文本”

  • 不存在“绝对错误”的输出

  • 很多输出在语法和逻辑上都没问题,但情感效果差异巨大

 

所以如果你还在问:

 

“我们能不能用一个分数,判断祝福好不好?”

 

那答案是:几乎不可能。

 

评估的目标,必须从“是否正确”,转向:

 

是否符合我们期待的表达方式。

 

这也决定了后面的评估,一定是主观为主,但不能随意

 

二、为什么传统指标在祝福场景里几乎没用

我们先快速把常见指标“判死刑”,不是因为它们没价值,而是因为用错了地方

 

1. loss:只能告诉你“模型更像训练数据了”

在祝福微调中,loss 的下降通常意味着:

  • 模型更擅长复现训练语料的风格

  • 对模板化表达更熟练

 

但它无法告诉你

  • 表达是否自然

  • 是否过于用力

  • 是否真的贴合关系

 

在「码上拜年」的实验中,你会看到一个很典型的现象:

 

loss 下降很平滑,

但“人味”的提升,

是跳跃式、主观感知很强的。

 

这说明 loss 在这里最多只能作为训练稳定性的参考

 

2. BLEU / ROUGE:奖励“像”,而不是“合适”

BLEU、ROUGE 本质上是在做一件事:

 

奖励和参考文本“像”的程度。

 

但在祝福这种任务里:

  • 两句都很走心的祝福,可能完全不共享 n-gram

  • 一句很模板的祝福,反而和训练语料高度相似

 

所以你会遇到一个非常尴尬的情况:

 

越模板,分数越高;

越自然,反而分数下降。

 

这不是指标的问题,而是任务不适配。

 

三、那我们到底在评估什么?

在创意生成类任务中,评估的目标,必须被重新定义。

 

在「码上拜年」这个案例中,一个“走心”的祝福,至少要满足三类条件:

  • 没有事实错误

  • 风格和关系是对的

  • 读起来像“人说的”,而不是“模型写的”

 

这三点,构成了后续评估维度的基础。

 

四、维度一:事实准确性(最低门槛,而不是亮点)

事实准确性在祝福任务中,并不是最重要的,但是最低门槛

 

它主要检查的是:

  • 是否捏造不存在的经历

  • 是否错误理解用户提供的关系

  • 是否把“客户”写成“朋友”

  • 是否胡乱添加敏感或不合适的信息

 

在 Before / After 对比中,这个维度往往不是区分度最大的,但一旦出错,体验直接归零

 

五、维度二:风格契合度(微调最容易体现价值的地方)

这是微调前后差异最明显、也最稳定的一个维度。

 

微调前常见问题

在未微调的通用模型中,祝福语常出现:

  • 不管选什么风格,最后都变得“正式”

  • 科技梗用得很生硬

  • 商务祝福过于像公告

 

微调后变化

在「码上拜年」的 After 输出中,可以明显看到:

  • 不同风格之间边界更清晰

  • 轻松自然风不再“假装活泼”

  • 科技风的梗更贴近真实技术语境

 

这类变化,很难用指标描述,但人一眼就能看出来

 

31.png  

六、维度三:表达自然度(最“玄”,但最重要)

表达自然度,是最难定义、但用户最敏感的维度。

 

它通常体现在:

  • 是否有明显的套话痕迹

  • 句子长度是否自然

  • 是否像真实聊天,而不是作文

  • 情绪起伏是否合理

 

一个非常典型的评估方法是:

 

你愿不愿意不改一个字,直接发给对方?

 

在微调前,很多输出需要“人工润色”;

而在微调后,很多输出已经可以直接用

 

这正是“走心”的关键体现。

 

七、Before / After:用具体样例说话

以「码上拜年」中的一类场景为例(简化描述):

  • 关系:多年同事

  • 场合:微信拜年

  • 风格:轻松自然

 

Before(通用模型)

“值此新春佳节之际,祝你新的一年身体健康、工作顺利、万事如意。”

 

问题不在对错,而在于:

  • 谁都可以用

  • 谁用都一样

  • 完全感受不到“你们的关系”

 

After(微调模型)

“又一年了,想起去年一起熬夜改方案的那些天,真是又累又好笑。新的一年,祝你继续状态在线,少加班多快乐,项目顺顺利利!”

 

差异并不在“写得更漂亮”,而在于:

  • 具体

  • 克制

  • 像真实的人在说话

 

这正是评估要捕捉的东西。

 

八、如何把“主观评估”变得不那么随意

很多人一听“主观评估”就会担心:

 

“那不就很随意吗?”

 

其实不然。

 

在工程实践中,主观评估是可以被结构化的。

 

在祝福 AI 的评估中,一个可行的方法是:

  • 固定一组输入场景

  • 对比 base model 与微调模型

  • 针对以下维度打分或打标签:

  - 风格是否匹配

  - 是否自然

  - 是否具体

  - 是否愿意直接发送

 

哪怕不做数值平均,这种结构化评估也能稳定反映趋势。

 

九、为什么“用户感受”才是最终评估标准

在「码上拜年」这个项目中,有一句总结非常重要:

 

**祝福这件事,本质上不是“写得多好”,

而是“有没有被感受到在用心”。**

 

这意味着:

  • 评估的终点不是模型

  • 而是人

 

一个祝福 AI 是否成功,不取决于它写了多少漂亮句子,而取决于:

  • 用户是否愿意用

  • 是否愿意反复用

  • 是否愿意把结果直接发出去

 

这些行为信号,往往比任何指标都真实。

 

在像「码上拜年」这样的创意生成任务中,效果评估往往比训练本身更难。用LLaMA-Factory Online进行微调前后的输出对照,更容易从风格一致性、自然度等维度判断:模型究竟是“更像数据”,还是“更像人”。

 

总结:评估创意生成,评的不是模型,而是“人是否愿意用”

用一句话收尾这篇文章:

 

**在创意生成类任务里,

最好的评估指标,

往往不是分数,

而是你愿不愿意相信这段话。**

 

春节祝福 AI 这个案例,清楚地展示了一点:

  • 微调是否成功

  • 不在于模型变了多少

  • 而在于输出是否开始承担“情绪责任”

 

当你开始用这样的标准去看模型效果,很多技术选择,反而会变得清晰起来。