最近我在持续推进对标 ChatGPT 的大语言模型的评测工作。
目前我已经测试了如下一些模型,测试结果具体得分情况如下所示:
-
题目出的较难,而且紧扣用户的真实使用目标。因此,模型的得分情况差距较为明显。
-
ChatGPT 和 GPT4:分别得分82分、86分,比上一篇文章当中的得分低一分,原因在于有一道客观题,上一篇文章判错答案了,在这一篇当中做了纠正(其它模型同理)。GPT 系列基本具备了模型作为用户“智能助手”这一职能。扣分点主要在于中文语用和语义的理解偏弱,存在少量编造事实、幻觉妄语(Hallucination)。
-
360-智脑:国内大语言模型表现目前最好的是 360 的智脑,得分68分,这个略超出我的预计,相比其它国内模型,优势主要体现在客观题回答准确率相对较高,问答类题型准确性较好,说明模型训练的文本数据分布较广,最值得一提的是模型对于编程题目的准确性较高,测试题中共3道程序题目,全部答对,没有出现明显的偏离和瞎答。
-
而百度的文心一言和 讯飞的星火大模型,得分仅为 59分和 55分,在为用户提供有效、客观信息上表现较弱,频繁出现各种信息错误,对于响应用户指令方面也存在一些问题。难以承担一个方便、有效的“智能助手”这一职能。
-
清华的 ChatGLM 模型采用的是 6B 参数版本,我根据开源项目文档将模型部署在本地做测试。总体看,效果是目前所有模型中最差的,仅得分45分。不论是在客观知识问答、还是主观题部分,尤其是翻译出现大量的中英文混杂(见本pdf版答题文档最后一页)。这其实说明一个小型模型很难有较高的智能,恰恰 OpenAI 的 GPT 系列论文中,反复叙述了大规模的模型才能实现较好的 zero-shot 能力。同样是 Transformer 模型结构,小模型很难具备 zero-shot 能力。因此,尽管很多人都在尝试 ChatGLM-6B 模型,但我认为,这是在资源受限情况下的一种无奈选择。
-
上述评测结果中,每一个模型的评测答题情况,大家均可以关注【JioNLP】伀眔呺,回复【LLM评测】获取相应的 pdf 答题文档。
LLM 评测数据集简介
- 在发布第一次测评后,有大量读者下载过评测 pdf 文档,向我咨询,究竟是什么样的数据集,难易程度如何,怎么获取?
- 数据集着眼点:考察 LLM 模型对人类用户的帮助效果、辅助能力,可否达到一个方便、可靠的【智能助手】的水平。
- 题型介绍:选择题来源于中国大陆国内各种专业性考试,日常生活常识,重点在于考察模型对客观知识的覆盖面,占比 52%;主观题主要考察用户对 LLM 常用功能的效果。详细情况如下:
题型 | 分值 | 形式 | 内容 | 来源 |
---|---|---|---|---|
知识问答 | 32 | 选择题 | 覆盖各领域知识题,考察模型预训练语料的丰富性、准确性 | 国内专业性考试 |
生活常识 | 10 | 选择题 | 覆盖衣食住行的生活常识,考察模型是否经常犯低级错误 | 日常生活总结 |
语言表达 | 5 | 选择题 | 考察模型的语言理解能力 | 国内通用考试 |
逻辑推理 | 5 | 选择题 | 考察模型的逻辑推理、分析能力 | 国内通用考试 |
文本问答 | 40 | 简单题 | 考察模型完成各种用户指令的能力 | 常用若干能力 |
机器翻译 | 8 | 翻译题 | 考察模型的语言能力,翻译能力 | 论文和新闻 |
评分规则:
- 客观选择题每题一分
- 主观题每道5分,
- 5分满分要求模型反馈答案正确,可使用,不需要或极少需要用户做人工调整和修改。
- 0分,答非所问,语言不通。
- 翻译题每道4分,
- 4分,要求翻译精准,特定词汇准确。
- 0分,无法阅读,词不达意。
样例
评测数据集情况说明
客观题
用户:请回答问题:xxxxxxxx,A,xxx;B,xxx;C,xxx;D,xxx
模型:答案选A,原因是xxxxxx。
- 覆盖数学、物理、化学、生物、计算机、通信、机械、电力、医学、法律、新闻、地理、历史、文学、经济、编程等方面常识性问题;难易程度不一,存在少量多选题;
- 若模型给出答案字母(A\B\C\D),但分析结果错误,仍然判定正确;
- 若模型未给出答案字母,但以文字形式给出正确结果,仍然判定正确;
- 个别选择题没有正确答案,或题干信息给的不完全,无从给出答案;此时要求模型能够正确辨别题目中的问题,不能给出任何选项答案。此做法考察模型的信息辨别能力,避免幻觉妄语 Hallucination 的能力。
- 客观题由于模型的输出以概率形式进行采样,具有不确定性。评测过程中,全程都仅做一次输出,不会反复测试以期模型输出正确结果为止。
主观题
- 主要覆盖写文章、写代码、写脚本、讲故事、完成用户知识咨询、特定主观问题咨询、考察模型输出陷入死循环,传统 NLP 任务等能力。
加载数据集
数据集完全公开,读者可以拿去自测。jionlp 工具包提供了评测试题数据集,python 语言,使用方式如下:
$ pip install jionlp
>>> import jionlp as jio
>>> llm_test = jio.llm_test_dataset_loader()
>>> print(llm_test[15])
规划和请求
- 有一些模型,如通义千问、Bard等,需要提供邀请码才可测试,欢迎大家提供邀请码,或直接使用测试题进行测试,向我反馈结果。
- 该测试集将持续跟踪国内其它厂商的大模型效果评测。
- 测试集题目将会逐步更新,更新目标主要包括:
- 考虑到 Prompt 工程与垂直领域问答,将加大闭域问答题型的分值比例。
- 用户使用大语言模型的方式和目标多种多样,将增多文本问答题目的数量和类型,降低每题的分值。
欢迎大家持续关注评测进展。