主流大预言模型推理效果对比

894 阅读3分钟

推理效果对比

主流测试数据集

  • GSM8K:包含 8.5K 高质量语言多样化小学数学应用题的英文数据集。

  • GAOKAO以中国高考题目为数据集,旨在提供和人类对齐的,直观,高效地测评大模型语言理解能力、逻辑推理能力进行测评。收集了2010-2022年全国高考卷的题目,其中包括1781道客观题和1030道主观题,构建起GAOKAO-bench的主要评测数据。

  • BBH:是一个挑战性任务 Big-Bench 的子集。Big-Bench 目前包括 204 项任务。任务主题涉及语言学、儿童发展、数学、常识推理、生物学、物理学、社会偏见、软件开发等方面。BBH 是从 204 项 Big-Bench 评测基准任务中大模型表现不好的任务单独拿出来形成的评测基准。

  • MMLU:由来自各个知识分支的多个英文选择题组成,测试涵盖人文科学、社会科学、硬科学等学习领域的科目,包括基础数学、美国历史、计算机科学、法律等57项任务。

  • C-Eval:C-Eval是全面的中文基础模型评估套件,涵盖了52个不同学科的13948个多项选择题,分为四个难度级别。

  • CMMLU:综合性的中文评估基准,由MBZUAI、上海交通大学、微软亚洲研究院共同推出,专门用于评估语言模型在中文语境下的知识和推理能力,共涵盖了67个主题,涉及自然科学、社会科学、工程、人文以及常识等。

  • HumanEval:一个用于评估代码生成模型性能的英文数据集,由OpenAI在2021年推出。这个数据集包含164个手工编写的编程问题,每个问题都包括一个函数签名、文档字符串、函数体以及几个单元测试。这些问题涵盖了语言理解、推理、算法和简单数学等方面。

  • AGIEval:以人为中心的基准,专门设计用于评估基础模型在与人类认知和解决问题相关的任务中的一般能力。该基准源自 20 项针对普通考生的官方、公开、高标准的入学和资格考试,例如普通大学入学考试(例如中国高考和美国 SAT)、法学院入学考试考试、数学竞赛、律师资格考试、国家公务员考试。

以下得分均来自于各大模型的 GitHub 页面汇总

7B 模型测评得分

ModelGSM8KGAOKAOBBHMMLUC-EvalCMMLUHumanEvalAGIEval
GPT-489.966.175.183.968.470.369.563.2
LLama2-7B16.225.939.145.728.931.312.826.5
ChatGLM2-6B32.449.433.747.951.750.09.145.2
ChatGLM3-6B72.3-66.161.469.067.5-53.7
Qwen-7B-Chat50.3--55.859.7-37.2-
Baichuan2-7B-Chat24.447.441.554.154.057.018.242.7
Yi-6B-Chat38.467.239.758.268.869.4--
XVERSE-7B-Chat-57.5-63.755.4--48.9

从数据来看 ChatGLM3-6B 模型得分相对要高一些。

13B 模型测评得分

ModelGSM8KGAOKAOBBHMMLUC-EvalCMMLUHumanEvalAGIEval
GPT-489.966.175.183.968.470.369.563.2
LLama2-13B28.830.846.955.035.837.915.232.2
Qwen-14B-Chat60.162.549.664.669.867.743.9-
Baichuan2-13B-Chat52.754.348.759.158.161.917.048.1
XVERSE-13B-Chat54.967.538.061.263.566.239.654.5

从数据来看 Qwen-14B-Chat 模型得分相对要高一些,几乎全面领先于其他模型。

34B 以上模型测评得分

ModelGSM8KGAOKAOBBHMMLUC-EvalCMMLUHumanEvalAGIEval
GPT-489.966.175.183.968.470.369.563.2
Yi-34B-Chat71.677.851.467.677.079.1--
LLama2-70B-Chat47.049.842.359.434.936.1--
Qwen-70B-Chat76.4--74.380.1-64.6-

推理效率对比

参考资料