北大 AI 奥数评测,o1-mini 比 o1-preview 分数还高

327 阅读7分钟

OpenAI 的 o1 系列一发布,传统数学评测基准都显得不够用了。

MATH-500,满血版 o1 模型直接拿下 94.8 分。

更难的奥数邀请赛 AIME 2024,o1 也获得 83.3% 的准确率。

随着现有的数学评测集逐渐被攻克,大家不禁开始好奇:大模型能否胜任更具挑战性的数学竞赛,甚至是奥林匹克数学竞赛?

为此,北京大学与阿里巴巴的研究团队联合打造了一个专门用于数学竞赛的奥林匹克评测基准——Omni-MATH

Omni-MATH 专门用于评估大型语言模型在奥林匹克水平的数学推理能力。评测集共收录了 4428 道竞赛级别的问题。这些问题经过精心分类,涵盖了 33 个(及更多)子领域,并且分为 10 个不同的难度级别,使得我们能够对模型在各种数学学科和复杂程度上的表现进行细致分析。

最新排行榜,竞争非常激烈:

除去 o1 满血版暂时还没有放出 API,作为小模型的 o1-mini 的表现最好,平均分比 o1-preview 还要高 8% 左右

开源模型最好的是 Qwen2-MATH-72b,甚至超过了 GPT-4o 的表现。

总的来说,o1-mini 这种只关注少部分能力、放弃存储广泛世界知识路线的优势,再次得到验证。

Omni-MATH:难度大、领域广

Omni-MATH 作为一个数学奥林匹克评测基准,它的特点有三个维度:

**人工验证答案的可靠性:**4428 道评测问题来自不同的数学竞赛和论坛数据,人工参与验证答案准确性;并且考虑到奥赛难度问题答案的多样性提供了基于 GPT4o 和评测模型的评价方式,方便一键启动评测。

**清晰合理的难度分类:**评测集整体比较有挑战性,并且难度跨越非常大。从奥林匹克预备级别(T4)竞赛 CEMC 到最顶级的奥林匹克数学竞赛(T0)如 IMO、IMC、普特南等等。这些比赛不仅需要选手具备扎实的数学基础,还需要超高的逻辑推理能力和创造力。数据显示,只有极少数智商接近顶尖的人才能在这些比赛中取得优异成绩。

**题目类型非常广:**共有多于 33 个子领域的数学问题。根据数学领域的特性,团队打造了树状的领域分类,每个题目涉及一到多个领域,也就是多条树的路径,使得我们能够对模型在各种数学学科和困难程度上的表现进行细致的分析。”

评测集 Omni-MATH 的构造

数据构造

研究团队首先对国内国外基本的奥林匹克数学竞赛进行了细致的调研。从中了解到,一个学生从竞赛预备到顶级竞赛,中间要经过层层选拔的。

比如对于英国体系,要经过 JMC → IMC → SMC → BMO 1 → BMO 2 → IMO 整个一层链路的选拔(这个 IMC(Intermediate Mathematical Challenge) 和上述 IMC(international mathematical competition for university students) 并不是一个比赛);

然而在美国体系中,要经过 AMC 8 → AMC 10 → AMC 12 → AIME→ USA(J)MO → IMO 整个一层体系的选拔。

这启发了团队能否给模型评测同样也设置一个这种难度层级的体现。因此研究团队调研了世界范围内不同难度层级的比赛,使得 Omni-MATH 在奥林匹克级别的数学测试中,难度上仍然多元化。

另外在奥林匹克级别的数学测试中,实际上涉及的数学领域是非常多的。研究团队考虑到在模型训练时,不同领域之间的数据是否有会有化学反应,比如领域 A 的数据能否让模型泛化到领域 B 的提升,这种方向的数据工程是非常有意义的。

为了给这个方向的研究打下基础,研究人员参考了相关竞赛教辅书,在这个评测集中给数据的领域进行了非常细致的划分,从数学大类上比如数论、代数、几何等等开始,一直到领域下面具体的小领域或者知识点。

评测集数据的来源主要有两个,一个是各种比赛的题目和题解,另外一个是著名数学网站 Art of Problem Solving。对于想要的比赛,优先从题解中寻找答案。

如果想要的比赛并未公开题解,团队从 AoPS 网站的论坛上爬取回复。考虑到回复都是真实用户书写,有一定概率是有问题的,需要进行严格的筛选。

研究团队选取了 AoPS 网站上候选的并且答案规整的数目大于 3 的题目,并且选取了 3 个答案全部一致的题目作为最终标准。团队在筛选问题时采用人工筛选,进一步保证了准确性。

数据处理

数据本身的处理:

在爬取到 PDF 格式的题解后,开发者们使用了 Mathpix 将其转换成 Latex 格式作为题解。在爬取到论坛答案之后,首先用 GPT-4o 重新 format 成规整的回复,之后手动检查是否和原本问题的答案一致。

对于这两类来源的数据,团队人员最后都是用了人工检查是否和数据源的信息是一致的。

难度分类:

参考了 AoPS 网站中关于题目难度分类的情况。

具体而言,不同级别的比赛题目难度有着本质的不同,比如 CEMC 和 IMO 之间的题目相差非常大,然而,每个比赛的不同题目也有着不同,比如一次 IMO 比赛中既有简单题也有难题。因此评测集的难度分类严格按照 AoPS 网站上给出的不同比赛的每一道题的难度系数(从 1 到 10 之间,大多是整数,少数有. 5、.25 这种难度)。

对于网站上未覆盖的内容,团队人员将网页上的内容整理成了 few-shot prompt,并使用了 GPT4o 给题目难度进行了标注。整体难度的分布和不同比赛题目的分布如下:

领域分类:

和传统的数学测试基准的分类不同,在奥数这个难度上的题目涉及的领域更多,知识面更广。

为了更好地组织统一起奥数这些题目以及后续的对于数学领域之间数据的关系的探究,团队构建了一个更为全面的树状分类体系。研究团队参考了相关竞赛教辅书,将奥数相关的领域分为了几何、代数、数论、应用数学等等领域,之后从这些领域出发,继续细分成各个领域的小领域,细微的知识点。

这种树状分类体系更有助于帮助理解不同题目之间的关系,以及模型在不同领域上的表现。团队将这一树状分类体系作为模板,并结合竞赛辅导书中的实例,构建了 few-shot 的提示(具体的树状结构和提示内容可参考文章末尾的代码仓库)。

随后,团队利用 GPT-4o 给每道题目分类到一到多个类别当中。

开源的答案验证器

Omni-Judge 是微调 Llama3-Instruct 得到的验证器,用于验证待测的答案和给定的答案是否一致。由于数学奥赛级别的题目回答的种类非常丰富,用规则评测实际上非常困难。在获得模型的预测之后,需要判断模型的输出是否和标准答案是一致的。在使用 GPT-4o 评测之外,我们还提供了一种更简便的评测方法,利用了 GPT4o 评测模型时产生的 COT 数据微调 Llama3-Instruct 得到了一个开源的验证器,评测一致率和 GPT-4o 高达 95%。

参考链接:

**Project Page:**omni-math.github.io/
**Github:**github.com/KbsdJames/O…
**Dataset:**huggingface.co/datasets/Kb…
**Omni-Judge:**huggingface.co/KbsdJames/O…

—  —