IMO-AnswerBench 评测基准详情

365

IMO-Bench 是 Google DeepMind 开发的一套基准测试套件,针对国际数学奥林匹克(IMO)水平的数学问题设计,用于评估大型语言模型在数学推理方面的能力。该基准包括三个子基准:AnswerBench、ProofBench 和 GradingBench,涵盖从短答案验证到完整证明生成和评分的全过程。发布于 2025 年 11 月,该基准通过专家审核的问题集,帮助模型实现 IMO 金牌级别的性能,并提供自动评分机制以支持大规模评估。

模型模式说明

不同模式会显著影响成绩,请在对比榜单时留意标签提示。

提示:若某条记录未显示任何标签,即默认是 normal 常规模式。

normal

常规推理:单步推理,不延长思考、也不调用额外工具。

thinking low medium high

Thinking 系列:常规延长思考时间,low/medium/high 代表不同耗时或深度,各厂商叫法不同。

deeper thinking

Deeper thinking:在 Thinking 基础上进一步延长思考链条,通常意味着更多算力与时间。

使用工具 / 联网

允许调用检索、浏览器、代码解释器等外部能力。

parallel_thinking

并行思考:多线程/多代理协同探索再汇总,通常只在厂商内部实验环境中启用、尚未对外开放,因此被视为“作弊”模式。

IMO-AnswerBench 大模型得分排行榜

数据来源:DataLearnerAI

IMO-AnswerBench详细排名数据表格

默认:仅展示常规/非并行的评测结果,可按需查看并行思考成绩。

默认隐藏并行思考结果。

排名
模型
得分
发布时间
参数(亿)
1
86.7
2026-02-02
1960.0
IMO-AnswerBench得分 86.7
发布时间 2026-02-02
参数(亿) 1960.0
查看模型详情
2
85.4
2026-02-02
1960.0
IMO-AnswerBench得分 85.4
发布时间 2026-02-02
参数(亿) 1960.0
查看模型详情
3
83.9
2026-01-26
10000.0
IMO-AnswerBench得分 83.9
发布时间 2026-01-26
参数(亿) 10000.0
查看模型详情
4
智谱AI Logo
GLM-5 default
82.5
2026-02-11
7440.0
IMO-AnswerBench得分 82.5
发布时间 2026-02-11
参数(亿) 7440.0
查看模型详情
5
Moonshot AI Logo
Kimi K2.5 default
81.8
2026-01-27
10000.0
IMO-AnswerBench得分 81.8
发布时间 2026-01-27
参数(亿) 10000.0
查看模型详情
6
80.9
2026-02-16
397.0
IMO-AnswerBench得分 80.9
发布时间 2026-02-16
参数(亿) 397.0
查看模型详情
7
阿里巴巴 Logo
Qwen3.5-397B-A17B 思考模式(无工具)
80.9
2026-02-16
397.0
IMO-AnswerBench得分 80.9
发布时间 2026-02-16
参数(亿) 397.0
查看模型详情