跳至内容
我本来真的没打算卷这个选题,因为知道大家肯定都会写,都会卷,我也想休息休息,真的就不打算写了。
但是吧,用AI测语文考试还没啥,但是看了一些用AI做数学考试的文章,真的给我看的一脸地铁老头表情包,就,那个测试方法,也特么太扯淡了。
结果最后得出一些不太靠谱的结论,我觉得还是蛮误导大家的。
所以我觉得,我想按照我的玩法,再严谨一点的测一下大模纯数学能力型高考,给大家看一下,真实客观的评分。
1. 不考解答题(因为给我标准答案我也看不懂,不知道咋给分。。)
2. 所有的题目截图全部使用LaTeX编辑器转成LaTeX文本格式,再扔给大模型进行回答。
LaTeX是学术界最广泛使用的数学公式排版语言,能最精确地表达数学符号,我们考的是模型的数学能力,不是考模型的多模态识图能力,比如DeepSeek根本就没多模态,用的是OCR提取文本,很可能识别错误,所以截图上传不公平,一律转化成LaTeX格式再进行统一测试。
3. 剔除掉单选题第6题,因为这是单选、多选、填空题中唯一有图表的,转成文字可能会有理解歧义,同时就一题,影响不大,直接剔除。
4. 单题计分方法也依照高考判分原则:单选题7道,每道5分,选项正确计分,错误不得分;多选题3道,每道6分,全对计6分,漏选按正确答案数量计分,如答案为ABCD,漏选其一扣1.5分,错选不得分;填空题3道,每道5分,填空正确计分,错误不得分。
5. 每道题都会使用大模型跑3遍,根据正确比例进行分配,最大程度减少幻觉。比如OpenAI o3模型,做单选题第7题,对2次,错1次,则实际得分为5*0.66=3.3分。
6. 只开推理、不使用Prompt引导、不开联网、不允许写代码在沙盒进行计算,比如o3,我直接把这几个功能关掉了。
测试模型为OpenAI o3、Gemini 2.5 pro、DeepSeek R1、豆包(1.5-thinking-pro)、元宝(混元T1)、千问3(235B)、讯飞星火X1,均为推理模型。
在晚上凌晨2点开始测试,因为搞API写脚本反而可能更麻烦,所以直接搞了个表格,复制粘贴测了,以至于喊了我的几个好朋友@卡尔的AI沃兹、@Max、@猫先生 一起测,硬生生测到凌晨4点。
7道单选题、3道多选题、3道填空题,总分一共68分。
我们得出了,我认为,非常公平客观的,每个模型的考试结果。
没有收任何家钱,也没有任何利益关系,全部客观公正。
第9题是个非常神奇的题目,是个多选题,只有Gemini 2.5 Pro每次都对了,其他的所有大模型,几乎全都有问题,D选项倒是全都答出来了,但是缺了B。
而那个DeepSeek第11道题错的那道题,其实并不是真做错了,明明做对了,但是非要作死的瞎答,比如11题多选题,DeepSeek R1错了一道题。
Gemini确实非常强,在整个逻辑上,没有一题是错的。
而豆包、混元、星火位列第二梯队,在第9题上漏了一个选项,并列屈居第二。
DeepSeek半对半错了一个多选题,丢了0.7分,排名第五。
而Qwen3和OpenAI o3因为两个都错了1次填空题,只能被迫垫底。。
通过我的测试,我相信,大家应该对于模型的数学能力,有一些了解了。
高考对于现在绝大多数的推理大模型来说,其实真的就是,没有特别大的难度,跟2023年的时候,真的是天壤之别。
很多测出来测的非常离谱的文章,其实最后答案错了,跟推理模型本身没有半毛钱关系,而是你把截图扔过去,各种符号啥的识别错误。
比如则 \complement_{U} A,硬生生识别成了CuA。
所以,折腾到现在,这场公平、客观的AI数学高考终于落幕了。
其实吧,我们不睡觉,熬夜折腾这么久,想得出的并不仅仅是一个简单的分数。
而是我们我们想知道,怎么才算是一场合格的AI考试。
规则公正,流程严谨,技术中立,少一点博眼球的夸张,多一点对真相的执着。
我始终相信,无论是对技术,还是对人生,严谨总能让我们更接近真实。
(文:数字生命卡兹克)