Magistral发布:用纯RL打造出首个多语言、透明Reasoning大模型!
MLNLP社区介绍其致力于促进国内外自然语言处理领域的交流合作,Magistral通过纯强化学习训练提高解题能力,成果包括在AIME数学竞赛上的显著提升,在多种场景下的表现及未来研究方向的探索。
MLNLP社区介绍其致力于促进国内外自然语言处理领域的交流合作,Magistral通过纯强化学习训练提高解题能力,成果包括在AIME数学竞赛上的显著提升,在多种场景下的表现及未来研究方向的探索。
国内和国外的大模型在解答题考试中表现各异,豆包Seed1.5、混元T1、讯飞星火X1和Gemini 2.5 pro表现出色,得分满分;Qwen3及格,DeepSeek因超时得0分。
最新优化版DeepSeek-R1(0528)在编程榜单aider上取得了60%的成绩,超过Claude 4 Sonnet和1月版的满血R1。同时,1.93bit版本R1相比原始版8bit减少了70%以上的文件大小,并且能够在较小的内存条件下运行游戏任务。
2025年5月29日,北京晴。文章介绍了大模型推理及语音模型评估进展和数据合成框架SynLogic的最新情况,包括DeepSeek-R1更新、LALM-Evaluation-Survey项目以及用于生成多样化的逻辑推理数据的SynLogic框架。
DeepSeek-R1-0528模型在复杂推理任务中的表现大幅提升,准确率从70%提升至87.5%,代码生成能力增强,整体性能接近OpenAI大模型。新版模型代码生成效率高、交互体验好、长文本处理能力强。
新版DeepSeek-R1开源,编码能力、推理能力和思考时间显著提升。支持长时思考且编程能力强到爆。与Gemini 2.5 Pro对标,表现不俗。多项实测展示其强大功能。
临近下班时,DeepSeek发布了一则通知,宣布其R1模型完成小版本试升级,并邀请开发者进行测试。实测显示,新版本具有强大的编程能力及高级感的设计,能够快速生成各种前端界面和计算工具。总体而言,DeepSeek-R1-0528的性能表现超出了Claude 4和Gemini 2.5 pro的表现水平。
新版DeepSeek-R1开源,性能几乎与o4-mini相当。编程能力超越Claude 4 Sonnet,网友称赞思考时间长且逻辑缜密。对比Gemini 2.5 Pro在特定任务上表现出色,引发广泛关注。