微软又基于 Qwen2.5-Coder 搞出了 NextCoder-32B
微软基于Qwen2.5-Coder开发了新模型NextCoder-32B,其在Aider Leaderboard上达到23.6分,接近gpt-4o水平。使用SeleKT后训练和修改Transformer的方法。
微软基于Qwen2.5-Coder开发了新模型NextCoder-32B,其在Aider Leaderboard上达到23.6分,接近gpt-4o水平。使用SeleKT后训练和修改Transformer的方法。
DeepSeek-R1 在 ARC-AGI 上的表现不及 OpenAI 的 o3 系列模型,但通过 SnakeBench 对抗性基准测试,在 1v1 贪吃蛇比赛中击败了 o1-mini,并接近 o3-mini。
上周有学习者希望学习多模态大模型的部署与微调,Datawhale妙妙屋提供教程开源地址。同时,Qwen2.5-Coder因朋友圈刷屏引发热议,并开源了相关教程。