微软又基于 Qwen2.5-Coder 搞出了 NextCoder-32B
微软基于Qwen2.5-Coder开发了新模型NextCoder-32B,其在Aider Leaderboard上达到23.6分,接近gpt-4o水平。使用SeleKT后训练和修改Transformer的方法。
微软基于Qwen2.5-Coder开发了新模型NextCoder-32B,其在Aider Leaderboard上达到23.6分,接近gpt-4o水平。使用SeleKT后训练和修改Transformer的方法。
近期开源了4个大模型:SmolLM3小模型、T5Gemma模型、NextCoder-32B模型和DeepSeek-TNG-R1T2-Chimera专家组合模型,文章介绍了这些模型的特点及模型合并方案,并推荐MergeKit库来执行模型合并。