媲美OpenAI-o3,刚刚开源模型DeepCoder,训练方法、数据集大公开

著名模型DeepCoder-14B-Preview开源,参数虽少但表现优异。该模型在LiveCodeBench测试中得分为60.6%,高于OpenAI的o1模型,接近o3-mini水平。Together AI不仅开源模型权重和训练数据集,还优化了训练方法和技术以提升性能。

阿里开源R1-Omni,多模态情感识别

阿里巴巴通义实验室开源多模态情感识别模型R1-Omni,采用强化学习与可验证奖励(RLVR),在MAFW和DFEW数据集上分别取得40.04%和56.27%的WAR。该方法避免了复杂奖励模型依赖问题,通过直接利用任务内在正确性标准设计奖励函数,提高情感识别准确性和可靠性。

上海交通大学发布“明岐”多模态大模型 突破消化道罕见病诊断瓶颈

上海交通大学举办AI赋能精准诊疗创新发展学术会议,发布具备消化道罕见病精准诊断能力的多模态大模型矩阵‘明岐’,提升诊疗效率与精准度。该模型采用双驱动架构,并通过多模态深度学习整合医学数据,实现可视化决策支持系统和透明诊断舱机制。

反击DeepSeek失败!Llama 4效果不好,Meta承认有问题

今天凌晨
1
点半,Meta生成式AI领导者Ahmad Al-Dahle在社交平台回应了前天开源的Llama 4被质疑的问题。Meta否认在测试集上进行预训练,并表示会修复漏洞提升模型性能。然而,国内媒体以Meta新开源的Llama 4 Maverick代码能力比肩其V3模型为噱头写标题。Meta随后发布声明,澄清质量差异因优化需要时间,并称不会在测试集上预训练。多位网友质疑Llama 4的实际表现低于预期,认为Meta可能在测试中进行了篡改。