视觉强化微调!DeepSeek R1技术成功迁移到多模态领域,全面开源
视觉强化微调项目 Visual-RFT 通过规则奖励和强化学习方法,实现了视觉语言模型在目标检测、分类等任务中的高效提升。项目已开源,欢迎加入。
视觉强化微调项目 Visual-RFT 通过规则奖励和强化学习方法,实现了视觉语言模型在目标检测、分类等任务中的高效提升。项目已开源,欢迎加入。
DeepSeek发布Janus-Pro模型,实现图文理解和图像生成的双面杀手。该模型通过解耦视觉编码路径实现了真正的”一心二用”,并采用统一架构设计、精心训练策略和MIT开源协议。其在理解任务得分0.8和生成质量上碾压DALL-E 3等主流模型。
临近春节,豆包1.5 Pro发布,包含基础模型、视觉和实时语音模型。测试显示其推理能力、视觉理解能力和语音识别能力均有提升,但仍有待提高。基础模型已开始灰度测试,其他两个模型已上线。
华为诺亚方舟实验室提出统一多模态大模型ILLUME,仅使用约15M图文对数据实现视觉理解、生成等任务的出色表现,并采用自提升式多模态对齐策略促进理解和生成能力协同进化。
OpenAI 推出视频通话和屏幕共享功能及圣诞老人限定语音Santa Mode,ChatGPT 能实时理解视觉场景并提供指导。