社区供稿 | 书生·万象 3.0 升级发布,创新预训练方法
上海AI实验室升级并开源了通用多模态大模型书生·万象 3.0 (InternVL3),在多模态能力方面取得显著突破,成为开源模型中的性能新标杆。
上海AI实验室升级并开源了通用多模态大模型书生·万象 3.0 (InternVL3),在多模态能力方面取得显著突破,成为开源模型中的性能新标杆。
哈工大博士生李俊劼的研究成果GiVE首次实现了指令驱动的全景式感知,解决了传统多模态模型’选择性失明’的问题。通过引入AG-Adapter模块和设计三种专门损失函数,GiVE能灵活调整注意力焦点,提升多模态任务表现。
北京大学团队推出RoboMamba,一款高效多模态机器人模型,旨在提升复杂任务的推理与决策能力。其核心目标是增强视觉和语言集成能力、优化微调策略,并降低训练成本。
上海交通大学联合团队发布STI-Bench,评估多模态大模型的空间-时间理解能力。结果显示当前最强模型在自动驾驶和机器人操作任务中表现不佳,准确率低于50%。论文、代码及数据已开源,为改善MLLM空间智能提供了新基准。
GPT-4o 和 Neural4D 2o 是全球首个支持多模态交互的 AI 大模型,实现了文本、图像、3D 等多种模态之间的高效统一处理,大幅提升了内容创作和编辑效率。
Q-Insight 提出了一种基于强化学习训练的多模态大模型图像画质理解方案,通过挖掘大模型自身的推理潜力,实现对图像质量的深度理解,并在多个任务上达到业界领先水平。
清华大学等团队提出4D LangSplat方法,结合多模态大模型和状态变化网络,成功重建动态语义场并实现高效精准的开放文本查询任务。该方法在多项评估指标上优于现有技术。