告别单一大模型依赖!北航领衔发布LLM Ensemble综述,探索多模型协作最优解 2025年4月19日23时 作者 PaperWeekly 综合考虑并利用多个大语言模型(每个模型都旨在处理用户查询),从而发挥它们各自的优势。 大语言模型的广
告别碎片化评测!AIGVE-Tool打造AI视频评估「全家桶」,多维指标一键测评 2025年4月16日16时 作者 PaperWeekly olkit with Multifaceted Benchmark 项目主页: https://ww
浙大赵洲教授团队发布MegaTTS3,让AI语音更自然的新一代语音合成技术 2025年4月15日23时 作者 PaperWeekly 测数据下均展现 领先水平 。MegaTTS3 以仅 0.45B 参数的轻量化架构,不仅实现高质量的中
浙大、OPPO等发布最新综述:基于多模态大模型的计算机、手机与浏览器智能体研究 2025年4月13日23时 作者 PaperWeekly 完成各种任务,让人们为之兴奋,也带动了学术界与工业界在 OS Agents 相关领域的研究与发展。
AAAI 2025 告别静态建模!北航团队提出动态路网与轨迹表示的协同学习范式 2025年4月13日8时 作者 PaperWeekly namic Road Network and Trajectory Representation L
SIGGRAPH 2025 即插即用!港中文、腾讯等提出首个双分支视频修复框架VideoPainter 2025年4月11日23时 作者 PaperWeekly 和编辑能力。 通过构建大规模(390K 视频片段)视频修复数据集,结合轻量级上下文编码器(仅占骨干网
编辑一切知识!大模型编辑新范式AnyEdit,有效突破知识边界 2025年3月27日8时 作者 PaperWeekly 识更新技术成为一项关键需求。 然而,现有的模型编辑方法仅限于编辑特定类型的知识,如三元组知识,无法满
顶刊TPAMI 2025!南大、南洋理工联合提出PROOF:基于视觉语言模型的持续学习新范式 2025年3月27日8时 作者 PaperWeekly 保持原有知识的完整性。传统 CIL 方法主要依赖视觉信息进行特征提取,而近年来兴起的视觉-语言模型(
什么样的图像才是好的图像?近200篇文献总结图像质量检测的最新进展与挑战 2025年3月24日23时 作者 PaperWeekly ts, Analysis, and Future Outlook 作者单位: 北京大学、厦门大学 论
TPAMI 2025顶刊!基于脉冲驱动Transformer的高效且可扩展训练方法 2025年3月13日16时 作者 PaperWeekly 神经网络(ANN)的潜在替代方案。然而,SNN 在实际应用中面临性能差距和训练成本高的挑战。 为此我