ICML2025|多模态理解与生成最新进展:港科联合SnapResearch发布ThinkDiff,为扩散模型装上大脑

多模态理解与生成新方法ThinkDiff在ICML2025上提出,仅需少量数据和计算资源,让扩散模型具备推理能力,并通过视觉-语言训练和掩码策略传递VLM的多模态推理能力,大幅提高图像生成质量。

再看文档古籍修复前沿方案:定位、预测、图像重建三阶段融合思路

2025年7月11日,北京晴。文章介绍了文档智能在历史文献修复中的应用,包括数据合成和三阶段模型(OCR辅助的损坏定位、损坏内容预测、历史外观恢复)。AutoHDR-Qwen2-1.5B等开源项目展示了这种方法的效果。