实现扩散与自回归架构协同优化!DiSA:让自回归图像生成又快又稳 上午8时 2025/06/05 作者 极市干货 生成范式——DiSA,首次将扩散模型的逐步退火过程引入自回归生成框架中,在保持高质量图像生成的同时显
Transformer升级之路:多头潜在注意力机制(MLA)究竟好在哪里? 下午4时 2025/05/22 作者 PaperWeekly 网络 自从 DeepSeek 爆火后,它所提的 Attention 变体 MLA( M ulti-h
LoRA中到底有多少参数冗余?新研究:砍掉95%都能保持高性能 下午4时 2025/05/02 作者 机器之心 明即使大幅减少 LoRA 的可训练参数,模型性能依然保持强劲。研究团队在数学推理、代码生成、安全对齐
CVPR 2025 清华提出MambaIRv2:图像复原超强SOTA模型 下午11时 2025/03/18 作者 极市干货 com/p/9375585949 编辑丨极市平台 极市导读 本文提出了 MambaIRv2,一种用于