ICLR 2025 计算开销减半!Dynamic-LLaVA刷新多模态大模型推理加速上限 上午8时 2025/04/28 作者 PaperWeekly 段不断生成新的 token,推理过程的计算复杂度和 GPU 显存占用逐渐增加,这导致了多模态大模型推
MiniMax押注线性注意力让长文本训练速度基本不变 上午8时 2025/04/17 作者 NLP工程化 MiniMax-01通过线性注意力实现了4560亿参数的高效模型,克服了softmax瓶颈,并在多个关键技术上取得进展。