XAttention:一种高效的Transformer注意力机制 2025年3月24日8时 作者 NLP工程化 XAttention是一种高效Transformer注意力机制,显著提升长文本处理速度13.5倍,在多个场景表现出色且不影响精度。