LoRA中到底有多少参数冗余?新研究:砍掉95%都能保持高性能 下午4时 2025/05/02 作者 机器之心 明即使大幅减少 LoRA 的可训练参数,模型性能依然保持强劲。研究团队在数学推理、代码生成、安全对齐