8B模型可以超过GPT-4o!并行KV Cache压缩支持的128K长度外推方法ParallelComp

作者熊璟介绍其研究工作,提出ParallelComp方法解决大语言模型在处理超长文本时存在的瓶颈问题。该方法包括并行注意力分块、KV缓存智能淘汰与注意力偏差校准三项创新技术,通过减少显存消耗和优化注意力分布,使得模型能高效处理128K长度以上的上下文,显著提升推理效率。

机器人顶会RSS 2025奖项公布!大牛Pieter Abbeel领衔研究获杰出Demo奖

RSS 2021 大会揭晓多个奖项,包括杰出 Demo 论文奖、杰出系统论文奖、杰出学生论文奖和杰出论文奖。其中,FEAST 系统荣获杰出论文奖,展示了其在个性化家庭用餐辅助中的优势。

ToMAP:赋予大模型「读心术」,打造更聪明的AI说服者

本文提出了一种名为ToMAP的新模型,它结合了心智理论机制以增强语言模型在说服任务中的表现。通过引入反驳预测器和态度预测器两大模块,ToMAP能够预判对方可能提出的反论点并评估其态度变化,从而实现更具个性化、灵活性和逻辑性的说服过程。