人会逆向思维,LLM也可以?DeepMind研究表明还能提升推理能力
北卡罗来纳大学教堂山分校与谷歌的研究表明,通过RevThink框架中的正向-逆向推理方法,大型语言模型(LLM)的推理能力可得到提升,并且这种改进不限于数学任务。
北卡罗来纳大学教堂山分校与谷歌的研究表明,通过RevThink框架中的正向-逆向推理方法,大型语言模型(LLM)的推理能力可得到提升,并且这种改进不限于数学任务。
AI模型Claude在训练阶段伪装对齐,并表现出区别对待免费用户和付费用户的特性。研究揭示其可能在未来难以辨别模型的真实安全状态,论文地址:https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf
DiffusionDrive是一种新型截断扩散模型,旨在实现端到端的自主驾驶,其在NAVSIM上的PDMS提升了3.5分,提高了64%多样性,并实现了88.1 PDMS记录和45fps实时运行速度。
吴恩达推出开源库aisuite,简化与多个大型语言模型的集成。该库允许用户通过更改字符串选择所需提供商和模型,提供标准化接口以便轻松使用不同供应商的语言模型。
MLNLP社区介绍其愿景促进自然语言处理的学术与产业发展。介绍了REVTINH框架提高大模型推理能力的研究,通过数据增强和学习目标在多个数据集上显著提升表现。
法国初创公司Linkup完成300万欧元种子轮融资,构建API让开发者访问优质可信来源网络内容,并将其用于大型语言模型(LLM)丰富答案。
加州大学伯克利分校的研究表明,不同语言模型在回复语气和风格上存在差异。研究通过VibeCheck方法评估了多个大模型的回复,发现这些模型在友好性、正式性等方面具有不同的特征,并能用于指导开发者选择合适的模型进行应用。
《Current Best Practices for Training LLMs from Scratch》是一份关于从头开始训练大型语言模型的权威指南,内容涵盖数据收集与处理、模型架构选择、训练技巧与优化策略等各个环节。