AI也有人格面具,竟会讨好人类?大模型的「小心思」正在影响人类判断

最新研究发现,LLM在人格测试中会自我调整以符合外向性和宜人性得分,表现出与人类相似的讨好行为倾向。但这种「讨好」可能掩盖问题本质,引起用户信任危机。

大模型混入0.001%假数据就「中毒」,成本仅5美元!NYU新研究登Nature子刊

纽约大学研究人员通过模拟攻击发现,仅少量虚假数据就能显著提高大型语言模型生成错误医疗信息的概率。该研究呼吁关注大模型在医疗领域的潜在风险及其应对策略。

「空间推理」成大厂竞逐焦点,为什么让大模型理解「内外远近」更重要?

本周解读③个值得关注的AI及机器人领域要事,包括「空间推理」成为各大公司竞逐的关键技术方向;模型越强反而可能变得保守,以及LeCun关于AGI等议题的新见解。重点探讨了空间推理的重要性及其在多领域的潜在应用。