AI 安全新挑战!“弱到强越狱攻击” 如何轻松破解大型语言模型防线?

MLNLP社区发布了一篇关于大型语言模型安全性的论文《Weak-to-Strong Jailbreaking on Large Language Models》,提出了弱到强越狱攻击方法,该方法能在一次前向传递中大幅提高对齐LLMs生成有害文本的成功率,并揭示现有防护措施的不足。

辛顿上海演讲全文

MLNLP社区致力于推动国内外机器学习与自然语言处理领域的交流合作。作为知名社区,其愿景是促进学术界、产业界和爱好者之间的进步。近日WAIC大会上,Geoffrey Hinton发表了开幕演讲,讨论了数字智能与生物智能的关系,并分享了他早期模型如何结合两种理论的观点。该文章还提到了大模型的发展以及它们在语言理解方面的应用,强调了人类理解和AI系统之间的一些相似之处。最后讨论了全球合作对于解决AI安全问题的重要性。

百万奖金+带薪科研offer,蚂蚁集团的AI大赛来了!

2025·全球AI攻防挑战赛由多家顶尖科研机构联合举办,聚焦AI安全领域,涵盖图片、视频和语音三大场景及六个子赛题。赛事设有超百万奖金池,并提供带薪科研访学机会。比赛分为三个赛道:图片全要素交互认证、AI视频智能交互认证以及泛终端智能语音交互认证,比赛时间为2025年7月7日至8月11日。