四款扩散大语言模型全部破防?上交&上海AI Lab发现致命安全缺陷
扩散语言模型(dLLMs)因并行解码、双向上下文建模和灵活插入masked token而备受关注。然而,上海交通大学等团队在最新研究中指出,dLLMs存在根本性架构安全缺陷,几乎毫无防御能力。DIJA攻击无需训练或改写模型参数,就能生成有害内容,并揭示了扩散语言模型的弱点,为dLLMs的安全研究拉开序幕。
扩散语言模型(dLLMs)因并行解码、双向上下文建模和灵活插入masked token而备受关注。然而,上海交通大学等团队在最新研究中指出,dLLMs存在根本性架构安全缺陷,几乎毫无防御能力。DIJA攻击无需训练或改写模型参数,就能生成有害内容,并揭示了扩散语言模型的弱点,为dLLMs的安全研究拉开序幕。
上海交通大学张林峰团队提出Toca方法,通过token粒度的缓存策略实现无需训练的图像和视频生成加速,相比现有方法具有更强适配性和优异性能。
27岁清华博士张林峰担任上海交通大学人工智能学院助理教授、博士生导师。他在大模型量化、高效推理等方向取得显著成果,发表多篇论文被广泛引用。他曾在多家学术会议与期刊中担任审稿人,并在不同机构中得到应用。