跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

红队测试

攻破AI最强守卫,赏金2万刀!Anthropic新方法可阻止95% Claude「越狱」行为

下午4时 2025/02/17 作者 新智元

后约48小时内,无人完全攻破新系统,将赏金提高到了最高2万美元。新方法真这么强?
最近,Anthro

分类 资讯 标签 100万美元、 Anthropic、 概率模型、 深度学习、 红队测试、 越狱攻击 发表评论

微软:100款 GenAI 产品安全测试背后的 8 条教训与 5 个案例总结!

下午2时 2025/01/26 作者 PaperAgent

微软对100多款生成式AI产品进行了红队测试,并分享了八个主要教训和五个案例研究,以指导实际的AI安全测试,包括识别风险、评估大模型聊天机器人的应对能力等。

分类 分享 标签 GenAI、 微软、 案例研究、 红队测试、 缓解措施、 风险识别 发表评论

极客说|微软新模型:Phi-4 来了

下午4时 2024/12/27 作者 AIGC开放社区

作者:魏新宇 – 微软 AI 全球黑带高级技术专家
排版:Alan Wang
「极客说」 是一档专注

分类 资讯 标签 Phi-4模型、 去污染策略、 安全微调数据、 红队测试、 长序列处理、 魏新宇 发表评论

刚刚,OpenAI公开o1模型测试方法,人机协作时代!

下午8时 2024/12/15 上午5时 2024/11/22 作者 AIGC开放社区

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发

分类 资讯 标签 OpenAI、 机器学习、 模型行为、 红队测试、 网络安全、 自然语言处理 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

近期文章

  • 干货满满!图灵奖学术大牛和宇树、智谱等明星AI企业齐聚,探讨AI产业新风向
  • “AGI 五年内或将实现”:AI 教父 Bengio 呼吁中美达成共识,警惕 AI 沦为人类武器
  • 深夜突袭!谷歌Gemini 2.5 Pro更新蝉联榜一:推理超越o3,编程超越opus4
  • 强化学习之父Richard Sutton:人类数据耗尽,AI正在进入“经验时代”!
  • 免费约饭!美国CVPR 2025,相聚人才晚宴

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×