跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

Flash Attention

斯坦福意外用AI生成超强CUDA内核,性能比人类专家优化得还要好!翻倍碾压原生PyTorch,华人主创

2025年5月31日16时 作者 量子位

斯坦福团队通过意外发现,由AI生成的内核性能超越了人类专家专门优化过的版本。这项研究展示了大模型在探索高级优化和硬件特性的能力。

分类 资讯 标签 Flash Attention、 内核生成模型、 副教授、 助理教授、 斯坦福、 麻省理工 发表评论

结合代码聊聊FlashAttentionV3前向过程的原理

2025年3月18日23时 作者 极市干货

绍了FlashAttentionV3(FA3)的前向过程原理,结合代码分析了其数学公式和工程实现的细

分类 学术 标签 Cutlass库、 Flash Attention、 Reduce SplitK、 局部优化、 性能提升、 数值稳定性 发表评论

在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

2025年3月12日12时 作者 机器之心

线被拉升,以此为基础所构建的长 CoT 推理、多 Agent 协作等类型的高级应用也逐渐增多。
随之

分类 学术、 资讯 标签 APB、 Flash Attention、 序列变长、 清华大学、 计算量、 黄宇翔 发表评论

杨植麟跟梁文锋,论文撞车!

2025年2月19日16时 作者 智东西

智东西2月19日报道,在DeepSeek公布最新稀疏注意力框架NSA论文的5小时后,“大模型六小虎”

分类 资讯 标签 DeepSeek、 Flash Attention、 Kimi模型、 上下文长度、 月之暗面、 稀疏注意力机制 发表评论

Inf-CL: 把 Contrastive Loss 的 Batch Size 冲到100M!

2024年11月24日23时 作者 极市干货

↑ 点击
蓝字
关注极市平台
作者丨藤原豆腐皮儿@知乎(已授权)
来源丨https://zhuanl

分类 分享、 学术 标签 Flash Attention、 Gradient Cache、 Inf-CL、 OpenCLIP、 Ring Attention、 ViT-L/14 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • ChatGPT 越用人越傻? MIT 最新实验揭秘,过度依赖 AI 大脑活跃度显著降低
  • 全网骂他AI作弊狗,硅谷风投反手砸1.2亿!这届VC就爱疯批创业者
  • OpenAI CEO深度访谈:吐槽Meta报价1亿美金挖墙角,透露要造“AI伴侣”、建太阳能数据中心
  • CS博士求职8个月0 offer,绝望转行!斯坦福入学停滞,全美仅增0.2%
  • 15个月Gemini Pro免费领取,教程保姆级!

2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×