Attention is NOT all you need!这个「去Transformer」的玩意直接把我整懵了!
就训练出
一个
完全不用Transformer注意力
的
72B大模型,性能竟超越GPT 3.5?!
就训练出
一个
完全不用Transformer注意力
的
72B大模型,性能竟超越GPT 3.5?!
中午刷推时看到ARC Prize公布了全新AGI测试基准,当前行业TOP模型表现不佳。ARC-AGI-2测试瞄准了当前AI模型的三大软肋:符号解释能力、组合推理能力和上下文规则应用。通过该比赛,激励研究人员突破现有挑战,提升新技能获取效率。
每月白送150美元的API调用福利被很多人忽视。只需充值5美元,即可获得150美元额度。通过注册账号、设置支付信息、充值、创建API密钥并激活数据共享等步骤,轻松薅羊毛。
Anthropic的Claude Code迎来8项新功能升级,包括「Extended thinking」增强思考能力、Vim模式编辑体验、自定义斜杠命令工作流自动化、自动接受模式减少确认步骤等。但成本高成为主要痛点之一,用户呼吁降低成本。
文章介绍了AI视频工具海螺AI的快速崛起及其核心优势:极致画面质感和运镜能力、自然表情生成技术提升情绪表现连贯性以及静态图像动态化功能。海螺AI连续5个月全球和国内增速榜双榜单TOP1,受到了国内外创作者的高度认可与推崇。
腾讯发布混元T1模型,在多项指标上超越GPT-4.5及DeepSeek R1,尤其在文化创意、文本总结和智能体能力方面表现突出。该模型采用创新架构Mamba-Transformer MoE,并实现了极高响应速度与高质量输出。