打脸!GPT-4o输出长度8k都勉强,陈丹琦团队新基准测试:所有模型输出都低于标称长度
最新研究提出LONGPROC基准测试评估长上下文语言模型处理复杂信息并生成回复的能力。尽管主流模型声称能处理32K tokens,但在实际应用中的表现并不尽如人意,尤其是对于复杂的多任务生成任务。
最新研究提出LONGPROC基准测试评估长上下文语言模型处理复杂信息并生成回复的能力。尽管主流模型声称能处理32K tokens,但在实际应用中的表现并不尽如人意,尤其是对于复杂的多任务生成任务。
清华、复旦等联合提出Eko框架,开发者通过简洁代码和自然语言快速构建虚拟员工,支持浏览器和电脑操作,具备生产级干预机制,实现自动化任务如数据收集、测试和文件管理。
英伟达联合清华大学和麻省理工开发的Sana AI绘画大模型,在4090显卡上可实现不到一秒出高清图的效果。它在中国开发者中表现出色,有望降低大规模应用的成本。文章介绍了如何安装和使用该模型,并附有工作流下载链接。
英伟达联合清华大学、麻省理工大学推出Sana绘画模型,相比传统扩散模型在模型大小和推理速度方面有显著提升。其优势在于深度压缩自动编码器和高效的线性DiT模块。
微软发布rStar-Math技术,让小型语言模型具备深度思考能力。通过蒙特卡罗树搜索方法,该技术在多个开源模型测试中取得了显著提升,甚至超越了OpenAI的o1-preview系统。
专注AIGC领域的专业社区分享了PRIME(Process Reinforcement through IMplicit REwards)算法在训练数学能力强大的7B模型方面的进展,该方法仅用8张A100、花费一万左右的成本,在不到10天内高效训练出了一个超过GPT-4和Llama-3.1-70B的7B模型Eurus-2-7B-PRIME,实现美国IMO选拔考试AIME 2024中准确率提升至26.7%。
中国AI创业者背景多元,涵盖名校大厂和各领域专家。北京、广东、上海是主要聚集地,AIGC/大模型、自动驾驶、人形机器人等赛道涌现独角兽企业。面对技术、市场和资金挑战,创业者需积极应对策略。
最近,《Nature》发布全球AI研究领域TOP100高校榜单。哈佛、斯坦福和麻省理工学院位列前三,美国共有46所大学上榜。清华大学和北京大学分别排名第9和第14位。中国有19所高校上榜,为所有国家中增长速度最快的。