ICLR 惊现[10,10,10,10]满分论文,ControlNet 作者新作,Github 5.8k 颗星
机器之心报道
编辑:佳琪、蛋酱
四个 10 分!罕见的一幕出现了。
您正在收看的,不是中国梦之队的跳
机器之心报道
编辑:佳琪、蛋酱
四个 10 分!罕见的一幕出现了。
您正在收看的,不是中国梦之队的跳
ChatGPT 发布两年后,OpenAI 引领着 AI 发展潮流,但开源竞争者也在奋力追赶。扩散模型的成功推动了视觉生成模型的发展。小模型、多模态和具身智能等领域也备受关注。
LLM 规模扩展面临挑战,加州大学伯克利分校团队提出预测涌现能力的任务,并通过拟合参数函数——’涌现定律’来验证和提前准确预测涌现点。研究使用四个标准 NLP 基准进行验证。
一个刚发布两天的开源模型QwQ在AI数学奥林匹克竞赛AIMO上创造了新纪录,其表现甚至比之前的开源模型更好。QwQ系列大模型,特别是QwQ-32B,在科学推理能力方面表现出研究生水平,并在多个评测中取得了高分。
AtomThink 是一个全流程框架,通过改进多模态大语言模型的原子推理步骤质量来解决复杂的数学推理问题。它发布了一个高质量的长链式思考数据集,并引入了慢思考策略提高了各种数学任务的推理性能。
本文提出了一种名为 stream-x 的深度强化学习算法,用于解决流式障碍问题。该方法无需使用重放缓冲区、批量更新或目标网络,即可从最新的经验中进行学习,并且在样本效率上可与批量强化学习相当。
斯坦福大学的研究提出了一种名为扩散自蒸馏(Diffusion Self-Distillation)的方法,该方法通过简单扩展普通扩散 transformer 模型为图像条件扩散模型来实现主体适应性和概念一致性。实验表明,其在概念保留和提示跟随方面都取得了最佳的整体性能。