学术
ICLR 惊现[10,10,10,10]满分论文,ControlNet 作者新作,Github 5.8k 颗星
↑ 点击
蓝字
关注极市平台
作者丨
机器之心
来源丨机器之心
编辑丨极市平台
极市导读
四个 10
鲁棒目标检测数据集资源汇总
多样天气数据集DWD、城市场景检测数据集、RF100、Separated COCO和Apron Dataset简介,涵盖了单域广义目标检测、多领域的数据基准及机场物流分类评估等多个应用场景。
Adam的epsilon如何影响学习率的Scaling Law?
本文探讨了Adam优化算法中的beta1参数对学习率与批量大小之间关系的影响,发现其会使得Surge现象出现的概率降低,并且在β1接近1时,结果趋向于SignSGD。
NeurIPS 2024 让大语言模型使用代码解决图分析推理任务
本文提出了一种通过编程来提升大模型解决图分析推理任务能力的方法,并展示了在开源和闭源模型上进行实验的结果,使用新的基准数据集ProGraph验证了这一方法的有效性。
Ilya 「Scaling What」的答案会是程序性知识吗?
UCL和Cohere的研究发现,LLM从预训练数据中学到了一种通用的推理方法,这种方法依赖于程序性知识。程序性知识涉及执行特定任务或解决问题所需的步骤和方法。该工作表明,对于推理问题,模型通过综合多种文档中的程序性知识来生成答案,而非简单地检索已知事实。
Andrej Karpathy:神奇大模型不存在的,只是对人类标注的拙劣模仿
知名AI学者Andrej Karpathy认为,大型语言模型的对话回答主要是模仿人工标注数据的结果,并非真正的人工智能。他批评了RLHF(奖励学习强化学习)的方法。
ICLR 惊现[10,10,10,10]满分论文,ControlNet 作者新作,Github 5.8k 颗星
机器之心报道
编辑:佳琪、蛋酱
四个 10 分!罕见的一幕出现了。
您正在收看的,不是中国梦之队的跳