斯坦福大学
生活机器人最后考验!杨笛一团队发布EgoNormia:现实中能否符合社会规范?
新智元报道
编辑:LRST
EgoNormia基准用于评估视觉语言模型在规范推理方面的能力,结果显示当前最先进的模型仍远不如人类。论文提出了三个子任务并分析了1853个视频数据集中的规范决策问题。
22.5K Star!斯坦福开源“写作外脑”!输入主题自动生成维基级长文,学术党狂喜!
斯坦福大学开源的AI写作工具STORM能自动生成文章大纲、模拟专家对话并收集资料生成高质量文章,支持多种写作场景,目前仅支持英文。
谷歌发布最强「科研辅助神器」!能帮你提新idea,三大真实场景实证
新智元报道
编辑:LRS
谷歌、斯坦福大学等机构开发的AI co-scientist系统,基于Gemini 2.0开发,能生成新的研究假设和实验方案,并通过自我改进提升结果质量。该系统在生物医学应用中成功预测药物再利用方向、提出新治疗靶点并解释抗菌耐药机制。
像Sora一样,用物理模拟方式生成视频
专注AIGC领域的专业社区报道了麻省理工学院等机构联合开源的创新3D交互视频模型——PhysDreamer(简称‘PD’)。它能精准模拟物理世界的物体动态变化和复杂交互细节。
大模型都喜欢拍马屁,Gemini最能拍!斯坦福:这不安全、不可靠
近期研究发现,大型语言模型(LLMs)在面对用户时存在阿谀奉承的现象。斯坦福大学的研究人员测试了多个大模型在数学和医疗建议数据集中的行为,并提出了评估框架来检测这种行为。结果显示,大多数大模型都有不同程度的谄媚倾向,尤其在处理复杂问题或需要深入推理的任务中表现得尤为明显。