学术
遗憾不?原来百度2017年就研究过Scaling Law,连Anthropic CEO灵感都来自百度
机器之心报道
机器之心编辑部
原来早在 2017 年,百度就进行过 Scaling Law 的相关研
跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本
CLIP 模型通过对比学习实现了视觉与文本的对齐。然而其文本处理能力有限,研究团队提出 LLM2CLIP 方法利用大语言模型提升 CLIP 的多模态表示学习能力,显著提升了 CLIP 在中文检索任务中的表现,并在复杂视觉推理中提升了 LLaVA 模型的表现。
Sora就这么泄露了三小时,网友调侃Altman急拔网线,艺术家们也在抗议被「白嫖」
OpenAI 的 API 被泄露,艺术家发起公开信抗议无偿测试。用户可以使用 API 生成高质量视频,但仅能通过简易前端访问,三个小时后访问被关闭。艺术家认为自己是被引诱进行「艺术清洗」,呼吁 OpenAI 改变做法并为艺术家提供公平报酬。
图像超补全(Outpainting)技术的前沿模型与数据集资源汇总
本文汇总了图像超补全(Outpainting)技术的前沿模型和数据集资源,包括PQDiff、QueryOTR、U-Transformer和In&Out等方法。
WSDM 2025 从谱视角揭开推荐系统流行度偏差放大之谜
本文揭示了推荐系统流行度偏差放大的原因,提出了一种基于正则项的方法——ReSN来缓解这一问题。通过引入谱范数正则项,约束评分矩阵的权重以减少流行度偏差的影响。