打破纪录!谷歌全网扒1000亿图像文本对,ViT大佬坐镇:数据Scaling潜力依旧

谷歌推出WebLI-100B数据集,包含1000亿图像-文本对,显著提升多模态模型的文化多样性和多语言能力。研究发现,虽然CLIP等模型过滤筛选数据的过程可能降低模型的多元性,但更大规模的数据有助于改善模型在文化多样性和语言处理方面的表现。

AI意识更进一步!谷歌DeepMind等:LLM不仅能感受痛苦,还能趋利避害

谷歌团队和LSE的研究表明,大语言模型在面对选择时能够权衡痛苦与快乐,这可能是实现’有意识AI’的第一步。该研究通过游戏测试发现,LLM能够在不同疼痛程度下做出权衡选择,类似于人类的本能行为。