Transformer
MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍
MIT 研究人员提出一种使用Transformer解决Empirical Bayes(mean estimation)任务的方法,并发现Transformer在该任务上的性能优于经典方法,且运行速度更快。
谷歌提出Titans:突破算力限制,扩展上下文
专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言等大语言模型发展和应用落地。谷歌发布新研究Titans,通过神经长期记忆模块扩展大模型上下文窗口至200万token,超越现有Transformer模型。
微软发布创新大模型:一张图片就能生成游戏,游戏界ChatGPT来了
专注于AIGC领域的专业社区报道了微软发布的专用于游戏领域的创新大模型——Muse,它通过游戏画面和控制器操作序列化数据生成连贯的游戏场景和玩法。
入选AAAI 2025!解决医学图像分割软边界与共现难题,中国地质大学等提出图像分割模型ConDSeg
驱动医学图像分割通用框架 ConDSeg,解决了医学图像分割中的「软边界」和共现现象两大难题。
医学