在线教程|新加坡国立大学 Show Lab 发布 OmniConsistency 模型,实现即插即用的图像风格迁移

作者:椰椰

编辑:李宝珠

转载请联系本公众号获得授权,并标明来源


「OmniConsistency:GPT-4o 级的人物风格迁移模型」已上线至 HyperAI超神经官网的「教程」板块,仅需上传图片,即可实现高质量风格图像生成,快来体验吧!


图像风格化旨在通过风格化模型,将一幅图像在保持语义内容不变的同时从一种风格转换到另一种风格。近年随着扩散模型的出现,主流图像风格化方法从基于深度神经网络,转向了通过低秩适配(Low-Rank Adaptation, LoRA)微调的方法,并结合图像一致性模块,显著提升了风格化质量。


尽管图像风格化模型获得了市面上不错的反馈,但目前的图像风格化方法仍面临三大关键挑战:首先,风格化输出与输入之间的一致性有限——现有模块虽能确保整体结构对齐,但在复杂场景中难以保留细节和语义信息;其次,在图像到图像场景中存在风格退化问题——LoRA 和 IPAdapter 在该设置下的风格保真度通常低于文本生成图像的情况;第三,布局控制灵活性不足——依赖刚性条件(如边缘、草图、姿态)的方法难以支持如 Q 版变换等创意结构变化。


为了弥合这一差距,新加坡国立大学 Show Lab 实验室于 2025 年 5 月 28 日发布了一个利用大规模扩散 Transformer(DiT)的通用一致性插件——OmniConsistency。它是一个完全即插即用的设计,兼容 Flux 框架下任意风格的 LoRA,基于风格化图像对的一致性学习机制,以实现稳健的泛化。


实验表明,OmniConsistency 显著提升了视觉连贯性和美学质量,实现了与 GPT-4o 相当的性能,填补了开源模型与商业模型在风格一致性上的性能差距,为 AI 创作提供了低成本、高可控的解决方案。此外,其兼容性和即插即用特性也降低了开发者与创作者的使用门槛。


目前,「OmniConsistency:GPT-4o 级的人物风格迁移模型」已上线至 HyperAI超神经官网的「教程」板块,点击下方链接即可体验一键部署教程 ⬇️


* 教程地址https://go.hyper.ai/3mCyv


我们还为新注册用户准备了惊喜福利,使用邀请码「OmniConsistency」注册 OpenBayes 平台,即可获得 4 小时 RTX A6000 免费使用时长(资源有效期为 1 个月),数量有限,先到先得!


Demo 运行

1.进入 hyper.ai 首页后,选择「教程」页面,并选择「OmniConsistency:GPT-4o 级的人物风格迁移模型」,点击「在线运行此教程」。




2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。




3.选择「NVIDIA RTX A6000 48GB」以及「PyTorch」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!


HyperAI超神经专属邀请链接(直接复制到浏览器打开):

https://openbayes.com/console/signup?r=Ada0322_NR0n












4.等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁边的跳转箭头,即可跳转至 Demo 页面。由于模型较大,需等待约 3 分钟显示 WebUI 界面,否则将显示「Bad Gateway」。请注意,用户需在实名认证后才能使用 API 地址访问功能。



效果演示

笔者上传了一张人像图片,「Select built-in LoRA」参数为 LEGO,效果如下图所示~




 往期推荐 


“阅读原文”,免费获取海量数据集资源!


(文:HyperAI超神经)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往