Midjourney正式推出 V1 视频模型:美学细节无敌



Midjourney推出视频生成模型V1,主打高性价比、易于上手的视频生成功能,作为其实现“实时模拟世界”愿景的第一步。用户现在可以通过动画化Midjourney图片或自己的图片来创作短视频,定位为有趣、易用、美观且价格亲民

Midjourney一如既往,视频模型在美学细节上下了一番功夫,这是官方放出的宣传视频,大家感受一下

V1工作流程与主要功能

核心流程:采用“图像转视频” (Image-to-Video) 的工作方式。用户先生成一张满意的图片,然后点击新增的 “Animate” 按钮来使其动画化。

支持外部图片:用户可以上传自己的图片,然后通过输入运动提示词来生成视频。

两种动画模式

自动模式 (Automatic):AI 会自动为你生成“运动提示”,简单快捷

手动模式 (Manual):用户可以自己写提示词,精确描述希望物体和场景如何运动

两种运动幅度设置

低运动 (Low motion):适合相机基本不动、主体缓慢运动的场景(如氛围图),但有时可能完全不动。

高运动 (High motion):适合相机和主体都大幅度运动的场景,效果更动态,但更容易出错

视频扩展:生成的视频可以被“扩展”,每次延长约4秒,最多可延长四次,目前视频分辨率为480p

成本与定价策略

入门价格:每月10美元即可使用。

可用平台:发布初期仅限网页版 (web-only)

任务成本

一个视频任务的成本约等于8个图像任务

每个视频任务会生成四个5秒钟的视频

一个视频的成本大致相当于一次图像放大 (upscale)的成本,即每秒视频约等于一张图的成本

市场优势:官方称其价格比市场同类产品便宜超过25倍

Pro 用户福利:“Pro”及更高级别的订阅者将可以测试视频的“放松模式” (relax mode:无限量生成,速度较慢)

价格调整:未来一个月会根据用户使用情况和服务器负载,对价格进行调整以确保业务可持续

长期愿景与未来计划

最终目标:实现能够实时交互的开放世界模拟系统 (real-time open-world simulations),视频模型是实现该愿景的关键一步。未来将继续独立开发3D模型、实时渲染模型等模块,并最终将它们整合成一个统一系统



(文:AI寒武纪)

发表评论