Sora又被超越!Meta AI视频模型深夜炸场自带惊艳BGM让视频编辑比P图还简单

发布时间:2024-10-09 07:58:08浏览次数:1作者:乐鱼在线登录-媒体公告

  前不久,开启「二次创业」的他刚向我们展示了十年磨一剑的最强 AR 眼镜 Meta Orion,尽管这只是一款押注未来的原型机器,却抢光了苹果 Vision Pro 的风头。

  官方宣称正在积极地与娱乐行业的专业技术人员和创作者做沟通和合作,预计将在明年某个时候将其整合到 Meta 自己的产品和服务中。

  细分来说,Movie Gen 具有视频生成、个性化视频生成、精确视频编辑和音频生成四大功能。

  文生视频功能早已成为视频生成模型的标配,只是,Meta Movie Gen 可以依据用户的需求生成不同长宽比的高清视频,这在业内尚属首创。

  此外,Meta Movie Gen 提供了高级的视频编辑功能,用户只需通过简单的文本输入就可以实现复杂的视频编辑任务。

  从视频的视觉风格,到视频片段之间的过渡效果,再到更细致的编辑操作,这一点,该模型也给足了自由。

  用户能够最终靠上传自己的图片,利用 Meta Movie Gen 生成既个性化但又保持人物特征和动作的视频。

  尽管今年陆续已有不少视频模型相继亮相,但大多只能生成「哑剧」,食之无味弃之可惜,Meta Movie Gen 也没有「重蹈覆辙」。

  用户可以通过提供视频文件或文本内容,让 Meta Movie Gen 依据这一些输入生成相对应的音频。(PS:注意滑板落地的配音)

  并且,它不但可以创建单个的声音效果,还可以创建背景音乐,甚至为整个视频制作完整的配乐,从而极大地提升视频的整体质量和观众的观看体验。

  许多网友再次「拉踩」OpenAI 的期货 Sora,但更多翘首以待的网友慢慢的开始期待测试体验资格的开放了。

  其中,Movie Gen Video 是一个 30B 参数的基础模型,用于文本到视频的生成,能够生成高质量的高清视频,最长可达 16 秒。

  模型预训练阶段使用了大量的图像和视频数据,能够理解视觉世界的各种概念,包括物体运动、交互、几何、相机运动和物理规律。

  为了提高视频生成的质量,模型还进行了监督微调(SFT),使用了一小部分用尽心思挑选的高质量视频和文本标题。

  报告显示,后训练(Post-training)过程则是 Movie Gen Video 模型训练的重要阶段,能够进一步提升视频生成的质量,尤其是针对图像和视频的个性化和编辑功能。

  值得一提的是,研究团队也将 Movie Gen Video 模型与主流视频生成模型进行了对比。

  由于 Sora 目前尚未开放,研究人员只可以使用其公开发布的视频和提示来作比较。对其他模型,如 Runway Gen3、LumaLabs 和 可灵 1.5,研究人员选择通过 API 接口来自行生成视频。

  且由于 Sora 发布的视频有不同的分辨率和时长,研究人员对 Movie Gen Video 的视频进行了裁剪,以确保比较时视频具有相同的分辨率和时长。

  而 Movie Gen Audio 模型则是一个 13B 参数的模型,用于视频和文本到音频的生成,能够生成长达 45 秒的高质量和高保真的音频,包括声音效果和音乐,并与视频同步。

  该模型采用了基于 Flow Matching 的生成模型和扩散变换器(DiT)模型架构,并添加了额外的条件模块来提供控制。

  甚至,Meta 的研究团队还引入了一种音频扩展技术,允许模型生成超出初始 45 秒限制的连贯音频,也就是说,无论视频多长,模型都能够生成匹配的音频。

  Meta Movie Gen 当前使用文本提示词生成一个视频往往需要等待数十分钟,极大影响了用户的体验。

  Meta 希望进一步提升视频生成的效率,以及实现尽快在移动端上推出该视频服务,以便能更好地满足那群消费的人的需求。

  其实如果从产品形态上看,Meta Movie Gen 的功能设计主打一个大而全,并没有像其他视频模型那样的「瘸一条腿」。

  或许你会说,一如当下的 Sora 被国产大模型赶超,等到 Meta Movie Gen 推出之时,视频生成领域的竞争格局或许又会变换一番光景。

上一篇:国际在线:发挥多语种传播优势 积极打造融媒体精品策划 认线周年宣传报道 下一篇:陕西神木宣传片花费527万 拍的是好莱坞大片?