当前位置: 欣欣网 > 码农

AI视频革新,东京大学、腾讯共同开源图片生成视频项目,可控制运动轨迹

2024-06-04码农

项目简介

MOFA-Video是一款基于Pytorch的官方实现,专注于通过生成性运动场适应技术在冻结的图像到视频扩散模型中实现可控制的图像动画。该项目的核心在于运用稳定视频扩散模型,引入ControlNet灵感的MOFA适配器,使得用户能够根据多种稀疏控制信号将输入图像动画化。MOFA-Video具备在多个域之间调整动作的能力,使其成为在视频生成和图像处理领域的一个创新工具。

扫码加入AI交流群

获得更多技术支持和交流

(请注明自己的职业)

DEMO

1. 轨迹控制 + 地标控制

2. 轨迹控制

3. 地标控制

技术

MOFA-Video是一种设计用来将不同领域中的动作适应到冻结的视频扩散模型的方法。通过使用稀疏到密集(S2D)运动生成和基于流的运动适应,MOFA-Video能够使用各种类型的控制信号有效地对单个图像进行动画处理,包括轨迹、关键点序列及其组合。

在训练阶段,通过稀疏运动采样生成稀疏控制信号,然后训练不同的MOFA-适配器通过预训练的SVD生成视频。在推理阶段,不同的MOFA-适配器可以组合在一起,共同控制冻结的SVD。

项目链接

https://github.com/MyNiuuu/MOFA-Video

关注「 开源AI项目落地 」公众号

与AI时代更靠近一点