Wan-Move - 阿里通义联合清华等开源的AI视频生成框架

最新AI资源9小时前发布 AI分享圈
1.2K 00
堆友AI

Wan-Move是什么

Wan-Move是阿里通义实验室、清华大学等机构联合开发的开源AI视频生成框架,专注于通过精准运动控制技术实现高质量视频合成。核心技术是"潜在轨迹引导",能在现有图像到视频模型基础上无缝添加点级运动控制,支持5秒480P视频生成,运动控制精度超越主流开源方案22.5%。框架无需修改基础模型架构,通过复制第一帧特征到后续帧实现运动注入,适用于单目标、多目标及复杂场景(如多人互动、物体交互),并在MoveBench基准测试中取得FID 12.2、EPE 2.6的顶尖性能。用户可通过ComfyUI插件或云端平台体验,模型已在GitHub开源。

Wan-Move - 阿里通义联合清华等开源的AI视频生成框架

Wan-Move的功能特色

  • 单目标运动控制:可以对视频中的单个物体进行精确的运动控制。
  • 多目标运动控制:支持对视频中多个物体的运动进行独立控制。
  • 与学术和商业方法的比较:在网站上有与现有学术方法和商业解决方案的定性比较。
  • 相机控制:能控制视频中的相机运动。
  • 运动转移:可以将一个视频中的运动转移到另一个视频中。
  • 3D 旋转:支持生成具有3D旋转效果的视频。

Wan-Move的核心优势

  • 高质量运动控制:能生成高质量的 5 秒、480p 视频,运动控制效果与商业系统相当,满足专业视频创作需求。
  • 无需额外模块:无需对现有图像到视频模型进行架构更改,也无需添加额外的运动编码器,降低了使用门槛和开发成本。
  • 细粒度点级控制:支持对场景中每个元素的精确运动控制,实现区域级的运动定制,满足复杂场景下的多样化需求。
  • 大规模训练与优化:通过大规模数据训练,确保生成视频的视觉效果和运动准确性,提升整体性能。
  • 基准测试支持:提供 MoveBench 基准测试,包含大规模样本和高质量轨迹注释,便于评估和对比不同方法的效果。
  • 开源与易用性:代码、模型权重和基准测试均已开源,用户可以快速上手并进行二次开发,具有良好的扩展性和社区支持。

Wan-Move官网是什么

  • 项目官网:https://wan-move.github.io/
  • Github仓库:https://github.com/ali-vilab/Wan-Move
  • HuggingFace模型库:https://huggingface.co/Ruihang/Wan-Move-14B-480P
  • arXiv技术论文:https://arxiv.org/pdf/2512.08765

Wan-Move的适用人群

  • 视频创作者:需要制作动画、特效或创意视频的专业人员,可通过 Wan-Move 快速生成具有特定运动效果的视频内容。
  • 广告与营销人员:用于制作吸引人的广告视频,提升品牌宣传效果,适合需要高效生成高质量视频素材的营销团队。
  • 视频编辑师:在视频后期制作中,用于快速调整和优化视频内容,如运动复制、相机运动控制等,提高工作效率。
  • 教育工作者:用于制作教学视频,通过动态演示帮助学生更好地理解和学习知识,适合教育领域的内容创作者。
  • 游戏开发者:用于生成游戏中的动画效果,如角色动作、场景变化等,提升游戏的视觉效果和用户体验。
  • 技术研究人员:对视频生成和运动控制技术感兴趣的研究人员,可通过开源代码和基准测试进行研究和开发。
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...