综合介绍
HunyuanVideoGP是一个由DeepBeepMeep开发的大规模视频生成模型,专为低端GPU用户设计。该模型是对原始Hunyuan Video模型的改进版本,显著降低了内存和显存需求,使其能够在12GB至24GB的GPU上流畅运行。HunyuanVideoGP通过编译和快速加载/卸载技术,大幅提升了生成速度,并提供了多种配置文件,以适应不同硬件配置。该模型还集成了多种预训练的Loras,支持多次提示和多次生成,用户可以轻松切换不同的模型和量化/非量化模型。你也可以在 pinokio 一键部署。
功能列表
- 支持低端GPU运行(12GB至24GB显存)
- 显著降低内存和显存需求
- 快速加载/卸载技术
- 多种配置文件,适应不同硬件配置
- 支持多次提示和多次生成
- 集成多种预训练的Loras
- 改进的Gradio界面,带有进度条和更多选项
- 自动下载所需的模型文件
- 支持在Linux和WSL上编译
使用帮助
安装流程
- 准备Conda环境:
conda env create -f environment.yml
- 激活环境:
conda activate HunyuanVideo
- 安装pip依赖:
python -m pip install -r requirements.txt
- 可选:安装Flash attention支持(Linux易于安装,Windows较难):
# 具体安装步骤请参考官方文档
使用流程
- 启动Gradio服务器:
bash launch.sh
- 打开浏览器,访问本地服务器地址(通常为http://localhost:7860),进入Gradio界面。
- 在Gradio界面中,选择所需的配置文件和模型,输入提示词,点击生成按钮。
- 生成的视频将显示在界面上,用户可以下载或进一步编辑。
主要功能操作
- 选择配置文件:根据硬件配置选择合适的配置文件,以优化生成速度和质量。
- 输入提示词:在提示框中输入描述性文字,模型将根据提示生成相应的视频内容。
- 多次生成:支持在一次提示下生成多个视频,用户可以选择最满意的结果。
- 切换模型:支持在不同的Hunyuan和Fast Hunyuan模型之间切换,满足不同需求。
- 量化/非量化模型:用户可以选择使用量化或非量化模型,以平衡生成速度和质量。