Magic 1-For-1: эффективная генерация видео - проект с открытым исходным кодом, претендующий на создание одноминутного видео за одну минуту

Общее введение

Magic 1-For-1 - это эффективная модель генерации видео, разработанная для оптимизации использования памяти и уменьшения времени ожидания вывода. Модель декомпозирует задачу генерации текста в видео на две подзадачи: генерацию текста в изображение и генерацию изображения в видео для более эффективного обучения и дистилляции. Magic 1-For-1 может генерировать высококачественные одноминутные видеоклипы менее чем за минуту для сценариев, в которых необходимо быстро генерировать короткие видео. Проект был разработан исследователями из Пекинского университета, Hedra Inc. и Nvidia, а код и весовые коэффициенты модели находятся в открытом доступе на GitHub.

Magic 1-For-1: 高效生成视频的开源项目,号称在一分钟内生成一分钟的视频

 

Список функций

  • Генерация текста в изображение: преобразование входного текстового описания в изображение.
  • Генерация изображений в видео: преобразование сгенерированных изображений в видеоклипы.
  • Эффективное использование памяти: оптимизация использования памяти для сред с одним GPU.
  • Быстрый вывод: уменьшение задержки вывода для быстрого создания видео.
  • Загрузка весов модели: предоставляет ссылки для загрузки предварительно обученных весов модели.
  • Настройка среды: содержит подробное руководство по настройке среды и установке зависимостей.

 

Использование помощи

Параметры окружающей среды

  1. Установите git-lfs:
   sudo apt-get install git-lfs
  1. Среда Conda создана и активирована:
   conda create -n video_infer python=3.9
conda activate video_infer
  1. Установите зависимости проекта:
   pip install -r requirements.txt

Скачать модельные веса

  1. Создайте каталог для хранения предварительно обученных весов:
   mkdir pretrained_weights
  1. Скачать Магия 1-For-1 весов:
   wget -O pretrained_weights/magic_1_for_1_weights.pth <model_weights_url>
  1. Загрузите компонент "Обнимающиеся лица":
   huggingface-cli download tencent/HunyuanVideo --local_dir pretrained_weights --local_dir_use_symlinks False
huggingface-cli download xtuner/llava-llama-3-8b-v1_1-transformers --local_dir pretrained_weights/text_encoder --local_dir_use_symlinks False
huggingface-cli download openai/clip-vit-large-patch14 --local_dir pretrained_weights/text_encoder_2 --local_dir_use_symlinks False

Создать видео

  1. Выполните следующие команды для генерации текста и изображения в видео:
   python test_ti2v.py --config configs/test/text_to_video/4_step_ti2v.yaml --quantization False
  1. Или воспользуйтесь предоставленным скриптом:
   bash scripts/generate_video.sh

Подробный порядок работы функций

  1. Генерация текста в изображение: Введите текстовое описание, и модель сгенерирует соответствующее изображение.
  2. Генерация изображений в видео: Введите сгенерированные изображения в модуль генерации видео для создания коротких видеоклипов.
  3. Эффективное использование памяти: Обеспечивает эффективную работу даже в средах с одним GPU, оптимизируя использование памяти.
  4. быстрый вывод: Сокращение задержки вывода и достижение быстрого создания видео для сценариев, требующих быстрого создания коротких видео.
© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...