LHM: generación de modelos humanos 3D con movimiento a partir de una sola imagen

Introducción general

LHM (Large Animatable Human Reconstruction Model) es un proyecto de código abierto desarrollado por el equipo de aigc3d que permite generar rápidamente modelos humanos en 3D a partir de una sola imagen. LHM utiliza la tecnología 3D Gaussian Splatting para representar el cuerpo humano, combinada con una arquitectura de transformadores multimodal que conserva la textura de la ropa y los detalles geométricos. El proyecto, publicado por primera vez el 13 de marzo de 2025, proporciona modelos preentrenados y un código adecuado para la investigación o el desarrollo de aplicaciones digitales 3D relacionadas con el ser humano.

LHM:从单张图片生成支持动作的3D人体模型

 

Lista de funciones

  • Genere un maniquí 3D a partir de una sola imagen en cuestión de segundos.
  • Permite la renderización en tiempo real y la visualización directa del modelo generado.
  • Proporcionar la función de acción para ajustar la postura del cuerpo humano para generar vídeo dinámico.
  • Salida de archivos de malla 3D (por ejemplo, en formato OBJ) para su posterior edición.
  • Se incluyen modelos preentrenados (por ejemplo, LHM-0,5B y LHM-1B) que no necesitan entrenarse.
  • Interfaz Gradio integrada con soporte de visualización local.
  • Proporciona un canal de procesamiento de vídeo que puede extraer acciones del vídeo para aplicarlas a los modelos.

 

Utilizar la ayuda

El uso de LHM se divide en dos partes: instalación y funcionamiento. A continuación se detallan los pasos para ayudarte a empezar rápidamente.

Proceso de instalación

  1. Preparar el entorno
    El sistema requiere Python 3.10 y CUDA (compatible con las versiones 11.8 o 12.1). Se recomienda una tarjeta gráfica NVIDIA, como una A100 o 4090, con al menos 16 GB de memoria de vídeo.

    • Compruebe la versión de Python:
      python --version
      
    • Compruebe la versión CUDA:
      nvcc --version
      
  2. almacén de clones
    Introduzca el siguiente comando en el terminal para descargar el código LHM:

    git clone https://github.com/aigc3d/LHM.git
    cd LHM
  1. Instalación de dependencias
    Ejecute el script correspondiente según su versión CUDA:

    • CUDA 11.8:
      sh ./install_cu118.sh
      
    • CUDA 12.1:
      sh ./install_cu121.sh
      

    Si el script falla, instale las dependencias manualmente:

    pip install -r requirements.txt
    
  2. Descargar modelos
    El modelo se descargará automáticamente. Si desea descargarlo manualmente, utilice el siguiente comando:

    • Modelo LHM-0.5B:
      wget https://virutalbuy-public.oss-cn-hangzhou.aliyuncs.com/share/aigc3d/data/for_lingteng/LHM/LHM-0.5B.tar
      tar -xvf LHM-0.5B.tar
      
    • Modelo LHM-1B:
      wget https://virutalbuy-public.oss-cn-hangzhou.aliyuncs.com/share/aigc3d/data/for_lingteng/LHM/LHM-1B.tar
      tar -xvf LHM-1B.tar
      

    Descárguelo y extráigalo al directorio raíz del proyecto.

  3. Verificar la instalación
    Ejecute los comandos de prueba para asegurarse de que el entorno es correcto:

    python app.py
    

    Si tiene éxito, se iniciará la interfaz de Gradio.

flujo de trabajo

Generar modelos 3D

  1. Preparar la imagen
    Prepare una imagen clara que contenga todo el cuerpo humano y guárdela localmente, por ejemplo<path_to_image>/person.jpg.
  2. Ejecución de scripts de inferencia
    Introdúcelo en el terminal:

    bash ./inference.sh ./configs/inference/human-lrm-1B.yaml LHM-1B <path_to_image>/ ./output/
    
    • <path_to_image>es la ruta a su imagen.
    • ./output/es la carpeta de salida donde se guardan los resultados generados.
  3. Ver resultados
    Tras generar el<output>La carpeta tendrá el archivo del modelo 3D y el vídeo renderizado. Puedes abrir los archivos de malla con software 3D (por ejemplo, Blender) o reproducir los vídeos directamente.

Añadir acción

  1. Secuencia de movimientos preparatorios
    El proyecto proporciona archivos de acción de ejemplo, ubicados en el directorio<LHM根目录>/train_data/motion_video/mimo1/smplx_params. También puede utilizar su propio archivo de parámetros SMPL-X.
  2. Ejecución de guiones de acción
    Introduzca el siguiente comando:

    bash ./inference.sh ./configs/inference/human-lrm-1B.yaml LHM-1B <path_to_image>/ <path_to_motion>/smplx_params
    
    • <path_to_motion>es la ruta del archivo de acción.
  3. Vista previa del vídeo de acción
    La carpeta de salida genera un vídeo de acción, que puede reproducirse directamente.

Uso de la interfaz de Gradio

  1. Interfaz de lanzamiento
    Se ejecuta en el terminal:

    python app.py
    

    Se abrirá el navegadorhttp://0.0.0.0:7860.

  2. Subir una foto
    Cargue una foto de su cuerpo en la interfaz y haga clic en "Enviar".
  3. Obtener resultados
    Al cabo de unos segundos, la interfaz mostrará la imagen renderizada y el vídeo de la acción, que pueden descargarse y visualizarse.

Exportación de mallas 3D

  1. Ejecutar el script de exportación
    Entrada:

    bash ./inference_mesh.sh ./configs/inference/human-lrm-1B.yaml LHM-1B
    
  2. Encuentra el archivo.
    La carpeta de salida tendrá archivos de malla en formato OBJ, que se pueden editar con software 3D.

advertencia

  • Las imágenes deben ser claras y los fondos sencillos funcionan mejor.
  • El efecto de la acción depende de la calidad de la acción de entrada.
  • Si no tienes suficiente memoria de vídeo, prueba el modelo LHM-0.5B.

 

escenario de aplicación

  1. desarrollo de juegos
    Los desarrolladores pueden utilizar LHM para generar rápidamente modelos 3D de personajes a partir de fotos, ajustar las poses e importarlos al motor del juego, ahorrando tiempo de modelado.
  2. producción de cine y televisión
    Los equipos de cine y televisión pueden utilizar LHM para crear dobles digitales y generar vídeos de acción para su uso en escenas de efectos especiales, reduciendo así los costes de modelado manual.
  3. presentador virtual (TV)
    Los anfitriones pueden subir sus propias fotos para generar una imagen en 3D y luego añadir acciones para crear una imagen virtual personalizada.
  4. Investigación educativa
    Los investigadores pudieron probar algoritmos de reconstrucción 3D con LHM o demostrar el proceso de conversión de imágenes a modelos en el aula.

 

CONTROL DE CALIDAD

  1. ¿Qué formatos de imagen admite LHM?
    Se admiten formatos comunes como JPG, PNG, se recomienda JPG y que el tamaño del archivo no supere los 10 MB.
  2. ¿Cuánto se tarda en generar un modelo?
    Alrededor de 0,2 segundos en tarjetas A100, 1-2 segundos en tarjetas 4090, varía ligeramente en función del hardware.
  3. ¿Puedo entrenar yo mismo al modelo?
    Es posible, pero no se facilitan oficialmente guiones de entrenamiento. Requiere preparar el conjunto de datos y afinar el código, apto para usuarios con experiencia.
  4. ¿Se puede editar el modelo 3D de salida?
    Puede. Tras exportar el archivo OBJ, edita la geometría y las texturas con Blender o Maya.
© declaración de copyright

Puestos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...