Hunyuan3D-2: herramienta de código abierto de Tencent para la generación de modelos 3D de alta resolución
Últimos recursos sobre IAPublicado hace 6 meses Círculo de intercambio de inteligencia artificial 14.2K 00
Introducción general
Hunyuan3D-2 es un proyecto de código abierto desarrollado por Tencent, cuyo objetivo es generar modelos 3D de alta resolución a partir de texto o imágenes. Consta de dos componentes básicos: modelo de generación de formas (Hunyuan3D-DiT) y modelo de generación de texturas (Hunyuan3D-Paint). Los usuarios pueden introducir descripciones de texto o subir imágenes para generar activos digitales 3D con texturas detalladas. La herramienta está disponible gratuitamente en GitHub con código y modelos preentrenados, y la última versión se actualizó el 18 de marzo de 2025. Admite varios modelos, incluida una versión rápida y una versión mini para distintos dispositivos.Hunyuan3D-2 se utiliza ampliamente en el desarrollo de juegos, el arte digital y la investigación.

Lista de funciones
- Soporte para generar modelos 3D a partir de texto, los usuarios pueden introducir una descripción para generar la geometría correspondiente.
- Soporte para generar modelos 3D a partir de imágenes y generar activos 3D con texturas tras cargar imágenes.
- Proporciona una salida de alta resolución con detalles nítidos en los modelos y colores vibrantes en las texturas.
- Contiene el modelo de generación de formas (Hunyuan3D-DiT), responsable de generar la geometría subyacente.
- Incluye modelo de generación de texturas (Hunyuan3D-Paint) para añadir texturas de alta resolución al modelo.
- Soporta la generación multivista (Hunyuan3D-2mv) para optimizar el modelo desde múltiples perspectivas.
- Existe una versión mini del modelo (Hunyuan3D-2mini), con sólo 600 millones de parámetros y un funcionamiento más rápido.
- Admite una versión rápida del modelo (Fast), que reduce a la mitad el tiempo de inferencia y lo hace más eficiente.
- Blender puede integrarse para generar y editar modelos 3D directamente a través del plug-in.
- Código fuente abierto y modelos que los usuarios pueden descargar y modificar libremente.
Utilizar la ayuda
Hunyuan3D-2 es una potente herramienta que requiere algunas bases de hardware y programación. A continuación se ofrece una guía detallada de instalación y uso para ayudar a los usuarios a iniciarse rápidamente.
Proceso de instalación
- Preparación de entornos de hardware y software
- Requiere una GPU NVIDIA compatible con CUDA y al menos 6 GB (Mini) o 12 GB (Estándar) de memoria de vídeo.
- Instale Python 3.9 o posterior.
- Instala Git para descargar código.
- Descargar código y modelos
- Se ejecuta en el terminal:
git clone https://github.com/Tencent/Hunyuan3D-2.git cd Hunyuan3D-2
- Descargue el modelo preentrenado de Hugging Face:
huggingface-cli download tencent/Hunyuan3D-2 --local-dir ./weights
- Se ejecuta en el terminal:
- Instalación de dependencias
- Instale las dependencias básicas:
pip install -r requirements.txt
- Instala módulos adicionales para la generación de texturas:
cd hy3dgen/texgen/custom_rasterizer python3 setup.py install cd ../../.. cd hy3dgen/texgen/differentiable_renderer python3 setup.py install
- Se puede instalar opcionalmente la aceleración Flash Attention:
pip install ninja pip install git+https://github.com/Dao-AILab/flash-attention.git@v2.6.3
- Instale las dependencias básicas:
- Verificar la instalación
- Ejecute el código de ejemplo:
python minimal_demo.py
- Si el modelo se exporta correctamente, la instalación habrá finalizado.
- Ejecute el código de ejemplo:
Funciones principales
1. Generación de modelos 3D a partir de imágenes
- mover::
- Prepara una imagen (por ejemplo
demo.png
), situado en elassets
Carpeta. - Generar la forma base:
from hy3dgen.shapegen import Hunyuan3DDiTFlowMatchingPipeline from PIL import Image pipeline = Hunyuan3DDiTFlowMatchingPipeline.from_pretrained('tencent/Hunyuan3D-2') image = Image.open('assets/demo.png') mesh = pipeline(image=image, num_inference_steps=30)[0] mesh.export('output.glb')
- Añade textura:
from hy3dgen.texgen import Hunyuan3DPaintPipeline pipeline = Hunyuan3DPaintPipeline.from_pretrained('tencent/Hunyuan3D-2') mesh = pipeline(mesh, image=image) mesh.export('textured.glb')
- Prepara una imagen (por ejemplo
- al final: Genera un modelo 3D con texturas, guarda como
.glb
Documentación.
2. Generación de modelos 3D a partir de texto
- mover::
- Instala el módulo de conversión de texto en imagen (HunyuanDiT):
huggingface-cli download Tencent-Hunyuan/HunyuanDiT-v1.1-Diffusers-Distilled --local-dir ./weights/hunyuanDiT
- Ejecuta el código:
from hy3dgen.text2image import HunyuanDiTPipeline from hy3dgen.shapegen import Hunyuan3DDiTFlowMatchingPipeline t2i = HunyuanDiTPipeline('Tencent-Hunyuan/HunyuanDiT-v1.1-Diffusers-Distilled') i23d = Hunyuan3DDiTFlowMatchingPipeline.from_pretrained('tencent/Hunyuan3D-2') image = t2i('a cute rabbit') mesh = i23d(image, num_inference_steps=30)[0] mesh.export('rabbit.glb')
- Instala el módulo de conversión de texto en imagen (HunyuanDiT):
- al final: Genera modelos 3D a partir de texto.
3. Uso de la interfaz de Gradio
- mover::
- Ejecute la aplicación Gradio:
python3 gradio_app.py --model_path tencent/Hunyuan3D-2 --subfolder hunyuan3d-dit-v2-0 --texgen_model_path tencent/Hunyuan3D-2
- Abra su navegador y visite la dirección local indicada.
- Cargue una imagen o introduzca un texto y haga clic en Generar.
- Ejecute la aplicación Gradio:
- al final: Genere modelos a través de una interfaz web sin escribir código.
4. Utilización de los servicios API
- mover::
- Inicie el servidor API:
python api_server.py --host 0.0.0.0 --port 8080
- Enviar una solicitud para generar un modelo:
img_b64_str=$(base64 -i assets/demo.png) curl -X POST "http://localhost:8080/generate" \ -H "Content-Type: application/json" \ -d '{"image": "'"$img_b64_str"'"}' \ -o test.glb
- Inicie el servidor API:
- al finalGeneración de modelos 3D mediante API.
5. Utilización del plug-in Blender
- montaje::
- descargando
blender_addon.py
Documentación. - Abre Blender e instálalo y habilítalo en Edición > Preferencias > Plugins.
- descargando
- plataforma::
- Inicie el servidor API (véase más arriba).
- Busca "Hunyuan3D-2" en la barra lateral de Blender.
- Introduzca texto o cargue una imagen y haga clic en Generar.
- al final: Genera y edita modelos directamente en Blender.
Función destacada Operación
Generación multivista (Hunyuan3D-2mv)
- Usa el comando:
pipeline = Hunyuan3DDiTFlowMatchingPipeline.from_pretrained('tencent/Hunyuan3D-2mv', subfolder='hunyuan3d-dit-v2-mv')
mesh = pipeline(image=Image.open('assets/demo.png'))[0]
mesh.export('mv_model.glb')
- Ideal para escenas que requieren un modelado preciso desde múltiples ángulos.
Generación rápida (Hunyuan3D-2mini)
- Usa el comando:
pipeline = Hunyuan3DDiTFlowMatchingPipeline.from_pretrained('tencent/Hunyuan3D-2mini', subfolder='hunyuan3d-dit-v2-mini')
mesh = pipeline(image=Image.open('assets/demo.png'))[0]
mesh.export('mini_model.glb')
- Rápido y adecuado para dispositivos de baja configuración.
advertencia
- Asegúrese de que el controlador de la GPU es compatible con la versión de CUDA para evitar errores de ejecución.
- adaptar
num_inference_steps
Los parámetros pueden optimizarse para mejorar la calidad de la generación. - Si tienes problemas, pide ayuda en GitHub Issues o Discord (https://discord.gg/dNBrdrGGMa).
escenario de aplicación
- desarrollo de juegos
Los desarrolladores pueden utilizarlo para generar rápidamente modelos de personajes o accesorios en el juego, reduciendo el tiempo de modelado manual. - arte digital
Los artistas generan ilustraciones en 3D a partir de texto o imágenes para producciones creativas o NFT. - diseño de productos
Los diseñadores cargan imágenes de los productos para generar modelos 3D con los que mostrar o probar prototipos. - Investigación educativa
Estudiantes e investigadores lo utilizan para explorar técnicas de 3D generadas por IA y validar modelos de difusión.
CONTROL DE CALIDAD
- ¿Cuáles son los requisitos mínimos de hardware?
El Mini requiere 6 GB de memoria de vídeo y el Estándar, 12 GB, con una GPU NVIDIA recomendada. - ¿Está disponible en el mercado?
La versión de código abierto es sólo para uso no comercial. Para uso comercial, póngase en contacto con para obtener autorización. - ¿Cuánto se tarda en generar un modelo?
Unos 30 segundos para la versión rápida y 1-2 minutos para la versión estándar, dependiendo del hardware y la configuración.
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...