Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

La "creación de próxima generación" impulsada por la IA generativa 3D: Informe desde la vanguardia de SIGGRAPH 2025

La "creación de próxima generación" impulsada por la IA generativa 3D: Informe desde la vanguardia de SIGGRAPH 2025

2025年06月17日 20:15
1. Introducción──El 2025 que superó la barrera de “imagen→3D”

La inteligencia artificial generativa (GenAI), que ganó atención en la generación de texto e imágenes, se adentró de lleno en el ámbito 3D a partir de 2024. Con la aparición de Shap-E de OpenAI y Instant N-eRF de NVIDIA, se volvió común el “ingreso de un prompt→3D mesh en segundos”, transformando radicalmente la fase inicial de las líneas de producción. En 2025, la evolución ha acelerado desde la “generación de objetos individuales” hacia la “reconstrucción de escenas”, “generación de animaciones” y “generación de vestuario con propiedades físicas”.github.comgaragefarm.net




2. Tres avances presentados en SIGGRAPH 2025

2-1 CAST: De una foto a un “espacio 3D tangible”

CAST (Component-Aligned Scene Reconstruction) genera una escena 3D a partir de una sola imagen RGB, estimando las superficies ocultas y la profundidad mientras mantiene las relaciones de contacto y gravedad entre los objetos. El equipo de investigación ha

  • Reconocimiento de objetos: Detección simultánea de cientos de clases con un Transformer de visión a gran escala

  • Estimación de la pose de la cámara: Corrección de distorsión de perspectiva mediante optimización de la escena

  • Pérdida de consistencia geométrica: Complementación de “superficies ocultas” con un modelo derivado de NeRF

    Se espera su aplicación en la virtualización de muebles, simulación de robots y previsualización de películas.digitalmedianet.com



2Anim: De storyboard a movimiento 3D

La creación de storyboards, ampliamente utilizada en la industria del cine y la animación, sigue teniendo un fuerte componente analógico. Sketch2Anim analiza secuencias de poses y líneas de velocidad con un modelo de difusión, generando automáticamente caminatas, saltos, etc. Se puede importar inmediatamente en formato FBX a Unity/Unreal, permitiendo previsualizaciones inmediatas antes del rodaje y presentaciones de avatares.digitalmedianet.com



2-3 Dress-1-to-3: Vestuario con “patrones de costura” a partir de una sola foto

La prueba virtual actual presenta el problema de que las mallas estáticas hacen que el movimiento de la tela parezca poco natural. Dress-1-to-3 estima los **parámetros de la tela (módulo de Young, rigidez a la flexión)** mediante un modelo de difusión y optimización física (C-IPC), logrando un comportamiento que coincide con la simulación en tiempo real para juegos. Se espera que reduzca la tasa de devoluciones en el comercio electrónico.digitalmedianet.com



3. Antecedentes técnicos: la fusión de modelos de difusión y NeRF

Los modelos de difusión logran una generación de alta calidad al invertir el proceso de eliminación de ruido, pero en 3D, la consistencia de múltiples vistas es un desafío. CAST introdujo la pérdida de consistencia de vista, Sketch2Anim la pérdida de consistencia temporal, y Dress-1-to-3 la pérdida física para superar los problemas de consistencia. Además, los métodos basados en NeRF aprenden de manera consistente la imagen→3D→renderizado a través de un renderizador diferenciable, reduciendo el costo computacional en decenas de veces.garagefarm.net



4. Expansión de aplicaciones industriales
IndustriaCasos de uso específicosEfectos esperados
Juegos/MetaversoAutomatización de escenas generadas por usuarios a 3DReducción del tiempo de desarrollo, activación de UGC
Cine/VFXFotos de locaciones→previsualización 3DReducción de costos antes del rodaje
EC/ModaPrueba AR, optimización de tallasReducción de la tasa de devoluciones
Manufactura/ArquitecturaNube de puntos de equipos existentes→conversión a CADReducción del tiempo de diseño
RobóticaGeneración de entornos virtuales a partir de imágenes realesAceleración del aprendizaje por simulación




5. Impacto en las empresas japonesas
  • CG y Animación: Fusión con la cultura del celuloide y semiautomatización del proceso de diseño

  • Moda: ZOZO y Uniqlo mejoran las pruebas virtuales y fortalecen las ventas nacionales e internacionales

  • Manufactura: Toyota y Mitsubishi Heavy Industries construyen rápidamente gemelos digitales y eficientizan los cambios de línea
    En Japón, la escasez de mano de obra es un cuello de botella, pero con la IA generativa es posible la transición hacia un modelo de trabajo de "operador→supervisor".




6. Desafíos: Derechos de Autor, Ética, Impacto Ambiental
  1. Derechos de Autor: Riesgo de infracción por la mezcla de activos 3D existentes

  2. Ética: Uso indebido de productos falsos y pruebas de vestuario engañosas

  3. Impacto Ambiental: Emisiones de CO₂ debido al entrenamiento masivo de GPU
    Se requiere tanto la regulación legal como la gobernanza corporativa.




7. Pasos de Implementación y Herramientas Recomendadas
  1. PoC: Validación a pequeña escala con Shap-E y LumaAI

  2. Integración de Flujos de Trabajo: Añadir plugins de difusión en Blender / Houdini

  3. Implementación de CI/CD: Ejecución automática de scripts generados con Git y GPU en la nube

  4. Establecimiento de Directrices: Formular términos de uso de IA y flujos de verificación de calidad
    También están aumentando las herramientas de bajo código con interfaz en japonés, facilitando las pruebas para quienes no son ingenieros.




8. Perspectivas Futuras: Evolución hacia el "Modelo del Mundo"

En el futuro, la IA generativa 3D integrará física, sentido común y planificación de tareasevolucionando hacia unModelo del Mundo, convirtiéndose en el núcleo del control robótico y los entornos de aprendizaje XR. Se prevé que una "AGI multimodal" que combine LLM de lenguaje y modelos del mundo se haga realidad alrededor de 2027.businessinsider.com



9. Resumen

La IA generativa 3D transforma el concepto tradicional de creación 3DCG de "crear desde cero" a "provocar mediante la transmisión de intenciones". La aparición de CAST, Sketch2Anim y Dress-1-to-3 eleva "3D para todos" a un nivel práctico, fortaleciendo directamente la competitividad de las empresas japonesas. Ahora es el momento de probar en pequeño para aprovechar en grande.




Lista de artículos de referencia

  • Digital Media Net「3D Generative AI Transforms How We Create, Design, Interact With Digital Content」digitalmedianet.com

  • GarageFarm「Generative AI in 3D Modeling: Transforming Creativity and Workflows」garagefarm.net

  • OpenAI GitHub「Shap-E: Generating Conditional 3D Implicit Functions」github.com

  • Business Insider「Top AI Researchers Say Language Is Limiting… World Models」businessinsider.com


La IA generativa 3D está transformando la forma en que creamos, diseñamos e interactuamos con el contenido digital
Fuente: https://digitalmedianet.com/3d-generative-ai-transforms-how-we-create-design-interact-with-digital-content/

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.