Notebookcheck Logo

Epic Games actualiza Live Link Face para mocap de iPhone en tiempo real

Un iPhone captura las expresiones faciales en tiempo real, impulsando la animación digital de personajes dentro de Unreal Engine mediante Live Link Face y MetaHuman Animator (Fuente de la imagen: Epic Games vía Unreal Engine blog)
Un iPhone captura las expresiones faciales en tiempo real, impulsando la animación digital de personajes dentro de Unreal Engine mediante Live Link Face y MetaHuman Animator (Fuente de la imagen: Epic Games vía Unreal Engine blog)
La actualización Live Link Face 1.4.2 mejora el mocap facial de iPhone en tiempo real para Unreal Engine. Epic Games corrige el error de entrada de IP regional, mejorando los flujos de trabajo de los creadores. Utilizada con MetaHuman Animator, la aplicación captura un rendimiento facial de alta fidelidad para personajes digitales.

Epic Games ha lanzado la versión 1.4.2 de su Live Link Face introduciendo una pequeña pero significativa corrección que mejora la experiencia de captura facial en tiempo real para los usuarios de iPhone. La actualización resuelve un problema regional que anteriormente impedía a algunos usuarios introducir manualmente las direcciones IP, un paso necesario al conectar la aplicación a Unreal Engine a través de distintos entornos de red.

Lanzada por primera vez en 2020, Live Link Face transmite datos de movimiento facial desde la cámara TrueDepth de un iPhone directamente a Unreal Engine. Cuando se utiliza junto con MetaHuman Animatorlos creadores pueden mapear intrincados movimientos faciales en personajes digitales en tiempo real, sin necesidad de configurar studio mocap sin necesidad de configuración.

"Cada sutil expresión, mirada y emoción se captura con precisión y se replica fielmente en su humano digital", declaró Epic Games en su anuncio.

La tecnología se ha vuelto cada vez más valiosa en diversas industrias creativas. Desde desarrolladores de juegos indie y estudios de animación hasta VTubers y livestreamers, muchos están utilizando la herramienta para mejorar los personajes digitales con actuaciones expresivas en tiempo real. El veterano diseñador de personajes Aaron Sims -conocido por películas como Men in Black y Gremlins 2- alabó el avance: "Podemos llevar el realismo hasta el poro". Como alguien que solía hacer marionetas y prótesis, ahora puedo hacer lo que quiera"

Sin embargo, captar esos matices suele requerir de los intérpretes más de lo que cabría esperar. Para crear los datos que utiliza MetaHuman Animator, a menudo se pide a los actores que emitan un amplio catálogo de expresiones faciales, desde micromovimientos hasta transiciones emocionales completas. El proceso es físicamente exigente, con sesiones de exploración que se asemejan a un entrenamiento tanto en resistencia como en control muscular. En algunos casos, los intérpretes pasan por docenas de expresiones exageradas en una sola sesión, todo ello manteniendo la coherencia para una réplica digital de alta fidelidad.

La aplicación también fomenta la misión más amplia de Epic de democratizar los flujos de trabajo de animación de alta gama. Al reducir la barrera de entrada, la empresa permite a los equipos más pequeños y a los creadores en solitario lograr una animación facial de nivel profesional utilizando herramientas ampliamente disponibles como el iPhone.

Más allá de la captura de la actuación, Epic también ha explorado aplicaciones biométricas. En 2023, la empresa se asoció con las firmas de verificación de identidad Yoti y SuperAwesome para proponer un sistema de reconocimiento facial para la estimación de la edad. Presentada a la Comisión Federal de Comercio de EE.UU., la aplicación FTC pretendía mejorar la seguridad en línea de los niños mediante métodos de verificación de la edad respetuosos con la privacidad. Aunque la propuesta fue finalmente denegada, PC Gamer señaló que es posible que la idea no se archive definitivamente.

A partir de abril de 2025, Live Link Face sigue siendo de descarga gratuita en la App Store y continúa recibiendo actualizaciones incrementales. Aunque la versión 1.4.2 tiene un alcance relativamente menor, aporta importantes mejoras de usabilidad para los creadores que trabajan en configuraciones de red no estándar o restringidas.

Un actor de interpretación utiliza herramientas de captura de movimiento facial con Unreal Engine en un estudio profesional (Fuente de la imagen: Epic Games a través del blog de Unreal Engine)
Un actor de interpretación utiliza herramientas de captura de movimiento facial con Unreal Engine en un estudio profesional (Fuente de la imagen: Epic Games a través del blog de Unreal Engine)

Fuente(s)

App Store - Live Link Face: apps.apple.com/us/app/live-link-face/id1495370836
MetaHuman Animator - Blog oficial de Unreal Engine: www.unrealengine.com/en-US/blog/delivering-high-quality-facial-animation-in-minutes-metahuman-animator-is-now-available
Yoti/SuperAwesome FTC Submission (PDF): www.ftc.gov/system/files/ftc_gov/pdf/Application-for-a-new-VPC-method-ESRB-SuperAwesome-Yoti-06-02-2023.pdf
PC Gamer on FTC Response: https: //www.pcgamer.com/gaming-industry/us-government-denies-esrbs-ai-powered-face-scanning-age-estimation-proposal-but-its-probably-not-gone-for-good

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2025 04 > Epic Games actualiza Live Link Face para mocap de iPhone en tiempo real
Louise Burke, 2025-04-13 (Update: 2025-04-13)