Ahora destacado en la Shopify App Store.

Noticias de la IndustriaJanuary 28, 2026By Thibault Mathian

Lucy 2.0 de Decart AI: La revolución del probador virtual en tiempo real

Decart AI acaba de lanzar Lucy 2.0, un modelo de transformación que permite cambios de outfit en vivo sobre video en tiempo real. Descubre qué significa esto para el e-commerce de moda.

El "Santo Grial" del comercio electrónico de moda siempre ha sido replicar la experiencia del espejo.

Las imágenes estáticas —incluso las de alta fidelidad generadas por IA que utilizamos hoy en día— suponen un salto gigantesco. Pero carecen de un elemento crucial para dar total seguridad al comprador: la física.

¿Se pega la tela al cuerpo cuando me giro? ¿Tiene vuelo la falda al caminar? ¿Cómo incide la luz en el terciopelo cuando me muevo?

Esta semana (26 de enero), Decart AI ha soltado una bomba informativa que nos acerca un paso más a responder esas preguntas en tiempo real. Han lanzado oficialmente Lucy 2.0, un "modelo de transformación de mundos en tiempo real" que cambia el paradigma del video generativo: del renderizado offline a la interacción en vivo.

Aunque las demostraciones muestran a gamers cambiando sus avatares en Twitch o transformando sus habitaciones en ciudades cyberpunk, las implicaciones para el retail de moda son innegables.

Demo de Lucy 2.0 en LinkedIn:

¿Qué es Lucy 2.0?

Lucy 2.0 es un modelo de video generativo que no se limita a crear video, sino que reinterpreta la realidad en directo.

Utilizando la señal de una webcam estándar, puede cambiar atuendos, modificar fondos o alterar atributos físicos a 30 fotogramas por segundo (fps) en resolución 1080p.

A diferencia de la Realidad Aumentada (AR) tradicional, que superpone un modelo 3D rígido sobre la persona (pareciendo a menudo una pegatina flotante), Lucy 2.0 utiliza difusión pura. La IA "entiende" la física del mundo mediante la predicción a nivel de píxel.

  • Sabe cómo una cremallera separa la tela cuando giras el torso.
  • Sabe cómo debe plegarse un vestido cuando te sientas.
  • Y lo hace sin mapas de profundidad, pantallas verdes (chroma) ni mallas 3D.

¿El resultado? Un "espejo mágico" donde puedes verte llevando cualquier prenda, moviéndote con naturalidad y con una latencia casi nula (menos de 40ms).

La barrera: El coste computacional (0,05 $/seg)

Si esta tecnología ya existe, ¿por qué no está en todas las tiendas de Shopify hoy mismo?

El precio.

Ejecutar un modelo como Lucy 2.0 requiere una potencia de GPU inmensa (fue entrenado y demostrado en clústeres masivos usando NVIDIA H100s e infraestructura de Crusoe Cloud).

Según los precios actuales de la API de Decart para edición de video en tiempo real:

  • Coste: Aprox. 0,05 $ por segundo.

Hagamos las cuentas para una sesión típica de e-commerce:

  • Un usuario pasa 3 minutos (180 segundos) "probándose" diferentes conjuntos.
  • Coste total: 9,00 $ por sesión de usuario.

Para un comerciante, esto es insostenible. En el e-commerce de moda, donde los márgenes son ajustados, no puedes pagar 9 dólares solo para que un cliente mire un producto.

El futuro: El objetivo de los 0,20 $

Sin embargo, en el mundo de la IA, lo que hoy es "insostenible" mañana es el "estándar".

Ya hemos visto cómo el coste de la generación de imágenes caía en picado. El video es el siguiente paso. A medida que el hardware mejore (fíjate en los chips "Sohu" de Etched, diseñados específicamente para transformers) y los modelos se vuelvan más eficientes, esos 0,05 $/segundo bajarán rápidamente.

El número mágico: 0,20 $ por sesión.

Si el coste desciende a unos 0,20 $ por sesión, las matemáticas cambian por completo.

  • Si una sesión de Probador Virtual (VTO) aumenta la tasa de conversión un 2% o evita un coste de envío por devolución de 15 $, pagar 0,20 $ por esa experiencia es una decisión obvia.

Qué significa esto para Genlook

En Genlook, estamos obsesionados con esta trayectoria.

Actualmente, ofrecemos la experiencia de probador virtual estático líder del mercado. Genera resultados de alta fidelidad al instante y de forma asequible. Esta es la solución correcta para 2026.

Pero ya vemos venir el 2027.

Creemos que en cuestión de meses veremos versiones optimizadas o de código abierto de modelos como Lucy 2.0. Cuando el precio alcance ese umbral de viabilidad, estaremos listos para integrar esta capacidad directamente en nuestra aplicación de Shopify.

Imagina a tus clientes abriendo la página de tu producto, encendiendo su webcam y viendo tu nueva colección puesta sobre ellos mismos, en vivo.

Resumen

Lucy 2.0 de Decart AI es un vistazo al futuro inmediato.

  • La tecnología: Generación de video en tiempo real con física perfecta (30fps).
  • Las ventajas: No se necesitan modelos 3D, gratificación instantánea, alto engagement.
  • Los contras: Actualmente demasiado caro para retail (0,05 $/seg).
  • La predicción: Los precios se desplomarán y esto se convertirá en el estándar para la moda de alta gama hacia 2027.

Comerciantes, preparaos. El espejo está a punto de conectarse.


Hasta que el video en tiempo real sea asequible, puedes ofrecer a tus clientes la siguiente mejor opción. Prueba Genlook gratis y permite que se prueben tu ropa usando sus fotos hoy mismo.

FAQ

Frequently Asked Questions

¿Qué es Lucy 2.0 de Decart AI?
Lanzado el 26 de enero de 2026, Lucy 2.0 es un modelo de vanguardia para la transformación de mundos en tiempo real. Utiliza IA generativa para transformar transmisiones de video en vivo al instante, permitiendo cambios de personaje, de vestuario y alteraciones del entorno a 30 fps con una latencia casi nula.
¿En qué se diferencia Lucy 2.0 de las herramientas actuales de Probador Virtual?
La mayoría de las herramientas actuales (como Genlook) generan resultados de alta fidelidad en **imágenes estáticas**. Lucy 2.0 trabaja sobre **transmisiones de video en vivo**, permitiendo a los usuarios girar, caminar y moverse mientras la IA 'ajusta' la ropa sobre ellos en tiempo real sin usar mallas 3D.
¿Está disponible Lucy 2.0 para tiendas Shopify?
Todavía no de forma directa. Aunque la API está activa, el coste computacional para la edición de video en tiempo real ronda actualmente los **0,05 $ por segundo**, lo que lo hace prohibitivo para sesiones estándar de e-commerce (unos 9,00 $ por usuario).
¿Cuándo será asequible el probador virtual en video?
Prevemos que en un plazo de 6 a 12 meses, técnicas de optimización como la destilación de modelos y chips de inferencia dedicados (como Sohu de Etched) reducirán los costes hasta el rango viable de **0,20 $ por sesión**.

¿Tienes más preguntas?

Ready to reduce returns and boost conversions?

Install GenLook on your Shopify store in minutes. Start with our free plan.

Get Started Free