¿Generar vídeo en TIEMPO REAL mientras le hablas a la IA? 🤯
Lo digo en el vídeo y lo repito por aquí: esto me ha volado la cabeza. Creo firmemente que la generación de mundos e interactividad en tiempo real va a ser LA tendencia de 2026, y Pixverse R1 es el primer aviso serio de lo que se nos viene.
Acabo de probarlo (tengo acceso anticipado 👀) y la sensación es loquísima:
👉 El vídeo no se «renderiza», el vídeo sucede.
👉 Le hablas (o escribes) y la escena cambia al momento.
👉 ¿Un personaje corriendo? Le dices «salta» y salta. ¿Se hace de noche? Se hace de noche.
Vale, voy a ser 100% sincero: aún está verde. La consistencia a veces patina y tiene sus «alucinaciones» (bastante graciosas, por cierto 😅), pero la tecnología base es espectacular. Imagina esto en unos meses… es el fin de la creación de vídeo tal y como la conocemos.
En el vídeo de hoy lo pongo a prueba a fondo: desde un soldado en la guerra hasta un gato naranja intentando sobrevivir en la playa (con resultados… interesantes 🤣).
Si te gusta la IA, tienes que ver esto para entender hacia dónde va el futuro del sector.
👇
¿Crees que estamos preparados para generar películas en tiempo real o se nos está yendo de las manos? ¡Os leo! 👇
