Google lanzó personalización de avatares basada en prompts para su app de creación de videos Vids, permitiendo a los usuarios dirigir presentadores generados por IA a través de instrucciones de texto. La función se basa en las capacidades de avatares existentes de Vids, que ya generaban anfitriones sintéticos para presentaciones corporativas y videos de entrenamiento. Ahora los usuarios pueden especificar cómo estos avatares deberían comportarse, hablar y presentar contenido en lugar de depender de animaciones predeterminadas.

Esto se siente como Google poniéndose al día en el espacio de video IA en lugar de liderarlo. Mientras empresas como Synthesia y HeyGen han ofrecido personalización de avatares sofisticada por meses, la implementación de Google parece enfocada en escenarios laborales — piensa en videos de entrenamiento de RRHH y demos de productos. El timing sugiere que Google está tratando de hacer Workspace más nativo en IA, pero están entrando a un mercado saturado donde la calidad y naturalidad de avatares importa más que la ingeniería de prompts.

La falta de cobertura adicional de otros medios tech es reveladora. O Google lanzó esto silenciosamente sin mucha fanfarria, o la función no es lo suficientemente convincente para generar revuelo en la industria. Dado que estamos viendo avatares IA cada vez más realistas de startups, el enfoque empresarial de Google podría ser la apuesta más segura pero también la menos innovadora.

Para desarrolladores construyendo herramientas de generación de video, esto confirma que el control de avatares basado en prompts se está volviendo requisito básico. La pregunta real no es si puedes dirigir avatares con texto — es si tus avatares se ven y suenan lo suficientemente humanos que la gente realmente quiere verlos. Google tiene la ventaja de infraestructura, pero la calidad de avatares es donde la mayoría de usuarios juzgarán estas herramientas.