Google lançou personalização de avatares baseada em prompts para seu app de criação de vídeos Vids, permitindo que usuários direcionem apresentadores gerados por IA através de instruções de texto. A funcionalidade se baseia nas capacidades de avatares existentes do Vids, que já geravam apresentadores sintéticos para apresentações corporativas e vídeos de treinamento. Agora usuários podem especificar como esses avatares devem se comportar, falar e apresentar conteúdo em vez de depender de animações padrão.

Isso parece o Google correndo atrás no espaço de vídeo IA em vez de liderar. Enquanto empresas como Synthesia e HeyGen oferecem personalização de avatares sofisticada há meses, a implementação do Google parece focada em cenários corporativos — pense em vídeos de treinamento de RH e demos de produtos. O timing sugere que Google está tentando tornar o Workspace mais nativo em IA, mas eles estão entrando num mercado lotado onde qualidade e naturalidade dos avatares importam mais que engenharia de prompts.

A falta de cobertura adicional de outros veículos tech é reveladora. Ou Google lançou isso discretamente sem muito alarde, ou a funcionalidade não é convincente o suficiente para gerar buzz na indústria. Considerando que estamos vendo avatares de IA cada vez mais realistas de startups, a abordagem empresarial do Google pode ser a aposta mais segura mas também a menos inovadora.

Para desenvolvedores construindo ferramentas de geração de vídeo, isso confirma que controle de avatares baseado em prompts está virando requisito básico. A questão real não é se você consegue dirigir avatares com texto — é se seus avatares parecem e soam humanos o suficiente que as pessoas realmente querem assisti-los. Google tem a vantagem de infraestrutura, mas qualidade de avatares é onde a maioria dos usuários vai julgar essas ferramentas.