Google lanzó la generación de modelos 3D interactivos para Gemini esta semana, permitiendo a los usuarios crear simulaciones que pueden manipular en tiempo real. Pide una luna orbitando la Tierra, y obtienes un modelo 3D con controles deslizantes de velocidad, interruptores de trayectoria orbital y controles de rotación. La función funciona a través del modelo Pro de Gemini y responde a prompts como "muéstrame un péndulo doble" o "ayúdame a visualizar el efecto Doppler". Los usuarios luego hacen clic en "Muéstrame la visualización" para activar los elementos interactivos.
Esto se siente menos como innovación y más como requisitos básicos. Anthropic le dio a Claude generación automática de gráficos hace semanas, mientras OpenAI agregó visualizaciones de matemáticas y ciencias a ChatGPT alrededor del mismo tiempo. Google está alcanzando a la competencia en un espacio donde las respuestas visuales de IA se están volviendo esperadas, no impresionantes. La pregunta real no es si Gemini puede renderizar un planeta girando — es si estos modelos 3D son lo suficientemente precisos para aprendizaje real o solo demos llamativas.
Lo revelador es cómo Google posiciona esto como una "actualización" cuando realmente es paridad de funciones. La estructura de precios de la empresa revela sus prioridades: el acceso básico es gratis, pero las cosas buenas requieren niveles pagos. Mientras los competidores se enfocan en hacer su IA más útil por defecto, Google parece más interesado en crear rutas de actualización. Los modelos 3D funcionan, pero están bloqueados detrás de la selección de modelo y requieren patrones específicos de prompting.
Para los desarrolladores, esto señala hacia dónde se dirige la industria — las salidas multimodales ya no son opcionales. Si estás construyendo productos de IA, los usuarios esperarán respuestas visuales, no solo texto. Pero no te distraigas con lo brillante del 3D. Enfócate en la precisión y utilidad sobre el estilo visual, porque ahí es donde vive el valor real.
