Physical Intelligence envió π0.5, la siguiente iteración de su política robótica generalista, el jueves. La afirmación titular es generalización zero-shot a nuevos entornos hogareños: el mismo modelo puede controlar un manipulador móvil para limpiar una cocina o dormitorio que nunca ha visto, sin fine-tuning. La pieza secundaria pero estructuralmente importante es un nuevo tokenizador de acciones de robot que entrena políticas generalistas aproximadamente cinco veces más rápido que el método anterior. El lanzamiento aterriza dentro de un cluster apretado de noticias sobre modelos-fundación en robótica. GEN-1 de Generalist AI (2 de abril) reclama 99 por ciento de éxito en tareas físicas simples con solo una hora de datos de robot por tarea, entrenado sobre un dataset de 500.000 horas. Gemini Robotics-ER 1.6 de Google DeepMind (15 de abril) actualizó la capa "cerebro cognitivo" para razonamiento embebido. Tres labs, tres lanzamientos importantes, dos semanas.
El tokenizador de acciones de PI es la parte para leer primero. Los avances en tokenización fueron centrales en cómo los LLMs se volvieron tratables a escala: elegir mejor los tokens significa más información por cómputo de entrenamiento, lo cual le permite al modelo generalizar más lejos sobre el mismo presupuesto de datos. El mismo patrón se está jugando ahora en robótica. La mejora de 5x en velocidad de entrenamiento por una nueva tokenización del espacio de acciones no es solo conveniencia de ingeniería, es el tipo de inflexión que hace entrenables tareas más difíciles. La generalización zero-shot en el hogar es la demostración de capacidad, pero el tokenizador es lo que va a aparecer en cada lanzamiento subsecuente de PI y probablemente en el trabajo de los competidores. Sobre el cluster más amplio: GEN-1 de Generalist reporta 99 por ciento de éxito donde "los modelos previos alcanzan 64 por ciento" en tareas físicas simples, y requiere solo una hora de datos de robot por tarea. Esa es una afirmación de eficiencia de muestra que vale la pena testear contra evaluación independiente. Gemini Robotics-ER 1.6 es una historia de actualización de razonamiento más estrecha y debería evaluarse como un componente en un stack de robot completo en vez de como una política generalista por sí sola.
Los modelos-fundación en robótica dejaron de ser una pregunta de investigación abierta y empezaron a ser una categoría comercial de producto. Hace dos semanas el estado del arte era "π0 funciona en el lab". Hoy es "π0.5 generaliza a entornos domésticos nunca vistos, GEN-1 reclama maestría en tareas simples, Gemini Robotics-ER 1.6 es la capa de razonamiento cognitivo". La competencia entre PI, Generalist AI, Google DeepMind y la comunidad robótica open-source (los lanzamientos Isaac de NVIDIA, el dataset Open X-Embodiment, labs académicos) ha producido progreso real en la frontera de capacidades en un lapso corto. La implicación comercial es que cualquiera que esté construyendo en IA física ahora tiene que elegir sobre qué linaje de modelo-fundación apostar, y las elecciones tempranas no son obvias. PI es de pesos cerrados, Generalist es similarmente cerrado, los lanzamientos de Google mezclan cerrado y abierto. El patrón refleja el espacio LLM hace dos años: los labs que tiran de la capacidad envían cerrado, el open-source alcanza con un retraso, y los constructores aplicados tienen que decidir si toman la ventaja de capacidad o la ventaja de control.
La mayoría de los constructores leyendo esto no están enviando robots. Para la pequeña minoría que sí, tres observaciones concretas. Primero, el tokenizador de acciones de PI es el tipo de detalle que puede importar más que la demostración de capacidad; vigilá si PI publica el tokenizador de forma independiente o lo mantiene como foso. Segundo, la afirmación de Generalist de "una hora de datos de robot por tarea" es la inflexión de eficiencia de muestra que haría tratables las tareas de robot a medida para equipos fuera de lab si se sostiene bajo evaluación externa. Rastreá replicación independiente. Tercero, si tu producto involucra un robot de propósito general en un entorno humano (robótica de hogar, logística, cuidado de adultos mayores), la velocidad de este progreso significa que tu horizonte de planificación acaba de acortarse. La frontera de capacidades de 2027 va a ser visiblemente distinta de la de 2025, y el posicionamiento de producto que asumió que los robots seguirían siendo especialistas de tareas estrechas por otros cinco años está equivocado. Para constructores no-robóticos, la lección transferible es que el patrón "mejor tokenización desbloquea escala" es un fenómeno recurrente del deep learning. Si tu dominio de datos tiene tokenización torpe o ineficiente, arreglarla suele ser un 5x escondido a plena vista.
