Physical Intelligence a livré π0.5, la prochaine itération de sa politique robotique généraliste, jeudi. La revendication vedette, c'est la généralisation en zéro-shot à de nouveaux environnements domestiques : le même modèle peut contrôler un manipulateur mobile pour faire le ménage dans une cuisine ou une chambre qu'il a jamais vues, sans fine-tuning. Le morceau secondaire mais structurellement important, c'est un nouveau tokeniseur d'actions robot qui entraîne les politiques généralistes à peu près cinq fois plus vite que la méthode précédente. La sortie atterrit dans une fenêtre serrée de nouvelles sur les modèles-fondation en robotique. GEN-1 de Generalist AI (2 avril) revendique 99 pour cent de succès sur des tâches physiques simples avec seulement une heure de données robot par tâche, entraîné sur un ensemble de 500 000 heures. Gemini Robotics-ER 1.6 de Google DeepMind (15 avril) a mis à niveau la couche « cerveau cognitif » pour le raisonnement incarné. Trois labos, trois sorties majeures, deux semaines.

Le tokeniseur d'actions de PI, c'est la partie à lire en premier. Les percées en tokenisation ont été centrales à comment les LLMs sont devenus traitables à l'échelle : mieux choisir les tokens veut dire plus d'information par unité de calcul d'entraînement, ce qui permet au modèle de généraliser plus loin sur le même budget de données. Le même patron se joue maintenant en robotique. L'amélioration de 5x sur la vitesse d'entraînement grâce à une nouvelle tokenisation de l'espace d'actions, c'est pas juste de la commodité d'ingénierie, c'est le genre d'inflexion qui rend entraînables des tâches qui étaient trop dures. La généralisation zéro-shot à la maison, c'est la démo de capacité, mais le tokeniseur, c'est la chose qui va apparaître dans chaque sortie PI subséquente, pis probablement dans le travail des concurrents. Sur le cluster plus large : GEN-1 de Generalist rapporte 99 pour cent de succès là où « les modèles précédents atteignent 64 pour cent » sur des tâches physiques simples, pis demande seulement une heure de données robot par tâche. C'est une revendication d'efficacité d'échantillons qui mérite d'être testée contre de l'évaluation indépendante. Gemini Robotics-ER 1.6 est une histoire de mise à niveau de raisonnement plus étroite pis devrait être évaluée comme un composant dans une pile robot complète plutôt que comme une politique généraliste en soi.

Les modèles-fondation en robotique ont arrêté d'être une question de recherche ouverte pis ont commencé à être une catégorie commerciale de produit. Il y a deux semaines, l'état de l'art, c'était « π0 marche dans le labo ». Aujourd'hui, c'est « π0.5 généralise à des environnements domestiques jamais vus, GEN-1 revendique la maîtrise sur des tâches simples, Gemini Robotics-ER 1.6 est la couche de raisonnement cognitif ». La concurrence entre PI, Generalist AI, Google DeepMind, pis la communauté robotique open-source (les sorties Isaac de NVIDIA, le dataset Open X-Embodiment, les labos académiques) a produit de vrais progrès à la frontière des capacités dans une courte fenêtre. L'implication commerciale, c'est que quiconque bâtit en IA physique doit maintenant choisir sur quelle lignée de modèle-fondation parier, pis les choix précoces sont pas évidents. PI est à poids fermés, Generalist est pareil fermé, les sorties de Google mélangent fermé pis ouvert. Le patron reflète l'espace LLM il y a deux ans : les labos qui tirent la capacité livrent en fermé, l'open-source rattrape avec un décalage, pis les constructeurs appliqués doivent décider s'ils prennent l'avantage de capacité ou l'avantage de contrôle.

La plupart des constructeurs qui lisent ça ne livrent pas de robots. Pour la petite minorité qui en livre, trois observations concrètes. Premièrement, le tokeniseur d'actions de PI, c'est le genre de détail qui pourrait compter plus que la démo de capacité ; surveille si PI publie le tokeniseur de façon indépendante ou le garde comme un fossé. Deuxièmement, la revendication de Generalist « une heure de données robot par tâche », c'est l'inflexion d'efficacité d'échantillons qui rendrait traitables des tâches robot sur mesure pour des équipes hors-labo, si ça tient sous évaluation externe. Surveille la reproduction indépendante. Troisièmement, si ton produit implique un robot généraliste dans un environnement humain (robotique domestique, logistique, soins aux aînés), la vitesse de ce progrès veut dire que ton horizon de planification vient de raccourcir. La frontière de capacités de 2027 va être visiblement différente de celle de 2025, pis les positions produits qui supposaient que les robots resteraient des spécialistes de tâches étroites pour cinq autres années sont dans l'erreur. Pour les constructeurs non-robotiques, la leçon transférable, c'est que le patron « mieux tokeniser débloque l'échelle » est un phénomène récurrent de l'apprentissage profond. Si ton domaine de données a une tokenisation maladroite ou inefficace, corriger ça, c'est souvent un 5x qui se cache à la vue de tous.