Will Knight de Wired a visité Eka, une startup de robotique à Cambridge, Massachusetts, cofondée par le professeur MIT Pulkit Agrawal pis l'ex-chercheur en robotique de Google DeepMind Tuomas Haarnoja. Knight a rapporté le 29 avril qu'il a regardé le bras robotique de la compagnie visser une ampoule dans une douille, chasser une ampoule qui roulait sur une table, pis ramasser de manière fiable un fouillis non familier — boîte de bouchons d'oreille, brosse à cheveux, porte-clés en peluche — en utilisant juste sa pince à deux doigts. Son cadrage : « en plus d'une décennie à écrire sur les robots, j'en ai jamais vu un bouger aussi naturellement », pis « parmi les quelques douzaines de bras robotiques sur le marché aujourd'hui, aucun peut visser une ampoule. » Le pitch d'Agrawal pis Haarnoja : la dextérité, c'est le déblocage, la dextérité commence enfin à se faire, pis « des trillions de dollars passent par la main humaine. » Ils pensent qu'ils sont à mi-chemin.
L'affirmation sur la dextérité, c'est ce qui compte vraiment pis c'est exactement ce que le papier de Knight substantie pas techniquement. On voit de la vidéo convaincante — robot qui patte une ampoule qui roule, qui se reprend après un dérapage, qui complète le vissage — mais aucun benchmark public, aucun run de comparaison, aucune architecture publiée. La plupart du travail en manipulation robotique aujourd'hui passe par des modèles de fondation Vision-Language-Action (VLA) — RT-2, Octo, OpenVLA, RT-X — la même famille architecturale sur laquelle le Fury de Scout AI à vocation défense a été bâti. Eka a pas divulgué publiquement s'ils étendent une approche VLA existante ou s'ils entraînent la leur. Ce qui est observable : leur bras se reprend de défaillances de contact (l'ampoule qui roule, les clés qui glissent) sans redémarrer la tâche, ce qui est le comportement que tu attends d'un modèle qui maintient un état à travers la manipulation plutôt qu'exécuter des plans de mouvement scriptés. Cette reprise état-à-travers-le-contact, c'est la frontière de recherche ouverte en dextérité. Si Eka l'a en marche de manière fiable, c'est la substance derrière la démo.
Deux patterns comptent. Premièrement, le contraste avec le hardware humanoïde. Plus tôt dans la session, on a couvert l'essai de robots humanoïdes de Japan Airlines à l'aéroport Haneda, où la démo mise en scène montrait un Unitree G1 « titubant jusqu'à un conteneur de fret pis faisant un vague geste de pousser » — le conteneur a vraiment bougé quand un humain a démarré le convoyeur. C'était du hardware-sans-dextérité. Eka, c'est l'inverse — de la dextérité-sur-table sans la locomotion. Le marché de la robotique s'est séparé proprement entre « on peut faire bouger un corps humanoïde mais pas manipuler » pis « on peut manipuler avec un bras fixe mais pas se déplacer. » Celui qui craque les deux le premier gagne. Deuxièmement, le cadrage « moment ChatGPT pour les robots », c'est asteure un pitch standard de l'industrie. Chaque startup de robotique qui lève des fonds en 2026 utilise une version de ça. Ce cadrage atterrit quand la capacité dépasse soudainement l'attente, ce que ChatGPT a fait en fin 2022. Pour les robots, ce moment arrive quand un non-expert peut instruire un robot de faire une tâche de manipulation non familière pis qu'il réussit de manière fiable. La démo d'Eka est sur le chemin; si ça généralise hors de la démo, c'est la question ouverte.
Pour les builders, trois choses concrètes. Premièrement, si tu bâtis en aval de la robotique — UI, tooling, évaluation, simulation — assume que la dextérité est sur un échéancier de 2-3 ans pour un déploiement de production qui marche, mais que le déploiement va ressembler à « bras de table qui fait une tâche contrainte » avant de ressembler à des humanoïdes. Parie pas sur un moment humanoïde en premier. Deuxièmement, le pattern cofondateur-académique-plus-ex-chercheur-DeepMind, c'est l'empreinte de fondateur dominante en robotique de frontière actuelle — Skild AI, Physical Intelligence, Generalist Robotics, pis maintenant Eka partagent tous ça. Si t'investis ou recrutes, cette concentration de pedigree, c'est le signal. Troisièmement, le détail manquant dans le pitch d'Eka, c'est le même que le détail manquant dans n'importe quel claim de modèle de fondation robotique : comment ça généralise à des objets non vus pis des tâches non vues? Le test honnête, c'est pas « visse cette ampoule » — c'est « visse une vis à tête plate avec un tournevis Phillips. » Attends cette démo-là avant de t'engager.
