Will Knight de Wired visitó Eka, una startup de robótica en Cambridge, Massachusetts, cofundada por el profesor del MIT Pulkit Agrawal y el ex-investigador de robótica de Google DeepMind Tuomas Haarnoja. Knight reportó el 29 de abril que vio cómo el brazo robótico de la empresa atornilló una lamparita en un casquillo, persiguió una lamparita rodando por una mesa, y agarró confiablemente un revoltijo no familiar — caja de tapones para los oídos, cepillo para el pelo, llavero con pompón — usando sólo su pinza de dos dedos. Su encuadre: "en más de una década escribiendo sobre robots, nunca había visto a uno moverse tan naturalmente," y "de las pocas docenas de brazos robóticos en el mercado hoy, ninguno puede atornillar una lamparita." El pitch de Agrawal y Haarnoja: la destreza es el desbloqueo, la destreza por fin se está resolviendo, y "billones de dólares fluyen por la mano humana." Piensan que están a mitad de camino.
El reclamo de destreza es la parte que importa de verdad y es la parte que el artículo de Knight no sustenta técnicamente. Vemos video convincente — robot tanteando una lamparita que rueda, recuperándose de un resbalón, completando el atornillado — pero ningún benchmark público, ninguna corrida de comparación, ninguna arquitectura publicada. La mayoría del trabajo de manipulación robótica hoy pasa por modelos fundacionales Vision-Language-Action (VLA) — RT-2, Octo, OpenVLA, RT-X — la misma familia arquitectónica sobre la cual se construyó el Fury de Scout AI orientado a defensa. Eka no ha divulgado públicamente si extienden un enfoque VLA existente o entrenan el suyo. Lo que es observable: su brazo se recupera de fallas de contacto (la lamparita que rueda, las llaves que se resbalan) sin reiniciar la tarea, que es el comportamiento que esperás de un modelo que mantiene estado a través de la manipulación en lugar de ejecutar planes de movimiento scripteados. Esa recuperación estado-a-través-del-contacto es la frontera de investigación abierta en destreza. Si Eka la tiene funcionando confiablemente, esa es la sustancia detrás de la demo.
Dos patrones importan. Primero, el contraste con hardware humanoide. Antes en la sesión cubrimos el ensayo de robots humanoides de Japan Airlines en el aeropuerto Haneda, donde la demo montada mostraba a un Unitree G1 "tambaleándose hacia un contenedor de carga y haciendo un gesto vago de empujar" — el contenedor en realidad se movió cuando un humano arrancó la cinta. Eso era hardware-sin-destreza. Eka es lo inverso — destreza-sobre-mesa sin la locomoción. El mercado de robótica se ha separado limpiamente entre "podemos mover un cuerpo humanoide pero no manipular" y "podemos manipular con un brazo fijo pero no movernos." Quien resuelva los dos primero gana. Segundo, el encuadre "momento ChatGPT para robots" es ahora un pitch estándar de la industria. Cada startup de robótica levantando dinero en 2026 usa alguna versión. Ese encuadre aterriza cuando la capacidad de pronto supera la expectativa, que es lo que hizo ChatGPT a fines de 2022. Para los robots, ese momento llega cuando un no-experto puede instruir a un robot a hacer una tarea de manipulación no familiar y tener éxito confiablemente. La demo de Eka está en el camino; si generaliza fuera de la demo es la pregunta abierta.
Para los builders, tres cosas concretas. Primero, si construís aguas abajo de la robótica — UI, tooling, evaluación, simulación — asumí que la destreza está en un cronograma de 2-3 años para deploy de producción funcionando, pero que el deploy va a parecer "brazo de mesa haciendo una tarea acotada" antes de parecer humanoides. No apuestes a un momento humanoide primero. Segundo, el patrón cofundador-académico-más-ex-investigador-DeepMind es la huella de fundador dominante en la robótica de frontera actual — Skild AI, Physical Intelligence, Generalist Robotics, y ahora Eka lo comparten. Si invertís o reclutás, esa concentración de pedigrí es la señal. Tercero, el detalle faltante en el pitch de Eka es el mismo que el detalle faltante en cualquier reclamo de modelo fundacional de robótica: cómo generaliza a objetos no vistos y tareas no vistas. La prueba honesta no es "atornillá esta lamparita" — es "atornillá un tornillo de cabeza plana con un destornillador Phillips." Esperá esa demo antes de comprometerte.
