La startup Wafer está entrenando modelos de IA para optimizar automáticamente software para cualquier arquitectura de chip, potencialmente rompiendo el dominio de Nvidia sobre el ecosistema de software de rendimiento. La compañía usa aprendizaje por refuerzo en modelos de código abierto para escribir código kernel y añade "arneses agénticos" a modelos como Claude y GPT-4 para mejorar sus habilidades de codificación específicas para hardware. Wafer ya ha asegurado alianzas con AMD y Amazon, recaudando $4 millones de inversionistas notables incluyendo a Jeff Dean de Google y Wojciech Zaremba de OpenAI.
Esto importa porque la valuación de $4 billones de Nvidia no está construida solo en silicio superior—es su ecosistema de software CUDA lo que hace sus chips más fáciles de programar y optimizar. Como señala el CEO de Wafer Emilio Andere, "el mejor hardware de AMD, el mejor hardware Trainium, los mejores TPUs" ahora igualan el poder de cómputo bruto de Nvidia. El cuello de botella han sido los ingenieros de rendimiento escasos y caros necesarios para liberar ese potencial. Si la IA puede automatizar este trabajo de optimización, de repente cada chip se vuelve tan accesible como los de Nvidia.
La narrativa más amplia de "democratización de IA" se extiende mucho más allá de los chips. Las discusiones de la industria revelan patrones similares en agricultura, donde expertos debaten si la IA puede hacer la tecnología agrícola avanzada accesible a pequeños agricultores, y en interfaces de computación general, donde algunos argumentan que los large language models se convertirán en la UI universal que hace todo software más fácil de usar. Pero el problema de optimización de chips es más concreto—se trata de automatizar una tarea de ingeniería específica y medible en lugar de promesas vagas sobre "empoderar a todos".
Para desarrolladores, esto podría remodelar las decisiones de infraestructura. Si Wafer y herramientas similares pueden optimizar código de manera confiable para chips alternativos, el premium de escasez de GPU y el lock-in de CUDA se vuelve menos relevante. La prueba real será si las optimizaciones generadas por IA pueden igualar el rendimiento ajustado a mano en cargas de trabajo de producción, no solo benchmarks.
