Múltiples medios tech incluyendo The Next Web, Dataconomy, y Storyboard18 reportaron el martes 28 de abril que Google ha firmado un acuerdo IA clasificado con el Departamento de Defensa de EE.UU. que permite el uso de sus modelos IA para «cualquier propósito gubernamental legal», sin prohibiciones contractuales contra vigilancia doméstica masiva o sistemas de armas completamente autónomos. La frase viene de fuentes anónimas en lugar de divulgación pública de Google o del DoD, y Google no ha confirmado ni comentado públicamente al momento del reporte. El valor del contrato, los modelos específicos de Google cubiertos, y la fecha efectiva exacta no se han divulgado. El timing es la parte de la historia que aterriza: el lunes 27 de abril, 560+ empleados de Google y DeepMind incluyendo 18 ejecutivos sénior publicaron una carta abierta a Sundar Pichai pidiéndole rechazar cargas IA clasificadas del Pentágono sobre la base de que las redes clasificadas hacen imposible la aplicación de uso aceptable; el martes en la mañana, este acuerdo estaba siendo reportado. Como sea que lo leas, la secuencia es la compañía haciendo lo opuesto a lo que la carta solicitaba dentro de una ventana de 24 horas.
La realidad técnica que la historia confirma es el problema arquitectural que la carta de empleados nombró. El enfrentamiento de Anthropic en febrero de 2026 con el Pentágono terminó con Anthropic rehusándose a quitar prohibiciones de uso aceptable sobre vigilancia masiva y armas autónomas; la administración Trump respondió designando a Anthropic riesgo de cadena de suministro y la Corte de Apelaciones DC negó la apelación a principios de abril. El acuerdo reportado de Google es el inverso preciso: tomar el contrato en los términos que el Pentágono aceptará, lo que significa sin excepciones. En redes clasificadas air-gapped el rastro de auditoría de API en el que Anthropic se basó no existe, así que no hay manera operacional para que Google sepa si un modelo desplegado está siendo usado para propósitos prohibidos incluso si el contrato hubiera nombrado algunos. El encuadre «cualquier propósito gubernamental legal» lo hace explícito; el contrato está estructurado alrededor de la autoridad legal del cliente en lugar de la política de producto del proveedor. Esta es la elección arquitectural que la carta de empleados identificó y le pidió a Pichai no hacer. Si el acuerdo reportado de Google es materialmente diferente de los contratos clasificados existentes de Microsoft, Palantir, o Anduril depende de términos aún no públicos, pero el encuadre de titular por sí solo remueve a Google del lado Anthropic de la división industrial.
La implicación más amplia es que la división IA-defensa es ahora una topología industrial establecida en lugar de una pregunta abierta. De un lado: Anthropic, con restricciones AUP públicamente aplicadas y una prohibición de la administración Trump como costo. Del otro: Google (reportadamente), Microsoft, el contrato Pentágono paralelo de OpenAI, el rol de prime contractor de Palantir en Maven, y Lattice de Anduril. La explicación económica es directa — el presupuesto de adquisición de IA frontera del Pentágono es lo suficientemente grande como para que los proveedores que acepten términos de «cualquier propósito legal» obtengan los contratos y los que no, obtengan una designación de riesgo de cadena de suministro. La explicación política es que la rama ejecutiva puede efectivamente vetar el lenguaje AUP amenazando con exclusión de la adquisición federal, lo que el precedente Anthropic demostró. El reporte de Google, si se confirma, señala que el resto de la industria IA frontera excepto Anthropic ha elegido el lado adquisición-ingreso de ese trade. La carta de 560 empleados, los 18 firmantes sénior, y la presión pública no produjeron cambio observable a los términos del contrato, lo que es en sí mismo un punto de datos para cómo el apalancamiento del mercado laboral sobre la ética IA funciona en 2026: real en el registro público, inefectivo en la estructura contractual.
Para constructores, tres cosas concretas que vale registrar. Primero, si estás evaluando proveedores IA frontera para cualquier trabajo donde la visibilidad del rastro de auditoría sobre casos de uso importa, el compromiso AUP público es ahora un criterio de selección significativo en lugar de un detalle de marketing. Anthropic está de un lado de esa línea; el resto está del otro. Segundo, la consecuencia del mercado de talento es real pero de segundo orden. Los ingenieros que firmaron la carta no van a caminar en masa, pero la fricción de reclutamiento que esto crea para investigadores IA alineados con seguridad es ahora estructural y se compondrá en los próximos 12-24 meses. Tercero, la capa regulatoria es lo que importa para el próximo movimiento: el AI Act de la UE, el AI Safety Institute del Reino Unido y equivalentes tratarán los contratos de «cualquier propósito gubernamental legal» como factores de riesgo en el despliegue transfronterizo de modelos US-frontera para clientes no-gubernamentales-US, lo que significa que una porción del mercado global para estos proveedores necesitará ser servida ya sea a través de envolturas contractuales diferentes o a través de modelos alojados por intermediarios amigables-con-reguladores (Mistral, el canal nube soberana UE, etc.). El efecto completo no será visible en 2026 pero el lock-in estructural está ahora en su lugar. Google no ha comentado y la historia puede evolucionar mientras aterrizan las divulgaciones oficiales.
