TechCrunch reportó el 28 de abril que Google firmó un acuerdo con el Pentágono dándole acceso a su IA en redes clasificadas para "todos los usos legales" — los mismos términos que Anthropic rechazó en febrero y por los que fue castigada. Google se suma a OpenAI y xAI como el tercer proveedor mayor de IA en tomar un contrato del Pentágono que Anthropic rechazó. Según el Wall Street Journal, el contrato de Google incluye lenguaje diciendo que su IA no está destinada a vigilancia masiva doméstica ni a armas autónomas, pero no está claro si ese lenguaje es legalmente vinculante o exigible. 950 empleados de Google han firmado ahora una carta abierta pidiéndole a la empresa que siga el ejemplo de Anthropic — un alza desde los 560 nombres de hace 24 horas, antes de que se reportara el acuerdo de Google.
El recorrido de Anthropic ha sido duro y vale la pena entenderlo. Después de que el Secretario de Defensa Pete Hegseth convocara al CEO Dario Amodei al Pentágono para exigir que la empresa abandonara sus cláusulas de no-vigilancia-masiva y no-armas-autónomas, Anthropic se negó. El 27 de febrero, la administración Trump ordenó a agencias federales y contratistas militares cesar sus negocios con Anthropic; el DoD luego declaró a Anthropic un "riesgo de cadena de suministro," una designación normalmente reservada para adversarios extranjeros. Anthropic demandó en marzo. La jueza federal Rita Lin concedió una orden preliminar en un fallo de 43 páginas que calificó la designación como "clásica represalia ilegal de la Primera Enmienda" y rechazó lo que llamó la "noción orwelliana de que una empresa estadounidense pueda ser etiquetada como potencial adversaria y saboteadora de Estados Unidos por expresar desacuerdo con el gobierno." El 8 de abril, una corte de apelaciones rechazó la apelación más amplia de Anthropic sobre la designación — así que Anthropic tiene la orden preliminar pero perdió terreno a nivel de apelación.
Lo que queda es un paisaje de tres niveles. Anthropic rechazó la cláusula de "cualquier uso legal" y es el único laboratorio mayor cuyas líneas rojas han sido puestas a prueba realmente contra la aplicación del Pentágono. OpenAI firmó con líneas rojas contractuales explícitas — sin vigilancia masiva, sin armas autónomas — y la lectura de MIT Technology Review sobre ese acuerdo fue "esto es lo que Anthropic temía," porque las líneas rojas son contractuales pero el acuerdo existe. xAI aceptó lo que la prensa de Defensa describe como "pocas restricciones al uso militar de IA." El contrato de Google se ubica más cerca del de OpenAI: lenguaje sobre no-vigilancia y no-armas-autónomas, pero según el WSJ, la fuerza vinculante de ese lenguaje es incierta. El patrón: todo proveedor mayor de IA de frontera tiene ahora una relación con el Pentágono; la diferencia es qué tan duraderas son las líneas rojas cuando el Secretario de Defensa exige personalmente que se abandonen.
Para los builders, esto importa de tres maneras concretas. Primero, el fallo Lin — que etiquetar a una empresa privada de IA como "riesgo de cadena de suministro" por rechazar términos contractuales es "represalia de la Primera Enmienda" — es ahora precedente de corte federal, aun después del revés del 8 de abril en apelación sobre la designación más amplia. Ese lenguaje será citado en futuras peleas sobre cómo el gobierno de EE.UU. trata a proveedores que rechazan términos contractuales. Segundo, la elección de modelo tiene ahora una dimensión política que no es abstracta: si construyes sobre la API de un laboratorio de frontera, tu uso es fungible con el uso Pentágono de los modelos de ese laboratorio, lo que importa o no dependiendo de tu stack y tus clientes. Tercero, la dinámica de la carta abierta en Google (560 → 950 nombres en 24 horas) es una señal de que la presión interna sube, no baja; esperá más rechazos públicos de investigadores individuales incluso cuando sus empresas firman. Anthropic es el único laboratorio mayor donde el rechazo público es de la empresa, no sólo de los trabajadores.
