Un juez federal otorgó a Anthropic una orden judicial preliminar bloqueando la inclusión en lista negra de la empresa de IA por parte del Departamento de Guerra, llamándola "represalia clásica de la Primera Enmienda". La juez de distrito estadounidense Rita Lin encontró que los oficiales designaron a Anthropic como un riesgo de cadena de suministro no por razones de seguridad nacional, sino por la "manera hostil de la empresa a través de la prensa". El DoW no pudo justificar por qué medidas menos restrictivas no funcionarían o proporcionar evidencia de riesgos de seguridad urgentes.

Este caso revela qué tan rápido las empresas de IA pueden convertirse en objetivos políticos. Anthropic ya perdió tres acuerdos comerciales y vio otras asociaciones retrasadas después de la inclusión en lista negra. La empresa estima que miles de millones en contratos gubernamentales y privados potenciales están en juego durante cinco años. Para una empresa tratando de competir con OpenAI y Google, perder acceso a contratos gubernamentales podría ser existencial.

El gobierno obtuvo una suspensión administrativa de siete días, dándoles tiempo para apelar. El Subsecretario Emil Michael llamó el fallo del juez "una desgracia" con "errores factuales", señalando que los oficiales de Trump no se echarán para atrás fácilmente. Lo que falta en la cobertura es qué exactamente dijo Anthropic en la prensa que desencadenó esta respuesta—entender ese contexto importa para otras empresas de IA navegando relaciones gubernamentales.

Los desarrolladores y empresas de IA deberían notar este precedente: criticar políticas gubernamentales de IA públicamente ahora conlleva riesgo comercial real. Mientras Anthropic mantiene que quiere "trabajar productivamente con el gobierno", esta pelea muestra qué tan delgada es la línea entre la defensa y la represalia en el clima político actual.