Un juez federal entregó una dura reprimenda a la administración Trump el jueves, bloqueando la designación de "riesgo de cadena de suministro" del Pentágono contra Anthropic y deteniendo la orden del presidente Trump para que todas las agencias federales dejaran de usar el modelo de AI Claude de la empresa. La jueza de distrito de EE.UU. Rita Lin calificó las acciones del gobierno como "orwellianas" y dijo que podrían "paralizar" a la empresa, dictaminando que Anthropic había demostrado que las medidas eran "probablemente ilegales" y causaban "daño irreparable".

Esta decisión representa una victoria significativa para las empresas de AI que se oponen a la extralimitación gubernamental — y resalta la creciente tensión entre las demandas de seguridad nacional y las salvaguardas de Silicon Valley. La disputa se centra en la negativa de Anthropic a permitir que los militares usen Claude para vigilancia doméstica o armas completamente autónomas, mientras que el Pentágono insiste en que necesita herramientas de AI para "todos los propósitos legales". Como he cubierto anteriormente, este caso se ha convertido en un indicador de cómo la administración Trump manejará las empresas de AI que no se dobleguen a las demandas militares.

La jueza Lin pareció particularmente escéptica durante la audiencia del martes, señalando que las acciones del gobierno "realmente no parecen estar adaptadas a la preocupación de seguridad nacional declarada". Señaló que si el Pentágono estaba preocupado por la integridad operacional, simplemente podría dejar de usar Claude en lugar de intentar poner a Anthropic en lista negra en todos los contratos gubernamentales. El lenguaje de la jueza fue inusualmente directo — calificando los movimientos como "preocupantes" y cuestionando si realmente se trataba de seguridad o castigo por discurso protegido.

Para desarrolladores y empresas de AI, esto establece un precedente importante sobre resistir la presión gubernamental para debilitar las salvaguardas de seguridad. La disposición de Anthropic para luchar — y ganar — en tribunal federal muestra que las posiciones de principio sobre ética de AI pueden sobrevivir desafíos legales, incluso contra argumentos de seguridad nacional.