El Secretario de Defensa Pete Hegseth le dio un ultimátum al CEO de Anthropic Dario Amodei en febrero: quitar las salvaguardas de Claude contra armas autónomas y vigilancia masiva, o enfrentar las consecuencias. Cuando Amodei se negó, citando preocupaciones sobre socavar "valores democráticos", el gobierno estadounidense se movió rápido—Trump ordenó a las agencias federales dejar de usar la tecnología de Anthropic, el Pentágono la etiquetó como un riesgo de cadena de suministro junto a empresas como Huawei, y un contrato de defensa de $200 millones desapareció.

El Department for Science, Innovation and Technology británico vio algo diferente en la postura de principios de Anthropic. Los oficiales del Reino Unido ahora están cortejando a la empresa de $380 mil millones con propuestas para una cotización dual en el London Stock Exchange y operaciones expandidas en Reino Unido, respaldadas por la oficina del Primer Ministro Keir Starmer. Con 200 empleados ya en Gran Bretaña y el ex-PM Rishi Sunak como asesor senior, Anthropic tiene infraestructura existente sobre la cual construir.

La pelea legal continúa—la Jueza de Distrito estadounidense Rita Lin otorgó una orden judicial bloqueando la lista negra del Pentágono, llamando las acciones del gobierno "preocupantes" y probablemente ilegales. La apelación del Ninth Circuit permanece pendiente. Esta resistencia judicial valida la posición legal de Anthropic y da cobertura a gobiernos internacionales para cortejar a la empresa.

Para los constructores de IA, esto importa prácticamente. Si las empresas que priorizan la ética pueden encontrar refugio en jurisdicciones más amigables, cambia el cálculo alrededor de construir sistemas de IA responsables. Reino Unido está apostando que en un mundo de IA multipolar, ser la jurisdicción que da la bienvenida a empresas con principios—en lugar de exigir cumplimiento militar—se convierte en una ventaja competitiva para atraer el mejor talento e inversión en IA.