Una corte federal de apelaciones en DC se negó a detener la lista negra de la administración Trump contra Anthropic ayer, negando la moción de emergencia de la empresa de IA para una suspensión. El panel de tres jueces — todos nominados republicanos incluyendo las selecciones de Trump Gregory Katsas y Neomi Rao — reconoció que Anthropic "probablemente sufriría algún grado de daño irreparable" pero dictaminó que la empresa no había demostrado que su expresión estaba siendo silenciada. La corte aceleró el caso para argumentos orales el 19 de mayo, dejando a Anthropic sin alivio inmediato de la designación de "riesgo de cadena de suministro" del Pentágono que prohíbe a los contratistas militares usar Claude.
Las decisiones judiciales divididas exponen cómo la búsqueda selectiva de jueces y los nombramientos políticos ahora moldean la aplicación de políticas de IA. Mientras los jueces nombrados por Trump en DC apoyaron a la administración, la nominada de Biden Rita Lin en el Distrito Norte de California ya otorgó a Anthropic una orden judicial preliminar en marzo, llamando a la lista negra represalia "orwelliana" por expresión protegida. Como cubrí entonces, Lin encontró que el ultimátum del Pentágono — remover las protecciones de Claude contra armas autónomas o enfrentar consecuencias — violó la Primera Enmienda cuando Anthropic se negó.
Lo que hace esto fascinante es el ángulo internacional que otras fuentes revelan: el gobierno británico está cortejando activamente a Anthropic con propuestas para cotización en London Stock Exchange y expansión de oficinas, específicamente por la posición de principios de la empresa contra armar la IA. La oficina del Primer Ministro Starmer respalda el esfuerzo, viendo el rechazo de Anthropic a construir armas autónomas como exactamente el tipo de empresa de IA que Gran Bretaña quiere. Es un contraste marcado — Washington castiga a Anthropic por tener protecciones éticas mientras Londres los recompensa por ello.
Para desarrolladores, esta división crea incertidumbre real. Los contratos federales de Anthropic permanecen congelados pendientes de apelaciones, pero la orden judicial de California proporciona alguna protección. El mensaje más amplio es claro: tu posición de ética en IA ahora tiene consecuencias geopolíticas, y dónde te incorpores podría importar tanto como lo que construyas.
