Une cour d'appel fédérale à DC a refusé d'arrêter la liste noire de l'administration Trump contre Anthropic hier, rejetant la motion d'urgence de l'entreprise d'IA pour un sursis. Le panel de trois juges — tous des nominations républicaines incluant les choix de Trump Gregory Katsas et Neomi Rao — a reconnu qu'Anthropic subirait « probablement un certain degré de préjudice irréparable » mais a statué que l'entreprise n'avait pas démontré que sa liberté d'expression était brimée. La cour a accéléré l'affaire pour des plaidoiries le 19 mai, laissant Anthropic sans recours immédiat contre la désignation « risque de chaîne d'approvisionnement » du Pentagone qui interdit aux contractants militaires d'utiliser Claude.
Les décisions judiciaires divisées exposent comment le magasinage de juges et les nominations politiques façonnent maintenant l'application des politiques d'IA. Tandis que les juges nommés par Trump à DC ont soutenu l'administration, la nominee de Biden Rita Lin dans le district nord de la Californie a déjà accordé une injonction préliminaire à Anthropic en mars, qualifiant la liste noire de représailles « orwelliennes » contre la liberté d'expression protégée. Comme je l'avais couvert alors, Lin a trouvé que l'ultimatum du Pentagone — retirer les garde-fous de Claude contre les armes autonomes ou faire face aux conséquences — violait le Premier Amendement quand Anthropic a refusé.
Ce qui rend ceci fascinant, c'est l'angle international que d'autres sources révèlent : le gouvernement britannique courtise activement Anthropic avec des propositions d'inscription au London Stock Exchange et d'expansion de bureaux, spécifiquement à cause de la position de principe de l'entreprise contre l'armement de l'IA. Le bureau du Premier ministre Starmer soutient l'effort, voyant le refus d'Anthropic de construire des armes autonomes comme exactement le type d'entreprise d'IA que la Grande-Bretagne veut. C'est un contraste frappant — Washington punit Anthropic pour avoir des garde-fous éthiques tandis que Londres les récompense pour cela.
Pour les développeurs, cette division crée une véritable incertitude. Les contrats fédéraux d'Anthropic restent gelés en attente d'appels, mais l'injonction californienne fournit une certaine protection. Le message global est clair : votre position sur l'éthique de l'IA a maintenant des conséquences géopolitiques, et où vous vous incorporez pourrait importer autant que ce que vous construisez.
