Un juge fédéral a livré une réprimande cinglante à l'administration Trump jeudi, bloquant la désignation de « risque de chaîne d'approvisionnement » du Pentagone contre Anthropic et arrêtant l'ordre du président Trump pour toutes les agences fédérales d'arrêter d'utiliser le modèle AI Claude de l'entreprise. La juge de district américaine Rita Lin a qualifié les actions du gouvernement d'« orwelliennes » et a dit qu'elles pourraient « paralyser » l'entreprise, statuant qu'Anthropic avait montré que les mesures étaient « probablement illégales » et causaient un « préjudice irréparable ».

Cette décision représente une victoire significative pour les entreprises AI qui résistent au dépassement gouvernemental — et souligne la tension croissante entre les demandes de sécurité nationale et les garde-fous de la Silicon Valley. Le conflit se centre sur le refus d'Anthropic de laisser l'armée utiliser Claude pour la surveillance domestique ou les armes entièrement autonomes, tandis que le Pentagone insiste qu'il a besoin d'outils AI pour « tous les objectifs légaux ». Comme j'ai couvert précédemment, ce cas est devenu un indicateur de comment l'administration Trump va gérer les entreprises AI qui ne plient pas aux demandes militaires.

La juge Lin a semblé particulièrement sceptique pendant l'audience de mardi, notant que les actions du gouvernement « ne semblent pas vraiment être adaptées à la préoccupation de sécurité nationale énoncée ». Elle a souligné que si le Pentagone était inquiet de l'intégrité opérationnelle, il pourrait simplement arrêter d'utiliser Claude plutôt que de tenter de mettre Anthropic sur liste noire à travers tous les contrats gouvernementaux. Le langage de la juge était inhabituellement pointu — qualifiant les mouvements de « troublants » et questionnant s'ils concernaient vraiment la sécurité ou la punition pour la parole protégée.

Pour les développeurs et entreprises AI, ceci établit un précédent important concernant la résistance à la pression gouvernementale pour affaiblir les garde-fous de sécurité. La volonté d'Anthropic de se battre — et de gagner — en cour fédérale montre que les positions de principe sur l'éthique AI peuvent survivre aux défis légaux, même contre les arguments de sécurité nationale.