La juge fédérale Rita Lin a ordonné à l'administration Trump de retirer sa désignation de « risque pour la chaîne d'approvisionnement » d'Anthropic et de restaurer l'accès des agences fédérales aux modèles d'IA de l'entreprise. Lin a statué jeudi que les actions du Pentagone violaient les droits du Premier Amendement d'Anthropic, qualifiant la démarche du gouvernement de « tentative de paralyser Anthropic » après que l'entreprise ait refusé d'autoriser des usages militaires comme les armes autonomes et la surveillance de masse.
Ceci marque le troisième développement majeur dans notre couverture continue de l'affrontement Pentagone-Anthropic. Ce qui a commencé comme un différend contractuel sur les politiques d'usage acceptable s'est escaladé pour devenir la première fois que le gouvernement instrumentalise les désignations de sécurité de la chaîne d'approvisionnement—typiquement réservées aux adversaires étrangers comme les entreprises technologiques chinoises—contre une firme d'IA domestique pour des raisons idéologiques. Le précédent est glaçant : toute entreprise d'IA qui ne plie pas aux demandes militaires pourrait faire face à des représailles similaires.
La caractérisation par la Maison-Blanche d'Anthropic comme une « entreprise radicale de gauche et woke » mettant en péril la sécurité nationale révèle la vraie motivation ici. Il ne s'agit pas de sécurité—il s'agit de forcer les entreprises d'IA à abandonner leurs garde-fous éthiques. Le PDG Dario Amodei a correctement qualifié les actions du Pentagone de « représailles et punitives ». L'administration a essentiellement tenté de détruire financièrement une entreprise pour avoir maintenu des principes d'IA responsables.
Pour les développeurs et utilisateurs d'IA, cette décision importe au-delà d'Anthropic. Elle établit que le gouvernement ne peut pas utiliser le théâtre de la sécurité nationale pour faire taire les entreprises qui ne compromettront pas sur la sécurité de l'IA. Mais attendez-vous à des appels et à une pression continue. La tension sous-jacente entre les ambitions militaires en IA et le développement responsable ne va nulle part, et d'autres entreprises d'IA observent attentivement pour voir si les principes ou le profit l'emportent.
