La tentative d'Anthropic de contenir la fuite de son code source Claude Code a fini par démolir 8 100 dépôts GitHub légitimes cette semaine, incluant plusieurs forks du propre dépôt public officiel de l'entreprise. La demande de retrait DMCA, déposée mardi, ciblait initialement 96 dépôts spécifiques contenant du code divulgué. Mais le traitement automatisé en réseau de GitHub a élargi le filet pour frapper des milliers de développeurs innocents qui avaient simplement forké le dépôt public légitime Claude Code d'Anthropic — celui que l'entreprise encourage activement les gens à forker pour les rapports de bogues et contributions.

Ce bordel souligne à quel point les entreprises d'IA sont mal préparées pour gérer les fuites majeures. Comme j'ai couvert hier, tout le code source CLI Claude Code d'Anthropic a fuité, exposant des détails d'architecture interne que les concurrents analysent déjà. Le dépassement DMCA montre qu'ils se démènent maintenant avec des instruments légaux brutaux qui ne correspondent pas à la réalité technique de comment le code se propage. Quand tes avocats ne peuvent pas distinguer entre ton propre dépôt public et du code privé divulgué, t'as des plus gros problèmes que la fuite elle-même.

Le contrôle des dommages a été rapide mais limité. Anthropic a retiré la large demande de retrait mercredi, avec des dirigeants l'appelant une "erreur de communication". Mais des copies du code divulgué restent facilement trouvables sur GitHub et ont migré vers des plateformes comme Codeberg d'Allemagne, hors de portée du DMCA américain. Plusieurs développeurs utilisent déjà des outils d'IA pour créer des réimplémentations "salle blanche" basées sur l'architecture divulguée.

Pour les développeurs, ça renforce pourquoi vous devriez maintenir des copies locales de tout code que vous forkez — même des grandes entreprises d'IA. L'automation DMCA devient plus agressive, et les faux positifs sont inévitables quand les équipes légales essaient de résoudre des problèmes techniques avec des marteaux légaux.