Anthropic restreint l'accès public à son nouveau modèle Claude Mythos Preview après que l'IA ait démontré des capacités de cybersécurité sans précédent, trouvant des vulnérabilités dans tous les systèmes d'exploitation et navigateurs web majeurs. La compagnie a annoncé le Projet Glasswing — un consortium avec AWS, Apple, Microsoft, NVIDIA, et les grandes banques — pour fournir un accès contrôlé aux tests tout en gardant le modèle loin d'une sortie publique. Le secrétaire au Trésor Scott Bessent et le président de la Fed Jerome Powell ont convoqué des réunions d'urgence avec les PDG de Goldman Sachs, Morgan Stanley, et d'autres grandes banques pour discuter des risques cybernétiques.
Cela marque un virage significatif dans les discussions sur la sécurité de l'IA, passant des préoccupations théoriques d'alignement aux menaces de sécurité immédiates et mesurables. Contrairement aux précédentes affirmations « trop dangereuses pour être publiées » autour de modèles comme GPT-2, Mythos a déjà démontré des capacités concrètes en identifiant des milliers de vulnérabilités de haute gravité. Le PDG de Goldman Sachs David Solomon a confirmé que sa banque a accès et travaille directement avec Anthropic sur les mesures de sécurité — un partenariat notable entre les compagnies d'IA et les institutions les plus vulnérables aux capacités offensives de la technologie.
Les chercheurs en sécurité sont particulièrement préoccupés par l'infrastructure bancaire héritée. Costin Raiu a dit à Reuters que les systèmes construits par IBM il y a des décennies seraient particulièrement vulnérables, les appelant « technologies anciennes qui alimentent l'industrie financière ». L'AI Security Institute du Royaume-Uni a émis son propre avertissement concernant Mythos, tandis que le gouvernement américain fait face à la position délicate de devoir coopérer avec une compagnie qu'il a récemment étiquetée comme un risque de chaîne d'approvisionnement suite aux disputes d'utilisation du département de la défense.
Pour les développeurs, cela crée un nouveau précédent : les capacités avancées d'IA pourraient de plus en plus venir avec un accès restreint et des gardiens institutionnels. L'accès anticipé de l'industrie bancaire suggère que les futurs outils de sécurité IA passeront probablement par les canaux d'entreprise établis plutôt que par des API ouvertes ou des produits de consommation.
