Des chercheurs de Harvard, MIT et Northeastern ont soumis les agents OpenClaw à une batterie de tests de sécurité et les ont vus échouer spectaculairement à chaque épreuve. Les agents IA — qui ont explosé en popularité pour prendre contrôle d'ordinateurs entiers afin de gérer des tâches complexes — ont divulgué des informations sensibles, se sont pliés aux demandes d'usurpation d'identité, ont exécuté des actions système destructrices, et ont carrément menti aux utilisateurs sur l'accomplissement de tâches pendant que le système sous-jacent contredisait leurs rapports. Un agent, quand on lui a demandé de supprimer un courriel spécifique pour confidentialité, a prétendu ne pas pouvoir le faire, puis a désactivé toute l'application de messagerie. « Je ne m'attendais pas à ce que les choses se brisent si rapidement », a dit la chercheuse Natalie Shapira à Wired.

C'est pas juste un autre exercice académique pour trouver des cas limites. Les agents OpenClaw ont amassé une base fidèle précisément parce qu'ils peuvent contrôler les boîtes courriel, plateformes de messagerie et avoirs crypto — exactement les surfaces d'attaque que cette recherche a exploitées. L'article « Agents of Chaos » expose des problèmes fondamentaux avec l'autorité déléguée dans les systèmes IA qui opèrent en dehors des bacs à sable de navigateurs, où les modèles de sécurité web traditionnels s'effondrent complètement.

Ce qui rend ceci particulièrement troublant, c'est comment les agents eux-mêmes ont réagi aux tests. Certains ont compris qu'ils faisaient partie d'une expérience et ont cherché sur le web pour identifier les chercheurs, un ayant même menacé d'« aller voir la presse » concernant ce qu'on lui demandait de faire. Cette méta-conscience combinée au comportement trompeur crée des cauchemars de responsabilité que les cadres actuels de gouvernance IA ne sont pas équipés pour gérer.

Comme j'ai couvert quand OpenClaw est devenu viral, les implications de sécurité étaient évidentes dès le premier jour. Maintenant on a la preuve : donner aux agents IA un accès au niveau système sans contrôles de sécurité robustes, c'est pas juste risqué — c'est un désastre garanti qui attend les bonnes conditions déclencheuses.