Deux startups de sécurité IA sont sorties de l'ombre cette semaine avec des pitchs quasi identiques : utiliser des agents IA pour sécuriser du code qui a probablement été généré par IA en premier lieu. Gitar a levé 9 millions $ pour réviser le code généré par IA, tandis que Trent AI basée à Londres a récolté 13 millions $ de LocalGlobe et Cambridge Innovation Capital pour ce qu'ils appellent une « solution de sécurité multi-agents » qui sécurise les agents IA tout au long de leur cycle de vie.
Ça ressemble à la logique IA de pointe de 2026 — on en est rendu au point où on a besoin d'IA pour surveiller l'IA qui écrit du code pour des humains qui comprennent de moins en moins ce que l'IA a écrit. Les fondateurs de Trent AI, d'anciens ingénieurs AWS, semblent au moins saisir la complexité récursive avec laquelle ils jonglent. Leur plateforme promet des agents qui « travaillent ensemble continuellement » pour scanner les modèles, analyser les risques, corriger les vulnérabilités et valider les correctifs à travers tout le workflow de développement.
Ce qui est révélateur, c'est comment ces compagnies positionnent différemment essentiellement le même problème. Alors que Gitar se concentre étroitement sur la révision de code, Trent AI vise plus large avec un langage de « plateforme en couches » qui suggère qu'ils comprennent que ce n'est pas juste une question d'attraper des bugs — c'est sécuriser des systèmes autonomes entiers qui prennent des décisions sans supervision humaine. Pendant ce temps, des projets open-source comme « The Agency » donnent déjà aux développeurs des agents IA spécialisés pour tout, du développement frontend à la gestion Reddit, montrant à quelle vitesse cette approche multi-agents devient incontournable.
Pour les développeurs, ça représente à la fois une opportunité et de l'épuisement. Oui, les agents IA peuvent probablement attraper des problèmes de sécurité que les réviseurs humains ratent. Mais on ajoute aussi une autre couche de complexité IA à déboguer quand ça va mal. Le vrai test sera de savoir si ces agents de sécurité peuvent expliquer leurs décisions assez clairement pour que les humains leur fassent confiance — ou si on est juste en train de construire un château de cartes IA.
