Trent AI, fondée par d'anciens ingénieurs AWS Eno Thereska et Neil [nom de famille coupé dans la source], a levé 13 millions de dollars en financement de démarrage mené par LocalGlobe et Cambridge Innovation Capital. La startup londonienne a été lancée hier avec le soutien de dirigeants de Databricks, Stripe et autres entreprises technologiques, se positionnant comme une entreprise de « sécurité d'agents AI ».

Le timing fait du sens—les agents AI passent des démos à la production, gérant tout du service client à la génération de code. Mais le paysage de sécurité pour ces systèmes est encore en cours de définition. La cybersécurité traditionnelle se concentrait sur la protection des données et réseaux. La sécurité des agents AI implique de nouveaux vecteurs d'attaque : injection de prompts, empoisonnement de modèles, extraction de données par des requêtes astucieuses, et des agents agissant hors de leurs limites prévues. La question est de savoir si Trent AI a identifié des problèmes spécifiques et valables ou mise sur une catégorie qui n'existe pas encore vraiment.

Les détails épars dans l'annonce sont révélateurs. Aucune mention de produits spécifiques, clients cibles, ou même quels types d'agents AI ils sécurisent. Pour une entreprise de sécurité, c'est soit un mode furtif stratégique ou ils sont encore en train de découvrir ce qu'ils construisent. Le pedigree AWS suggère qu'ils comprennent les problèmes à l'échelle d'infrastructure, mais la sécurité des agents AI requiert une expertise différente de la sécurité cloud traditionnelle.

Les développeurs déployant des agents AI devraient se concentrer sur les bases : validation d'entrée, filtrage de sortie, et limites d'agents claires. Jusqu'à ce qu'on voie ce que Trent AI livre réellement, la meilleure sécurité est une ingénierie de prompts soigneuse et une surveillance robuste de ce que vos agents font réellement.