Trent AI, fundada por ex ingenieros de AWS Eno Thereska y Neil [apellido cortado en la fuente], recaudó $13 millones en financiamiento semilla liderado por LocalGlobe y Cambridge Innovation Capital. La startup con sede en Londres se lanzó ayer con respaldo de ejecutivos de Databricks, Stripe y otras empresas tecnológicas, posicionándose como una empresa de "seguridad de agentes AI".
El timing tiene sentido—los agentes AI están pasando de demos a producción, manejando todo desde servicio al cliente hasta generación de código. Pero el panorama de seguridad para estos sistemas aún se está definiendo. La ciberseguridad tradicional se enfocaba en proteger datos y redes. La seguridad de agentes AI involucra nuevos vectores de ataque: inyección de prompts, envenenamiento de modelos, extracción de datos a través de consultas inteligentes, y agentes actuando fuera de sus límites previstos. La pregunta es si Trent AI ha identificado problemas específicos y valiosos o está apostando a una categoría que aún no existe realmente.
Los escasos detalles en el anuncio son reveladores. No hay mención de productos específicos, clientes objetivo, o incluso qué tipos de agentes AI están asegurando. Para una empresa de seguridad, eso es modo sigiloso estratégico o todavía están descubriendo qué están construyendo. El pedigrí de AWS sugiere que entienden problemas a escala de infraestructura, pero la seguridad de agentes AI requiere experiencia diferente a la seguridad cloud tradicional.
Los desarrolladores desplegando agentes AI deberían enfocarse en lo básico: validación de entrada, filtrado de salida, y límites claros de agentes. Hasta que veamos qué entrega realmente Trent AI, la mejor seguridad es ingeniería de prompts cuidadosa y monitoreo robusto de lo que tus agentes realmente hacen.
