Exabeam expandió su plataforma Agent Behavior Analytics para monitorear la actividad de agentes IA a través de ChatGPT, Microsoft Copilot y Google Gemini, apuntando a una brecha de seguridad que ha crecido mientras la adopción corporativa de IA se aceleró. La plataforma rastrea las interacciones de empleados with estas herramientas IA, proporcionando visibilidad sobre qué datos se comparten, cómo responden los agentes, y riesgos de seguridad potenciales que los sistemas de monitoreo tradicionales pierden.

Este movimiento refleja un descuido crítico en el despliegue de IA empresarial: las empresas se apresuraron a integrar herramientas IA sin construir barreras de protección apropiadas. Mientras que los departamentos de TI pueden ver el tráfico de red hacia ai.openai.com, no pueden ver qué están alimentando realmente los empleados a estos sistemas o qué información sensible podría estar filtrándose. Exabeam está apostando que la analítica conductual — observar patrones en lugar de contenido — puede señalar uso riesgoso sin violar la privacidad.

El timing sugiere ansiedad empresarial creciente sobre la proliferación de agentes IA. Con fuentes limitadas disponibles, no está claro qué tan profundo va este monitoreo o si realmente puede detectar ataques sofisticados de inyección de prompts o exfiltración de datos a través de conversaciones IA. La plataforma probablemente se enfoca en patrones de uso y anomalías en lugar de análisis de contenido, lo que plantea preguntas sobre su efectividad contra actores maliciosos determinados.

Para desarrolladores y usuarios de IA, esto señala que la era del uso invisible de IA está terminando. Esperen más supervisión corporativa de sus conversaciones ChatGPT y sugerencias Copilot. Los equipos inteligentes deberían adelantarse estableciendo políticas claras de uso de IA y entendiendo qué patrones conductuales podrían activar alertas de seguridad en sus organizaciones.