Las implementaciones de IA empresarial están chocando contra un muro de seguridad fundamental para el que la mayoría de las organizaciones no están preparadas, según Ronan Murphy, director de estrategia de datos en Forcepoint. Mientras la IA agéntica se escala en las empresas, la clasificación débil de datos y los controles de acceso sin gobierno están creando lo que Murphy describe como situaciones donde las empresas están "a un prompt del desastre". El problema central no es solo sobre la seguridad del modelo de IA — es que la infraestructura de datos subyacente en la que confían la mayoría de las empresas nunca fue diseñada para manejar los patrones de acceso sofisticados que crean los agentes de IA.
Esto se conecta directamente con lo que escribí en marzo cuando los sistemas de identidad empresarial comenzaron a fallar bajo las cargas de trabajo de agentes de IA. El problema ha evolucionado: no es solo la autenticación lo que está fallando, es toda la capa de gobierno de datos. Cuando un agente de IA puede potencialmente acceder y sintetizar información a través de docenas de fuentes de datos en una sola solicitud, los modelos de seguridad tradicionales basados en perímetro se desmoronan. El punto de Murphy sobre equipos "excesivamente confiados" suena cierto — muchas organizaciones están implementando IA sin entender que sus sistemas de clasificación de datos existentes no pueden manejar las decisiones de acceso matizadas que requieren estas herramientas.
Lo que hace esto particularmente preocupante es que el riesgo no es teórico. A diferencia de las brechas de seguridad tradicionales que requieren ataques deliberados, la exposición de datos impulsada por IA puede ocurrir a través de prompts aparentemente inocentes que accidentalmente exponen información sensible a la que el modelo nunca se suponía que debía acceder. Para los desarrolladores que construyen aplicaciones de IA, esto significa que el gobierno de datos no puede ser una idea tardía — necesita ser arquitecturado desde el día uno, with límites claros alrededor de qué fuentes de datos puede acceder tu IA y controles explícitos alrededor de la síntesis de información a través de dominios de seguridad.
