OpenAI creó una organización base falsa llamada "Parents and Kids Safe AI Coalition" para cabildear secretamente por regulaciones de seguridad infantil favorables a la industria de IA, según reportaje del San Francisco Standard. El esquema involucró abogados de OpenAI fundando la coalición, luego solicitando respaldos de organizaciones legítimas de seguridad infantil sin revelar la participación de la empresa. Las propuestas políticas que estos grupos respaldaron sin saberlo reflejaban legislación que OpenAI había co-firmado en California que protegería a las empresas de IA de responsabilidad por sus productos.

Esta operación de astroturfing revela qué tan desesperadas se han vuelto las empresas de IA por controlar su entorno regulatorio mientras gobiernos mundiales se apuran a regular la tecnología. El gasto en cabildeo de OpenAI saltó a $3 millones en 2025 desde $1.76 millones en 2024, e informantes reportan que los equipos de investigación de la empresa ahora funcionan como brazos de promoción industrial en lugar de cuerpos científicos neutrales. La coalición falsa dio a las políticas preferidas de OpenAI la apariencia de amplio apoyo popular mientras ocultaba los hilos corporativos.

Múltiples organizaciones sin fines de lucro retiraron su apoyo una vez descubrieron el engaño de OpenAI. Josh Golin de FairPlay for Kids se negó a unirse después de descubrir la participación de la empresa, diciéndole al Standard: "No quiero que OpenAI escriba sus propias reglas sobre cómo interactúa con niños." Un organizador anónimo llamó la experiencia "sucia", diciendo que OpenAI estaba "tratando de escabullirse tras bambalinas" con comunicaciones "bastante engañosas".

Para desarrolladores y usuarios de IA, este incidente expone cómo la retórica pública de seguridad de la industria a menudo enmascara intentos de captura regulatoria por interés propio. Al evaluar iniciativas de seguridad de IA o estándares industriales, miren más allá del mensaje para ver quién realmente está financiando y dirigiendo el esfuerzo. La brecha entre los compromisos públicos de seguridad de OpenAI y estas tácticas de cabildeo por la puerta trasera debería hacer a todos más escépticos de las propuestas de "seguridad" lideradas por corporaciones.