OpenAI a créé une fausse organisation citoyenne appelée « Parents and Kids Safe AI Coalition » pour faire secrètement du lobbying en faveur de réglementations sur la sécurité des enfants qui avantagent l'industrie de l'IA, selon un reportage du San Francisco Standard. Le stratagème impliquait des avocats d'OpenAI qui ont fondé la coalition, puis ont sollicité des appuis d'organismes légitimes de protection de l'enfance sans divulguer l'implication de l'entreprise. Les propositions politiques que ces groupes ont endorsées sans le savoir reflétaient la législation qu'OpenAI avait co-signée en Californie et qui protégerait les compagnies d'IA de toute responsabilité pour leurs produits.

Cette opération d'astroturfing révèle à quel point les compagnies d'IA sont devenues désespérées de contrôler leur environnement réglementaire alors que les gouvernements du monde entier se dépêchent à réglementer la technologie. Les dépenses de lobbying d'OpenAI ont bondi à 3 millions $ en 2025 comparé à 1,76 million $ en 2024, et des sources internes rapportent que les équipes de recherche de l'entreprise fonctionnent maintenant comme des bras de promotion de l'industrie plutôt que des organismes scientifiques neutres. La fausse coalition a donné aux politiques préférées d'OpenAI l'apparence d'un large soutien populaire tout en cachant les ficelles corporatives.

Plusieurs organismes à but non lucratif ont retiré leur soutien une fois qu'ils ont découvert la tromperie d'OpenAI. Josh Golin de FairPlay for Kids a refusé de se joindre après avoir découvert l'implication de l'entreprise, disant au Standard : « Je ne veux pas qu'OpenAI écrive ses propres règles sur la façon dont elle interagit avec les enfants. » Un organisateur anonyme a qualifié l'expérience de « crapuleuse », disant qu'OpenAI essayait de « se faufiler en coulisses » avec des communications « assez trompeuses ».

Pour les développeurs et utilisateurs d'IA, cet incident expose comment la rhétorique publique de sécurité de l'industrie masque souvent des tentatives de capture réglementaire intéressées. Quand vous évaluez des initiatives de sécurité IA ou des standards de l'industrie, regardez au-delà du message pour voir qui finance et dirige réellement l'effort. L'écart entre les engagements publics de sécurité d'OpenAI et ces tactiques de lobbying en coulisses devrait rendre tout le monde plus sceptique des propositions de « sécurité » menées par les corporations.