Wired a rapporté le 28 avril que plus de 700 travailleurs chez Covalen, un contractant de Meta basé à Dublin qui fait de l'entraînement IA pis de la modération de contenu, ont été avisés que leurs jobs sont à risque. Environ 500 sont des annotateurs de données — les personnes qui vérifient le matériel généré par les modèles IA de Meta contre les règles de la compagnie sur le contenu dangereux pis illégal. Les travailleurs ont été avisés par une brève réunion vidéo lundi, sans pouvoir poser de questions. Les coupes sont la deuxième vague chez Covalen en cinq mois; avec les mises à pied de novembre (environ 400 jobs, qui se sont terminées en grève), l'effectif de Covalen à Dublin est en voie d'être presque coupé de moitié. Meta a annoncé la semaine passée des coupes de 1 sur 10 à l'échelle de la compagnie, pis a annoncé séparément qu'elle va presque doubler ses dépenses IA.
Le travail qui se fait couper, c'est ce que la plupart des labos IA appellent l'annotation adversariale pis le red-teaming. Les travailleurs élaborent des prompts compliqués pour essayer de contourner les garde-fous du modèle — pour provoquer le modèle à générer du contenu pédopornographique, suicidaire ou autrement interdit, pis ensuite logger où le modèle plante. Un travailleur l'a décrit à Wired : « Tu passes ta journée à faire semblant d'être un pédophile. » Un autre a dit : « Ça revient à entraîner l'IA à prendre nos jobs. On prend les actions comme la décision parfaite que l'IA va imiter. » C'est le compromis que Meta fait : les humains absorbent le coût psychologique du red-teaming, leurs jugements sont distillés dans des classificateurs de sécurité automatisés, pis les classificateurs les remplacent. Une clause de cooldown de six mois dans les contrats — les travailleurs mis à pied ne peuvent pas postuler chez des fournisseurs concurrents de Meta — ajoute une dimension de droits du travail que le Communications Workers' Union conteste.
Deux implications ressortent. Premièrement, la question de la sécurité. Si Meta coupe sa main-d'œuvre d'annotation adversariale pendant qu'elle double ses dépenses IA, le pari c'est que le red-teaming automatisé pis les méthodes « constitutional AI » sont rendus assez bons pour remplacer les humains sur les catégories les plus dures — CSAM, automutilation, jailbreaks. Ce pari est partagé dans l'industrie; OpenAI, Anthropic pis Google utilisent des mélanges similaires de red-teaming automatisé pis humain. La question empirique de savoir si le red-teaming automatisé attrape vraiment les prompts humains les plus adversariaux est ouverte, pis le mode d'échec est asymétrique : un jailbreak CSAM manqué, c'est un dommage réel, pas juste une métrique. Deuxièmement, le pattern de travail. Les personnes qui font le pire travail psychologique du développement IA — regarder le pire contenu que l'internet peut produire, toute la journée — sont aussi les plus précaires. Ce sont des contractants, pas des employés. Ils sont dans des géographies à coûts bas. Ils ont des clauses de cooldown. L'économie de l'annotation de sécurité IA ressemble pas mal à l'économie de la modération de contenu sur les médias sociaux d'y a dix ans, pis ça s'est pas bien fini pour les travailleurs cette fois-là non plus.
Pour les builders, la lecture pratique est courte. Si tu bâtis sur des APIs « safety-tier » de n'importe quel labo majeur, tes garde-fous sont de plus en plus entraînés par des systèmes automatisés avec une supervision humaine qui rapetisse à la couche d'annotation adversariale — vérifie tes propres cas limites au lieu de te fier aux classificateurs de sécurité en amont. Si tu bâtis des outils qui impliquent de l'étiquetage human-in-the-loop, le précédent ici, c'est que ces travailleurs sont traités comme jetables; le pattern Covalen → grève de novembre → coupes d'avril, c'est le warning, pas l'exception. Pis pour quiconque regarde Meta spécifiquement : la même semaine où Meta a coupé ses annotateurs adversariaux, elle a annoncé un quasi-doublement de son capex IA. Le signal est pas ambigu — Meta pense que l'IA qui entraîne l'IA est rendue assez bonne pour remplacer les humains qui entraînent l'IA. On va savoir si c'est vrai de la manière qu'on le sait d'habitude : quand de quoi va mal tourner.
