A Wired reportou em 28 de abril que mais de 700 trabalhadores da Covalen, uma contratada da Meta sediada em Dublin que faz treinamento de IA e moderação de conteúdo, foram avisados de que seus empregos estão em risco. Cerca de 500 são anotadores de dados — as pessoas que revisam o material gerado pelos modelos de IA da Meta contra as regras da empresa sobre conteúdo perigoso e ilegal. Os trabalhadores foram avisados em uma breve reunião por vídeo na segunda-feira, sem poderem fazer perguntas. Os cortes são a segunda rodada na Covalen em cinco meses; junto com os despedimentos de novembro (cerca de 400 vagas, que terminaram em greve), o efetivo da Covalen em Dublin está a caminho de quase ser reduzido pela metade. A Meta anunciou cortes de 1 em cada 10 funcionários em toda a empresa na semana passada, e separadamente anunciou que vai quase dobrar o gasto em IA.
O trabalho que está sendo cortado é o que a maioria dos laboratórios de IA chama de anotação adversarial e red-teaming. Os trabalhadores montam prompts elaborados para tentar burlar as salvaguardas do modelo — provocando o modelo a gerar CSAM, conteúdo suicida ou outro conteúdo proibido, e depois registrando onde o modelo falha. Um trabalhador descreveu para a Wired: "você passa o dia inteiro fingindo ser pedófilo." Outro disse: "é essencialmente treinar a IA para assumir nossos empregos. A gente toma ações como a decisão perfeita para a IA imitar." Esse é o trade-off que a Meta está fazendo: os humanos absorvem o custo psicológico do red-teaming, os julgamentos deles são destilados em classificadores de segurança automatizados, e os classificadores então os substituem. Uma cláusula de cooldown de seis meses nos contratos — os trabalhadores demitidos não podem se candidatar a fornecedores concorrentes da Meta — adiciona uma camada de direitos trabalhistas que o Communications Workers' Union está contestando.
Duas implicações se destacam. Primeira, a questão de segurança. Se a Meta está cortando sua força de trabalho de anotação adversarial enquanto dobra o gasto em IA, a aposta é que o red-teaming automatizado e os métodos "constitutional AI" já são bons o suficiente para substituir humanos nas categorias mais duras — CSAM, automutilação, jailbreaks. Essa aposta é da indústria inteira; OpenAI, Anthropic e Google usam misturas similares de red-teaming automatizado e humano. Se o red-teaming automatizado realmente pega os prompts humanos mais adversariais é uma pergunta empírica em aberto, e o modo de falha é assimétrico: um jailbreak CSAM perdido é dano real, não só uma métrica. Segunda, o padrão trabalhista. As pessoas que fazem o pior trabalho psicológico no desenvolvimento de IA — olhar o pior conteúdo que a internet consegue produzir, o dia inteiro — são também as mais precárias. São contratadas, não empregadas. Estão em geografias de baixo custo. Têm cláusulas de cooldown. A economia da anotação de segurança em IA hoje se parece muito com a economia da moderação de conteúdo em redes sociais há uma década, e aquilo também não terminou bem para os trabalhadores.
Para os builders, a leitura prática é curta. Se você constrói em cima de APIs "safety-tier" de qualquer laboratório grande, suas salvaguardas estão sendo cada vez mais treinadas por sistemas automatizados com supervisão humana encolhendo na camada de anotação adversarial — verifique os próprios casos-limite da sua aplicação em vez de confiar nos classificadores de segurança a montante. Se você constrói ferramentas que envolvem rotulagem human-in-the-loop, o precedente aqui é que esses trabalhadores são tratados como descartáveis; o padrão Covalen → greve de novembro → cortes de abril é o aviso, não a exceção. E para quem observa a Meta especificamente: na mesma semana em que a Meta cortou anotadores adversariais, anunciou quase dobrar seu capex em IA. O sinal não é ambíguo — a Meta acha que a IA treinando a IA já é boa o suficiente para substituir os humanos treinando a IA. A gente vai saber se isso é verdade do jeito que costuma saber: quando alguma coisa der errado.
