Wired reportó el 28 de abril que más de 700 trabajadores de Covalen, un contratista de Meta basado en Dublín que hace entrenamiento de IA y moderación de contenido, fueron avisados de que sus empleos están en riesgo. Cerca de 500 son anotadores de datos — las personas que revisan el material generado por los modelos de IA de Meta contra las reglas de la empresa sobre contenido peligroso e ilegal. Los trabajadores fueron avisados en una breve reunión en video el lunes, sin permitirles hacer preguntas. Los recortes son la segunda ronda en Covalen en cinco meses; con los despidos de noviembre (alrededor de 400 puestos, que terminaron en huelga), la plantilla de Covalen en Dublín va en camino a casi reducirse a la mitad. Meta anunció recortes de 1 de cada 10 puestos en toda la empresa la semana pasada y anunció por separado que casi duplicará su gasto en IA.
El trabajo que se está recortando es lo que la mayoría de los laboratorios de IA llaman anotación adversarial y red-teaming. Los trabajadores arman prompts elaborados para tratar de saltar las salvaguardas del modelo — provocando al modelo a generar CSAM, contenido suicida u otro contenido prohibido, y luego registrando dónde falla el modelo. Un trabajador lo describió a Wired: "te pasás el día entero fingiendo ser un pedófilo." Otro dijo: "esencialmente es entrenar a la IA a tomar nuestros empleos. Tomamos acciones como la decisión perfecta que la IA va a imitar." Ése es el trade-off que está haciendo Meta: los humanos absorben el costo psicológico del red-teaming, sus juicios se destilan en clasificadores de seguridad automatizados, y los clasificadores los reemplazan. Una cláusula de cooldown de seis meses en los contratos — los trabajadores despedidos no pueden postular a proveedores competidores de Meta — agrega una arruga de derechos laborales que el Communications Workers' Union está contestando.
Dos implicaciones se destacan. Primero, la pregunta de seguridad. Si Meta está recortando su fuerza de trabajo de anotación adversarial mientras duplica el gasto en IA, la apuesta es que el red-teaming automatizado y los métodos "constitutional AI" ya son lo suficientemente buenos como para reemplazar humanos en las categorías más duras — CSAM, autolesión, jailbreaks. Esa apuesta es a nivel de industria; OpenAI, Anthropic y Google usan mezclas similares de red-teaming automatizado y humano. Si el red-teaming automatizado realmente atrapa los prompts humanos más adversariales es una pregunta empírica abierta, y el modo de falla es asimétrico: un jailbreak CSAM perdido es un daño real, no sólo una métrica. Segundo, el patrón laboral. Las personas que hacen el peor trabajo psicológico en el desarrollo de IA — mirar el peor contenido que internet puede producir, todo el día — son también las más precarias. Son contratistas, no empleados. Están en geografías de bajo costo. Tienen cláusulas de cooldown. La economía de la anotación de seguridad de IA hoy se parece mucho a la economía de la moderación de contenido en redes sociales hace una década, y eso no terminó bien para los trabajadores tampoco.
Para los builders, la lectura práctica es corta. Si construyes sobre APIs "safety-tier" de cualquier laboratorio mayor, tus salvaguardas se entrenan cada vez más con sistemas automatizados con supervisión humana en encogimiento en la capa de anotación adversarial — verificá tus propios casos límite en vez de confiar en los clasificadores de seguridad río arriba. Si construís herramientas que involucran etiquetado human-in-the-loop, el precedente acá es que esos trabajadores son tratados como descartables; el patrón Covalen → huelga de noviembre → recortes de abril es la advertencia, no la excepción. Y para cualquiera que mire a Meta específicamente: la misma semana en que Meta recortó anotadores adversariales, anunció una casi-duplicación de su capex en IA. La señal no es ambigua — Meta cree que la IA que entrena a la IA ya es lo suficientemente buena como para reemplazar a los humanos que entrenan a la IA. Vamos a saber si eso es cierto de la manera en que usualmente lo sabemos: cuando algo salga mal.
