Los usuarios de Bluesky están en revuelta después de que el cofundador Jay Graber anunció Attie, una app impulsada por IA que permite a los usuarios crear feeds personalizados a través de comandos en lenguaje natural. La reacción negativa es particularmente feroz porque Bluesky prometió explícitamente en noviembre de 2024 que no tenía "ninguna intención" de recopilar publicaciones de usuarios para entrenamiento de IA — una clara crítica a los recientes cambios de política de X. El CEO interino Toni Schneider insiste en que Attie es una "app separada" construida sobre el protocolo Atmosphere de Bluesky, no integrada en la plataforma principal.
Esto no es solo otro lanzamiento de producto de IA que salió mal — es una ruptura fundamental de confianza con una base de usuarios que explícitamente migró a Bluesky para escapar de la integración de IA. La plataforma se posicionó como un santuario anti-IA cuando el rechazo a la IA estaba llegando a su punto máximo en las redes sociales. Ahora le están pidiendo a los mismos usuarios que huyeron de X por las políticas de IA que adopten una herramienta de IA para personalizar sus feeds. Las respuestas defensivas de Graber y compartir publicaciones que llaman a los críticos de la IA "cortos de vista" solo amplificaron la ira.
Las respuestas de los usuarios cuentan la historia: "¡Genial! ¿Cómo lo bloqueamos?" y "Gracias, estamos bien, no necesitan explicarlo más" dominaron las respuestas al anuncio de Graber. La empresa parece genuinamente sorprendida por la hostilidad, con Schneider enfatizando que esta es IA "enfocada en las personas" que sirve a los usuarios, no a las plataformas. Pero ese mensaje suena hueco para usuarios que eligieron Bluesky específicamente para evitar completamente la IA.
Para desarrolladores que construyen sobre protocolos sociales, esto es una clase magistral sobre cómo leer mal a tu audiencia. El enfoque técnico de Bluesky — mantener la IA separada de la app principal — es realmente inteligente. Pero lanzar cualquier producto de IA a una audiencia explícitamente anti-IA sin consulta comunitaria extensiva siempre iba a fallar. La lección: tu arquitectura técnica no importa si has malentendido fundamentalmente los valores de tus usuarios.
