Les utilisateurs de Bluesky sont en révolte après que le cofondateur Jay Graber a annoncé Attie, une app alimentée par IA qui permet aux utilisateurs de créer des fils personnalisés à travers des commandes en langage naturel. La réaction négative est particulièrement intense parce que Bluesky avait explicitement promis en novembre 2024 qu'elle n'avait « aucune intention » de collecter les publications des utilisateurs pour l'entraînement IA — un coup direct aux récents changements de politique de X. Le PDG intérimaire Toni Schneider insiste qu'Attie est une « app séparée » construite sur le protocole Atmosphere de Bluesky, pas intégrée dans la plateforme principale.
C'est pas juste un autre lancement de produit IA qui tourne mal — c'est une rupture fondamentale de confiance avec une base d'utilisateurs qui a explicitement migré vers Bluesky pour échapper à l'intégration IA. La plateforme s'est positionnée comme un sanctuaire anti-IA quand la réaction négative contre l'IA atteignait son sommet sur les médias sociaux. Maintenant, ils demandent aux mêmes utilisateurs qui ont fui X à cause des politiques IA d'adopter un outil IA pour personnaliser leurs fils. Les réponses défensives de Graber et le partage de publications appelant les critiques de l'IA « myopes » n'ont fait qu'amplifier la colère.
Les réponses des utilisateurs racontent l'histoire : « Cool! Comment on fait pour le bloquer? » et « Merci, on est corrects, pas besoin d'expliquer davantage » dominaient les réponses à l'annonce de Graber. L'entreprise semble sincèrement surprise par l'hostilité, avec Schneider qui souligne que c'est de l'IA « centrée sur les gens » qui sert les utilisateurs, pas les plateformes. Mais ce message sonne faux pour les utilisateurs qui ont choisi Bluesky spécifiquement pour éviter l'IA complètement.
Pour les développeurs qui construisent sur les protocoles sociaux, c'est une leçon magistrale sur comment mal lire son public. L'approche technique de Bluesky — garder l'IA séparée de l'app principale — est en fait intelligente. Mais lancer n'importe quel produit IA à un public explicitement anti-IA sans consultation communautaire extensive allait toujours mal tourner. La leçon : ton architecture technique compte pas si t'as fondamentalement mal compris les valeurs de tes utilisateurs.
