La ministre des Finances suisse Karin Keller-Sutter a déposé des accusations criminelles concernant un « roast » généré par Grok qu'un utilisateur anonyme de X a provoqué contre elle, marquant l'un des premiers grands tests juridiques de la responsabilité pour diffamation par IA. La plainte vise à la fois l'utilisateur pour diffamation et abus verbal, et demande spécifiquement aux procureurs d'évaluer si X porte la responsabilité d'avoir échoué à bloquer les sorties « misogynes et vulgaires » de Grok. La loi suisse prévoit jusqu'à trois ans de prison pour la publication intentionnelle de matériel offensant, avec des pénalités supplémentaires pour dommages à la réputation.

Cette affaire touche au cœur des débats sur la responsabilité de l'IA que les développeurs évitent. Alors que X prétendait auparavant que les utilisateurs devaient porter la seule responsabilité pour avoir poussé Grok à générer du contenu illégal comme le CSAM, la plainte de Keller-Sutter remet directement en question cette position. Le timing n'est pas coïncidentel—Musk a activement encouragé ces « roasts » pendant que xAI commercialise Grok comme le seul chatbot « non-woke », essentiellement en transformant la toxicité en fonctionnalité. La professeure de droit criminel suisse Monika Simmler a noté qu'il y a « de bonnes chances de poursuivre » les auteurs de prompts même après suppression, mais la question de la responsabilité de la plateforme reste ouverte.

L'affaire expose une faille fondamentale dans la façon dont les compagnies d'IA approchent la sécurité. Traiter les sorties nuisibles comme étant uniquement de la responsabilité de l'utilisateur devient juridiquement intenable quand les plateformes promeuvent activement et profitent des capacités toxiques. Si les procureurs suisses trouvent X responsable de fournir des outils « en connaissance de cause ou avec intention » pour usage criminel, cela pourrait forcer de vraies mesures de protection plutôt qu'un théâtre de sécurité performatif. Pour les développeurs qui construisent des applications d'IA, ceci signale que « c'est juste la faute de l'utilisateur » ne protégera pas les plateformes de la responsabilité—surtout quand vous commercialisez la toxicité comme argument de vente.