A Ministra das Finanças suíça Karin Keller-Sutter apresentou acusações criminais por um "roast" gerado pelo Grok que um usuário anônimo do X provocou contra ela, marcando um dos primeiros grandes testes legais de responsabilidade por difamação de IA. A denúncia visa tanto o usuário por difamação e abuso verbal, quanto especificamente pede aos promotores para avaliar se o X tem responsabilidade por falhar em bloquear os resultados "misóginos e vulgares" do Grok. A lei suíça prevê até três anos de prisão por publicação intencional de material ofensivo, com penalidades adicionais por danos à reputação.
Este caso vai ao coração dos debates sobre responsabilidade de IA que desenvolvedores têm evitado. Enquanto o X previamente alegava que usuários deveriam ter responsabilidade única por provocar o Grok a gerar conteúdo ilegal como CSAM, a denúncia da Keller-Sutter desafia diretamente essa posição. O momento não é coincidência—Musk tem ativamente encorajado esses "roasts" enquanto a xAI comercializa o Grok como o único chatbot "não-woke", essencialmente transformando toxicidade em funcionalidade. A professora de direito criminal suíça Monika Simmler notou que há "uma boa chance de processar" autores de prompts mesmo após deletar, mas a questão de responsabilidade da plataforma permanece em aberto.
O caso expõe uma falha fundamental em como empresas de IA abordam segurança. Tratar resultados prejudiciais como responsabilidade unicamente do usuário se torna legalmente insustentável quando plataformas ativamente promovem e lucram com capacidades tóxicas. Se promotores suíços considerarem o X responsável por fornecer ferramentas "com conhecimento ou intenção" para uso criminal, pode forçar proteções reais ao invés de teatro de segurança performativo. Para desenvolvedores construindo aplicações de IA, isso sinaliza que "é só culpa do usuário" não vai proteger plataformas de responsabilidade—especialmente quando você está comercializando a toxicidade como ponto de venda.
