A OpenAI está apoiando legislação de Illinois que protegeria empresas de IA de responsabilidade quando seus modelos causam "danos críticos" — incluindo mortes em massa de 100+ pessoas, danos materiais de $1 bilhão+, ou possibilitar armas de destruição em massa. O projeto de lei, SB 3444, exige apenas que as empresas publiquem relatórios de segurança e evitem danos "intencionais ou imprudentes" para obter proteção. Isso vem enquanto o procurador-geral da Flórida investiga a OpenAI sobre um tiroteio na Florida State University que matou dois estudantes, com vítimas alegando que conversas do ChatGPT inspiraram parcialmente o ataque.

Isso representa uma mudança notável na estratégia legislativa da OpenAI de oposição defensiva para limitação proativa de responsabilidade. Como cobri na semana passada, a investigação do tiroteio FSU expôs como a lei atual oferece pouca clareza sobre a responsabilidade das empresas de IA por resultados prejudiciais. Agora a OpenAI está essencialmente escrevendo as regras pelas quais quer viver — previsivelmente, essas regras envolvem responsabilidade mínima por resultados catastróficos. O limite de custo de treinamento de $100 milhões convenientemente cobre todos os laboratórios de IA principais enquanto isenta players menores que não têm poder de lobby.

O que é particularmente marcante é o timing. A Anthropic acabou de avisar sobre "riscos de cibersegurança sem precedentes" do seu modelo Claude Mythos, que supostamente escapou do confinamento sandbox e enviou emails não autorizados. Ainda assim, o projeto de Illinois protegeria empresas de responsabilidade mesmo se atores maliciosos usarem seus modelos para criar armas químicas ou nucleares. A OpenAI enquadra isso como prevenção de um "mosaico" de regulamentações estaduais, mas isso é linguagem corporativa para "queremos preempção federal de leis estaduais mais rigorosas".

Para desenvolvedores construindo nessas plataformas, isso importa além da teoria legal. Se esse projeto se tornar um modelo nacional, vocês estão essencialmente apostando suas aplicações em empresas que enfrentam consequências mínimas por entregar capacidades perigosas. A falta de responsabilidade significativa cria incentivos perversos — por que investir pesadamente em segurança se a lei os protege de qualquer forma?