A OpenAI testemunhou a favor do projeto de lei SB 3444 de Illinois, que protegeria laboratórios de IA da responsabilidade por "danos críticos"—incluindo mortes de 100+ pessoas ou $1+ bilhão em danos—causados por seus modelos de fronteira. A proteção se aplica a qualquer modelo de IA treinado com mais de $100 milhões em custos computacionais, cobrindo OpenAI, Google, Anthropic e Meta, contanto que as empresas não tenham agido intencionalmente ou imprudentemente e tenham publicado relatórios de segurança. O projeto define danos críticos como criação habilitada por IA de armas de destruição em massa ou conduta criminal autônoma levando a vítimas em massa.
Isto marca uma mudança estratégica para a OpenAI de oposição defensiva para lobby proativo por proteções de responsabilidade. Múltiplos especialistas em política de IA chamaram o SB 3444 de mais extremo que medidas anteriormente apoiadas pela OpenAI. O timing se alinha com a repressão da administração Trump contra leis estaduais de segurança de IA e o impulso da OpenAI por preempção federal de regulamentações estaduais. Caitlin Niedermeyer da OpenAI argumentou que o projeto evitaria "uma colcha de retalhos de requisitos estaduais inconsistentes".
O impulso legislativo coincide com a OpenAI lançando um documento de política de 13 páginas pedindo reformas econômicas abrangentes para se preparar para "superinteligência", incluindo semanas de trabalho mais curtas e fundos de riqueza pública. O timing levantou suspeitas dada a investigação simultânea do The New Yorker questionando a confiabilidade do CEO Sam Altman em questões de segurança de IA. Críticos veem o escudo de responsabilidade como prematuro dada a ausência de regulamentação federal de IA e preocupações crescentes sobre modelos avançados como Claude Mythos da Anthropic levantando desafios de segurança inéditos.
Para desenvolvedores, isso poderia estabelecer precedente nacionalmente se outros estados seguirem Illinois. O limite de $100 milhões em computação cria uma linha divisória clara entre laboratórios "de fronteira" protegidos e desenvolvedores menores que podem enfrentar padrões de responsabilidade diferentes. Se aprovado, o projeto poderia acelerar o desenvolvimento de IA reduzindo risco legal para grandes laboratórios enquanto potencialmente deixa empresas menores mais expostas a processos.
