OpenAI testificó a favor del proyecto de ley SB 3444 de Illinois, que protegería a laboratorios de IA de responsabilidad por "daños críticos"—incluyendo muertes de 100+ personas o $1+ mil millones en daños—causados por sus modelos de frontera. La protección aplica a cualquier modelo de IA entrenado con más de $100 millones en costos de cómputo, cubriendo a OpenAI, Google, Anthropic y Meta, siempre que las empresas no hayan actuado intencionalmente o imprudentemente y hayan publicado reportes de seguridad. El proyecto define daños críticos como la creación habilitada por IA de armas de destrucción masiva o conducta criminal autónoma que lleve a víctimas masivas.
Esto marca un cambio estratégico para OpenAI de oposición defensiva a cabildeo proactivo por protecciones de responsabilidad. Múltiples expertos en políticas de IA llamaron a SB 3444 más extremo que medidas anteriores respaldadas por OpenAI. El timing se alinea con la represión de la administración Trump contra leyes estatales de seguridad de IA y el empuje de OpenAI por preferencia federal sobre regulaciones estatales. Caitlin Niedermeyer de OpenAI argumentó que el proyecto evitaría "un mosaico de requisitos estatales inconsistentes".
El empuje legislativo coincide con OpenAI publicando un documento de política de 13 páginas pidiendo reformas económicas radicales para prepararse para "superinteligencia", incluyendo semanas laborales más cortas y fondos de riqueza pública. El timing levantó cejas dado la investigación concurrente de The New Yorker cuestionando la confiabilidad del CEO Sam Altman en temas de seguridad de IA. Los críticos ven el escudo de responsabilidad como prematuro dada la ausencia de regulación federal de IA y crecientes preocupaciones sobre modelos avanzados como Claude Mythos de Anthropic planteando desafíos de seguridad novedosos.
Para desarrolladores, esto podría sentar precedente a nivel nacional si otros estados siguen a Illinois. El umbral de $100 millones en cómputo crea una línea divisoria clara entre laboratorios "de frontera" protegidos y desarrolladores menores que podrían enfrentar estándares de responsabilidad diferentes. Si se aprueba, el proyecto podría acelerar el desarrollo de IA al reducir riesgo legal para laboratorios grandes mientras potencialmente deja a empresas menores más expuestas a demandas.
