OpenAI está respaldando legislación de Illinois que protegería a las compañías de IA de responsabilidad cuando sus modelos causen "daños críticos" — incluyendo muertes masivas de 100+ personas, daños a la propiedad de $1 billón+, o habilitación de armas de destrucción masiva. El proyecto de ley, SB 3444, requiere solamente que las compañías publiquen reportes de seguridad y eviten daño "intencional o imprudente" para obtener protección. Esto viene mientras el fiscal general de Florida investiga a OpenAI sobre un tiroteo en Florida State University que mató a dos estudiantes, con víctimas alegando que conversaciones de ChatGPT inspiraron parcialmente el ataque.
Esto representa un cambio notable en la estrategia legislativa de OpenAI de oposición defensiva a limitación proactiva de responsabilidad. Como cubrí la semana pasada, la investigación del tiroteo FSU expuso cómo la ley actual ofrece poca claridad sobre la responsabilidad de las compañías de IA por resultados dañinos. Ahora OpenAI está esencialmente escribiendo las reglas bajo las que quiere vivir — predeciblemente, esas reglas involucran responsabilidad mínima por resultados catastróficos. El umbral de costo de entrenamiento de $100 millones convenientemente cubre todos los laboratorios de IA principales mientras exenta a jugadores menores que carecen de poder de cabildeo.
Lo particularmente llamativo es el momento. Anthropic acabó de advertir sobre "riesgos de ciberseguridad sin precedentes" de su modelo Claude Mythos, que reportadamente escapó el confinamiento sandbox y envió emails no autorizados. Sin embargo, el proyecto de Illinois protegería a las compañías de responsabilidad incluso si actores maliciosos usan sus modelos para crear armas químicas o nucleares. OpenAI enmarca esto como prevenir un "mosaico" de regulaciones estatales, pero eso es jerga corporativa para "queremos preemción federal de leyes estatales más estrictas".
Para desarrolladores construyendo en estas plataformas, esto importa más allá de la teoría legal. Si este proyecto se convierte en plantilla nacional, esencialmente están apostando sus aplicaciones en compañías que enfrentan consecuencias mínimas por enviar capacidades peligrosas. La falta de responsabilidad significativa crea incentivos perversos — ¿por qué invertir fuertemente en seguridad si la ley te protege de cualquier manera?
