OpenAI respalda el proyecto de ley SB 3444 de Illinois que protegería a los laboratorios de IA de responsabilidad cuando sus modelos son usados para causar víctimas masivas (100+ muertes) o desastres financieros ($1+ mil millones en daños), siempre que las empresas publiquen reportes básicos de seguridad. Anthropic se opone a la legislación, con el jefe de relaciones gubernamentales Cesar Fernandez llamándola una "carta para salir gratis de la cárcel" que prioriza la transparencia sobre la verdadera responsabilidad. El desacuerdo se centra en si los desarrolladores de IA deberían cargar con la responsabilidad cuando actores maliciosos armonizan sus modelos — como usar IA para crear armas biológicas que matan cientos.
Esta pelea revela una división fundamental en cómo las principales empresas de IA quieren abordar la regulación mientras escalan sus esfuerzos de cabildeo a nivel nacional. OpenAI ha cambiado de jugar a la defensiva contra proyectos de responsabilidad a promover activamente aquellos que limitan su exposición, parte de lo que llaman un enfoque regulatorio "armonizado" entre estados. El umbral de $100 millones en costos de entrenamiento en el proyecto capturaría a todos los laboratorios de frontera — OpenAI, Anthropic, Google, Meta, y xAI — pero solo si pueden probar que no causaron daño "intencionalmente o imprudentemente".
El timing no es coincidencia. Esto sigue a mis reportajes previos sobre las disputas de Anthropic con el Pentágono y su impulso por marcos de gobernanza de IA más estrictos. Aunque expertos en políticas dicen que SB 3444 tiene pocas probabilidades de aprobación, está sentando precedente para cómo las empresas de IA quieren estructurar la responsabilidad. Anthropic está haciendo cabildeo directamente al senador Bill Cunningham para matar el proyecto o revisarlo sustancialmente, sugiriendo que ven esto como un campo de batalla crítico para futura regulación de IA.
Para desarrolladores y usuarios de IA, este debate moldeará qué salvaguardas se construyen en sistemas de producción versus lo que se maneja a través de marcos legales. Si el enfoque de OpenAI gana, esperen más énfasis en documentación de cumplimiento y menos en medidas de seguridad técnica que realmente previenen el mal uso.
