OpenAI a témoigné en faveur du projet de loi SB 3444 de l'Illinois, qui protégerait les laboratoires d'IA contre la responsabilité pour les « dommages critiques »—incluant les décès de 100+ personnes ou 1+ milliard $ en dommages—causés par leurs modèles de pointe. La protection s'applique à tout modèle d'IA entraîné avec plus de 100 millions $ en coûts de calcul, couvrant OpenAI, Google, Anthropic, et Meta, tant que les entreprises n'ont pas agi intentionnellement ou imprudemment et ont publié des rapports de sécurité. Le projet de loi définit les dommages critiques comme la création facilitée par l'IA d'armes de destruction massive ou une conduite criminelle autonome menant à des victimes de masse.
Ceci marque un virage stratégique pour OpenAI d'une opposition défensive vers un lobbying proactif pour les protections de responsabilité. Plusieurs experts en politiques d'IA ont qualifié SB 3444 de plus extrême que les mesures précédemment soutenues par OpenAI. Le timing coïncide avec la répression de l'administration Trump sur les lois étatiques de sécurité IA et la poussée d'OpenAI pour la préemption fédérale des réglementations étatiques. Caitlin Niedermeyer d'OpenAI a argumenté que le projet de loi préviendrait « un patchwork d'exigences étatiques incohérentes ».
La poussée législative coïncide avec OpenAI publiant un document de politique de 13 pages appelant à des réformes économiques radicales pour se préparer à la « superintelligence », incluant des semaines de travail plus courtes et des fonds de richesse publique. Le timing a soulevé des sourcils étant donné l'enquête simultanée du New Yorker questionnant la fiabilité du PDG Sam Altman sur les questions de sécurité IA. Les critiques voient le bouclier de responsabilité comme prématuré étant donné l'absence de réglementation fédérale IA et les préoccupations croissantes concernant les modèles avancés comme Claude Mythos d'Anthropic soulevant de nouveaux défis de sécurité.
Pour les développeurs, ceci pourrait créer un précédent national si d'autres états suivent l'Illinois. Le seuil de 100 millions $ en calcul crée une ligne de démarcation claire entre les laboratoires « de pointe » protégés et les petits développeurs qui pourraient faire face à des standards de responsabilité différents. Si adopté, le projet de loi pourrait accélérer le développement IA en réduisant le risque légal pour les grands laboratoires tout en laissant potentiellement les petites entreprises plus exposées aux poursuites.
