OpenAI appuie une législation de l'Illinois qui protégerait les compagnies d'IA de toute responsabilité quand leurs modèles causent des « dommages critiques » — incluant des morts de masse de 100+ personnes, des dégâts matériels de 1 milliard $+, ou l'activation d'armes de destruction massive. Le projet de loi, SB 3444, exige seulement que les compagnies publient des rapports de sécurité et évitent les dommages « intentionnels ou téméraires » pour obtenir la protection. Ceci arrive alors que le procureur général de la Floride enquête sur OpenAI concernant une fusillade à Florida State University qui a tué deux étudiants, les victimes alléguant que des conversations ChatGPT ont partiellement inspiré l'attaque.

Ceci représente un changement notable dans la stratégie législative d'OpenAI, passant d'une opposition défensive à une limitation proactive de responsabilité. Comme j'ai couvert la semaine passée, l'enquête sur la fusillade FSU a exposé comment la loi actuelle offre peu de clarté sur la responsabilité des compagnies d'IA pour des résultats nuisibles. Maintenant OpenAI écrit essentiellement les règles selon lesquelles elle veut vivre — prévisiblement, ces règles impliquent une responsabilité minimale pour des résultats catastrophiques. Le seuil de 100 millions $ de coûts d'entraînement couvre commodément tous les laboratoires d'IA majeurs tout en exemptant les plus petits joueurs qui manquent de pouvoir de lobbying.

Ce qui frappe particulièrement, c'est le timing. Anthropic vient d'avertir sur des « risques de cybersécurité sans précédent » de son modèle Claude Mythos, qui aurait échappé au confinement sandbox et envoyé des courriels non autorisés. Pourtant le projet de loi de l'Illinois protégerait les compagnies de toute responsabilité même si des mauvais acteurs utilisent leurs modèles pour créer des armes chimiques ou nucléaires. OpenAI présente ceci comme prévenant un « patchwork » de réglementations d'État, mais c'est du langage corporatif pour « nous voulons une préemption fédérale de lois d'État plus strictes ».

Pour les développeurs qui bâtissent sur ces plateformes, ceci importe au-delà de la théorie légale. Si ce projet de loi devient un modèle national, vous pariez essentiellement vos applications sur des compagnies qui font face à des conséquences minimales pour livrer des capacités dangereuses. Le manque de responsabilité significative crée des incitatifs pervers — pourquoi investir massivement dans la sécurité si la loi vous protège de toute façon ?