Le procureur général de la Floride James Uthmeier a annoncé que son bureau enquêtera sur OpenAI concernant les liens allégués entre ChatGPT et une fusillade de masse à Florida State University, ainsi que des préoccupations plus larges concernant les dommages aux enfants et les menaces à la sécurité nationale. L'enquête marque l'une des premières investigations au niveau étatique liant directement les systèmes d'IA aux crimes violents, Uthmeier annonçant sans détour l'enquête sur X sans fournir de détails spécifiques sur comment ChatGPT aurait prétendument contribué à l'incident.

Cette enquête représente une escalade significative dans les batailles de responsabilisation de l'IA, dépassant les débats théoriques sur la sécurité pour aller vers de vraies enquêtes criminelles. Bien qu'on ait vu des poursuites concernant les données d'entraînement d'IA et les droits d'auteur, connecter directement les systèmes d'IA aux actes violents ouvre un territoire légal entièrement nouveau. Le timing est particulièrement notable alors que d'autres États observent l'approche de la Floride—si elle réussit, ceci pourrait devenir un modèle pour tenir les compagnies d'IA responsables de comment leurs modèles sont utilisés, changeant fondamentalement notre façon de penser la sécurité de l'IA et la responsabilité corporative.

Ce qui manque dans la couverture actuelle, c'est le contexte crucial concernant l'incident spécifique de FSU et exactement comment ChatGPT aurait prétendument joué un rôle. L'enquête englobe aussi des allégations plus larges concernant les dommages aux enfants et la sécurité nationale—des domaines où OpenAI a fait face à l'examen avant mais jamais à une enquête étatique formelle. Le manque de détail dans l'annonce d'Uthmeier suggère que cette enquête en est soit aux tout premiers stades ou délibérément vague pour éviter de compromettre une enquête en cours.

Pour les développeurs et compagnies construisant des applications d'IA, cette enquête devrait être un signal d'alarme concernant l'exposition à la responsabilité. Si les États commencent à tenir les fournisseurs d'IA responsables pour l'utilisation en aval de leurs modèles, on aura besoin de systèmes de filtrage de contenu beaucoup plus robustes, de surveillance d'utilisation, et potentiellement même de systèmes de vérification d'utilisateur. Les jours des défenses du genre « on ne fait que fournir l'outil » pourraient se terminer plus vite que quiconque s'y attendait.