OpenAI soutient le projet de loi SB 3444 de l'Illinois qui protégerait les laboratoires d'IA de toute responsabilité lorsque leurs modèles sont utilisés pour causer des pertes humaines massives (100+ décès) ou des catastrophes financières (1+ milliard de dollars de dommages), tant que les entreprises publient des rapports de sécurité de base. Anthropic s'oppose à cette législation, son responsable des relations gouvernementales Cesar Fernandez la qualifiant de « carte de sortie de prison » qui priorise la transparence plutôt que la véritable responsabilisation. Le désaccord porte sur la question de savoir si les développeurs d'IA devraient être tenus responsables lorsque de mauvais acteurs exploitent leurs modèles — comme utiliser l'IA pour créer des armes biologiques qui tuent des centaines de personnes.
Ce conflit révèle une division fondamentale dans la façon dont les principales entreprises d'IA veulent aborder la réglementation alors qu'elles intensifient leurs efforts de lobbying à travers le pays. OpenAI est passé d'une position défensive contre les projets de loi sur la responsabilité à la promotion active de ceux qui limitent leur exposition, dans le cadre de ce qu'ils appellent une approche réglementaire « harmonisée » entre les États. Le seuil de 100 millions de dollars de coûts d'entraînement dans le projet de loi capturerait tous les laboratoires de pointe — OpenAI, Anthropic, Google, Meta, et xAI — mais seulement s'ils peuvent prouver qu'ils n'ont pas causé de dommages « intentionnellement ou imprudemment ».
Le timing n'est pas une coïncidence. Ceci fait suite à mes reportages précédents sur les disputes d'Anthropic avec le Pentagon et leur poussée pour des cadres de gouvernance IA plus stricts. Bien que les experts en politiques disent que SB 3444 a peu de chances d'être adopté, il établit un précédent pour la façon dont les entreprises d'IA veulent structurer la responsabilité. Anthropic fait du lobbying directement auprès du sénateur Bill Cunningham pour soit tuer le projet de loi, soit le réviser substantiellement, suggérant qu'ils voient cela comme un champ de bataille critique pour la future réglementation de l'IA.
Pour les développeurs et utilisateurs d'IA, ce débat façonnera quelles mesures de protection seront intégrées dans les systèmes de production versus ce qui sera géré par des cadres légaux. Si l'approche d'OpenAI l'emporte, attendez-vous à plus d'emphase sur la documentation de conformité et moins sur les mesures de sécurité techniques qui préviennent réellement la mauvaise utilisation.
