Zubnet AIApprendreWiki › Réglementation de l'IA
Sécurité

Réglementation de l'IA

Aussi appelé : EU AI Act, politique d'IA
Les lois et politiques régissant le développement et le déploiement des systèmes d'IA. L'EU AI Act (2024) est le plus complet, classant les systèmes d'IA par niveau de risque et imposant des exigences en conséquence. Les États-Unis ont adopté une approche plus sectorielle avec des décrets et des directives d'agences. La Chine a des réglementations ciblant l'IA générative, les deepfakes et les algorithmes de recommandation.

Pourquoi c'est important

La réglementation façonne ce que les entreprises d'IA peuvent construire, comment elles doivent le construire et ce qu'elles doivent divulguer. L'EU AI Act affecte toute entreprise servant des utilisateurs européens. Comprendre le paysage réglementaire est de plus en plus nécessaire pour quiconque construit ou déploie de l'IA — la non-conformité peut signifier des amendes, des interdictions ou de la responsabilité civile.

En profondeur

L'EU AI Act utilise un cadre basé sur les risques. Risque inacceptable (interdit) : scoring social, surveillance biométrique en temps réel dans l'espace public (avec exceptions). Risque élevé (exigences strictes) : l'IA dans le recrutement, l'éducation, les forces de l'ordre, les infrastructures critiques — ceux-ci nécessitent des évaluations de conformité, une gouvernance des données, une supervision humaine et de la documentation. Risque limité (obligations de transparence) : les chatbots doivent révéler qu'ils sont de l'IA, les deepfakes doivent être étiquetés. Risque minimal (aucune exigence) : filtres anti-spam, IA dans les jeux vidéo.

Règles pour les modèles de fondation

L'EU AI Act aborde spécifiquement les modèles de fondation (appelés « modèles d'IA à usage général »). Les fournisseurs doivent publier des résumés de données d'entraînement, se conformer au droit d'auteur et mettre en place des évaluations de sécurité. Les modèles jugés poser un « risque systémique » (grosso modo : les modèles de pointe avec des budgets de calcul importants) font face à des obligations supplémentaires incluant des tests adversariaux, des signalements d'incidents et des mesures de cybersécurité. Cela affecte directement des entreprises comme Anthropic, OpenAI, Google et Meta.

Le patchwork mondial

La réglementation de l'IA se développe de manière inégale dans le monde. L'UE mène avec une législation complète. Les États-Unis s'appuient sur des décrets, les cadres du NIST et des agences sectorielles (FDA pour l'IA médicale, FTC pour la protection du consommateur). La Chine exige la transparence algorithmique, l'étiquetage du contenu et l'approbation gouvernementale pour l'IA générative accessible au public. Ce patchwork crée des défis de conformité pour les entreprises d'IA mondiales qui doivent naviguer des règles différentes selon les marchés.

Concepts connexes

← Tous les termes
← Récupération d'information Régression →
ESC