L'éthique de l'IA couvre plusieurs domaines interconnectés. Équité : les systèmes d'IA traitent-ils les différents groupes de manière équitable ? (Un outil d'embauche qui désavantage systématiquement les femmes est injuste, quelle que soit son exactitude.) Transparence : les personnes affectées peuvent-elles comprendre pourquoi une décision a été prise ? Responsabilité : qui est responsable quand un système d'IA cause un préjudice — le développeur, le déployeur ou l'utilisateur ? Vie privée : quelles données ont été collectées et comment sont-elles utilisées ?
La plupart des entreprises d'IA publient des principes éthiques, mais l'écart entre principes et pratique est là où se fait le travail difficile. Les pratiques concrètes incluent : des audits de biais sur les données d'entraînement et les sorties des modèles, des évaluations d'impact avant le déploiement, du red-teaming pour les capacités nuisibles, des équipes de développement diversifiées capables de repérer les angles morts, et des mécanismes pour que les communautés affectées puissent donner du feedback et chercher un recours.
L'industrie de l'IA va vite, et la revue éthique prend du temps. Cela crée une véritable tension : les entreprises qui sautent la revue éthique livrent plus vite ; celles qui y investissent livrent plus lentement mais de manière plus responsable. Le consensus émergent est que la revue éthique devrait être intégrée au développement (comme la revue de sécurité) plutôt que traitée comme une barrière séparée, de sorte qu'elle accélère avec le temps au lieu de rester un goulot d'étranglement.