Le dernier AI Index de Stanford documente une déconnexion troublante : tandis que les initiés de l'IA poussent vers l'avant avec le déploiement, l'anxiété publique concernant le déplacement d'emplois et les perturbations économiques continue de croître. Le rapport montre des préoccupations montantes concernant les soins de santé, l'emploi et la stabilité économique alors que les systèmes d'IA deviennent plus capables. Ceci fait suite à notre couverture d'avril montrant que la confiance dans la surveillance de l'IA est à des niveaux historiquement bas, suggérant que l'écart entre les constructeurs et les utilisateurs ne se rétrécit pas.

La crise de confiance va plus profond que ne le suggèrent les sondages d'opinion publique. De nouvelles recherches de UC San Diego révèlent que même les praticiens scientifiques—sans doute parmi les utilisateurs d'IA les plus techniquement sophistiqués—demeurent profondément sceptiques quant au déploiement de l'IA dans des travaux physiques à haut risque. Les scientifiques interviewés à travers des domaines allant de la fusion nucléaire à la cognition des primates citent trois barrières critiques : des configurations expérimentales trop risquées pour les erreurs d'IA, des environnements contraints qui limitent l'efficacité de l'IA, et l'incapacité de l'IA à égaler les connaissances tacites humaines.

Cette hésitation du monde physique contraste fortement avec la ruée vers le déploiement de l'IA dans les environnements numériques. Tandis que Karl Mehta de TrustModel.ai argumente que nous répétons les erreurs de sécurité du début d'internet en déployant l'IA sans infrastructure de confiance, les scientifiques prennent l'approche opposée—refusant essentiellement le déploiement jusqu'à ce que la confiance puisse être quantifiée. Leurs applications d'IA proposées se concentrent sur la surveillance en arrière-plan et l'organisation des connaissances plutôt que sur le contrôle direct, suggérant une voie plus prudente vers l'avant.

Pour les développeurs qui construisent des systèmes d'IA, cette recherche met en évidence un écart crucial entre la facilité de déploiement numérique et les barrières d'adoption du monde physique. L'avenir n'est pas l'IA remplaçant l'expertise humaine dans les tâches critiques—c'est l'IA servant d'infrastructure intelligente qui augmente plutôt que remplace le jugement humain dans des environnements à haut risque.