Le premier problème lié à l'AGI est que personne ne s'accorde sur sa définition. OpenAI a publié un cadre en cinq niveaux en 2024 : le niveau 1 est les chatbots (IA conversationnelle), le niveau 2 est les raisonneurs (résolution de problèmes à niveau humain), le niveau 3 est les agents (systèmes qui prennent des actions), le niveau 4 est les innovateurs (systèmes qui aident à l'invention), et le niveau 5 est les organisations (IA capable d'accomplir le travail d'une entreprise entière). Selon leur propre définition, ils affirmaient s'approcher du niveau 2 avec o1. François Chollet, créateur de Keras et du benchmark ARC, adopte une vision fondamentalement différente — il soutient que l'AGI signifie une acquisition d'habiletés efficace, la capacité à apprendre de nouvelles tâches de manière authentique avec un nombre minimal d'exemples, et non seulement une performance impressionnante sur des tâches similaires aux données d'entraînement. Google DeepMind a proposé un autre cadre qui sépare la généralité de la performance, créant une matrice où l'on pourrait avoir une intelligence superintelligente étroite ou une incapacité générale. Ces questions de définition ne sont pas mineures. La définition adoptée détermine si l'AGI est à deux ans ou à deux siècles.
Où nous en sommes dépend entièrement de la manière dont on mesure. Les modèles de langage de grande envergure peuvent réussir l'examen du barreau, écrire du code publiable, expliquer la mécanique quantique, composer de la poésie et raisonner à travers des énigmes logiques nouvelles. Selon tout critère même de cinq ans plus tôt, cela aurait été considéré comme une preuve solide d'intelligence générale. Et pourtant, ces mêmes systèmes ne peuvent parfois pas compter fiablement les lettres d'un mot, éprouvent des difficultés en raisonnement spatial, confondent corrélation et causalité, et affirment avec confiance des informations fausses. S'agit-il de 90 % du chemin vers l'AGI, le reste étant des détails d'ingénierie ? Ou est-ce à peine 10 % du chemin, les performances impressionnantes étant un tour de force basé sur le matching de motifs à grande échelle ? Les chercheurs honnêtes s'accordent difficilement. Les optimistes soulignent que chaque nouvelle génération de modèles corrige de nombreuses faiblesses précédentes. Les sceptiques soulignent que les échecs restants suggèrent des limites fondamentales d'architecture, et non seulement des problèmes d'échelle.
Le débat technique le plus important en IA aujourd'hui est de savoir si l'augmentation — plus de données, plus de calculs, plus de paramètres — produira finalement l'AGI, ou si nous avons besoin d'architectures fondamentalement nouvelles. L'hypothèse de l'augmentation, défendue notamment par les chercheurs d'OpenAI, affirme que l'intelligence est principalement une fonction de l'échelle : rendre le modèle suffisamment grand, l'entraîner sur suffisamment de données, et la capacité générale émerge. Les preuves de cette vision sont réelles — GPT-4 est qualitativement plus capable que GPT-3, qui était lui-même plus capable que GPT-2, et chaque saut a principalement résulté de l'augmentation. L'argument contraire est que les lois de l'augmentation montrent des rendements décroissants, que les architectures actuelles ont des limites fondamentales (pas de mémoire persistante, pas de modèle du monde, pas de raisonnement causal), et que l'ajout de plus de calculs à une architecture défectueuse produit simplement un système plus grand mais défectueux. La vérité est probablement quelque part entre ces deux extrêmes. L'augmentation a produit des percées authentiques que personne ne prévoyait, mais il existe des classes de problèmes — planification à long terme, raisonnement physique, arithmétique fiable — où une plus grande échelle n'a pas aidé de manière fiable.
Il existe une réinterprétation pragmatique de l'AGI qui contourne entièrement le débat philosophique : l'AGI n'a pas besoin de correspondre ou de dépasser l'intelligence humaine dans chaque domaine. Il suffit qu'il soit suffisamment bon pour automatiser la plupart des tâches de connaissance. Un système capable d'écrire du code à un niveau d'ingénieur senior, de rédiger des documents juridiques, d'analyser des images médicales, de gérer des projets et de gérer le service client — même s'il ne peut pas attacher ses chaussures ou comprendre une blague sur ses propres limites — transformerait l'économie mondiale aussi profondément qu'un AGI hypothétique « vrai ». Certains économistes affirment que nous entrons déjà dans cette ère. La question n'est pas de savoir si l'IA sera consciente ou « véritablement » intelligente, mais si elle rendra la plupart des emplois de bureau automatisables. Ce cadre rend le calendrier de l'AGI beaucoup plus court et beaucoup plus concret, indépendamment de votre position sur les questions philosophiques.
Le calendrier de l'AGI a une importance considérable pour la recherche sur la sécurité, et ce n'est pas une préoccupation théorique. L'alignement — le travail