Le terme « Intelligence Artificielle » a été inventé lors de la conférence de Dartmouth en 1956, et le domaine a traversé plusieurs cycles d'enthousiasme et de déception (les « hivers de l'IA ») depuis. La vague actuelle, portée par l'apprentissage profond et le calcul massif, a commencé vers 2012 avec la percée d'AlexNet en reconnaissance d'images et s'est accélérée de façon spectaculaire avec l'architecture Transformer en 2017 et le lancement public de ChatGPT en 2022.
Tout ce qui existe aujourd'hui est de l'IA étroite (aussi appelée « IA faible ») — des systèmes conçus pour des tâches spécifiques. Ton filtre anti-spam est de l'IA. Ton assistant vocal est de l'IA. Claude est de l'IA. Mais aucun d'entre eux ne peut faire tout ce qu'un humain peut faire. L'Intelligence Artificielle Générale (IAG) — un système avec des capacités de niveau humain dans tous les domaines — reste un objectif de recherche, pas un produit. Le débat sur l'échéancier va de « quelques années » à « jamais », et la réponse honnête est que personne ne sait.
La plupart de l'IA moderne est de l'apprentissage automatique (ML) : au lieu de programmer des règles explicites, tu fournis des données et tu laisses le système apprendre des patterns. L'apprentissage profond (réseaux de neurones avec de nombreuses couches) est un sous-ensemble du ML. Les LLM sont un sous-ensemble de l'apprentissage profond. Cet emboîtement est important parce que toute l'IA n'est pas du ML (les systèmes experts utilisent des règles codées à la main), et tout le ML n'est pas de l'apprentissage profond (les forêts aléatoires, les SVM et la régression logistique sont encore largement utilisés pour les données tabulaires où ils surpassent souvent les réseaux de neurones).