Le premier hiver de l'IA (1974–1980) a suivi l'optimisme initial autour de l'IA symbolique et de la traduction automatique. Herbert Simon avait prédit en 1965 que les machines seraient capables de tout travail humain dans les 20 ans. Quand les agences de financement ont réalisé que c'était loin de la réalité, elles ont coupé les budgets. La DARPA a réduit le financement de l'IA, et le rapport Lighthill du gouvernement britannique a effectivement tué le financement de la recherche en IA au Royaume-Uni pendant une décennie.
Le second hiver (1987–1993) a suivi le boom des systèmes experts. Les entreprises ont investi des milliards dans des systèmes IA basés sur des règles qui étaient fragiles, coûteux à maintenir et incapables de gérer les cas limites. Quand l'industrie de l'IA s'est contractée, même la recherche prometteuse sur les réseaux de neurones a perdu son financement. La rétropropagation (1986) et les réseaux convolutifs (1989) ont été inventés pendant cette période mais n'ont pas pu être développés davantage faute de calcul et de données suffisants.
Le boom actuel a des avantages que les cycles précédents n'avaient pas : la technologie fonctionne manifestement à grande échelle (des milliards de personnes utilisent les LLM quotidiennement), la valeur économique est concrète (les entreprises économisent de l'argent réel et construisent de vrais produits), et la puissance de calcul continue de s'améliorer. Mais des risques subsistent : si les calendriers de l'AGI s'avèrent aussi optimistes que les prédictions passées, si le paradigme actuel de mise à l'échelle plafonne, ou si un incident majeur en IA érode la confiance du public, le financement pourrait se contracter. La leçon de l'histoire n'est pas que les hivers sont inévitables — c'est que des attentes honnêtes sont la meilleure prévention.