Zubnet AIApprendreWiki › AI Winter
Fondamentaux

AI Winter

Une période de financement, d'intérêt et de progrès réduits dans la recherche IA suivant un cycle de hype et d'attentes non tenues. Il y a eu deux hivers IA majeurs : le premier du milieu des années 1970 au début des années 1980 (après que les systèmes experts ont échoué à scaler), et le second de la fin des années 1980 au milieu des années 1990 (après que les réseaux de neurones ont frappé des limites computationnelles). Chacun a été précédé par un optimisme fou et suivi par la désillusion.

Pourquoi c'est important

Comprendre les hivers IA fournit le contexte essentiel pour évaluer les affirmations IA d'aujourd'hui. Le pattern — percée, hype, surpromesse, sous-livrer, effondrement du financement — s'est répété deux fois. Si le boom actuel du deep learning va suivre le même pattern ou le briser est la question la plus importante en IA. La meilleure défense contre un autre hiver est une évaluation honnête de ce que les systèmes actuels peuvent et ne peuvent pas faire.

Deep Dive

The first AI winter (1974–1980) followed early optimism about symbolic AI and machine translation. Herbert Simon predicted in 1965 that machines would be capable of any work a human can do within 20 years. When funding agencies realized this was nowhere close to reality, they slashed budgets. DARPA cut AI funding, and the British government's Lighthill Report effectively killed AI research funding in the UK for a decade.

The Second Winter

The second winter (1987–1993) followed the expert systems boom. Entreprises invested billions in rule-based AI systems that were brittle, expensive to maintain, and couldn't handle edge cases. When the AI industry contracted, even promising neural network research lost funding. Backpropagation (1986) and convolutional networks (1989) were invented during this period but couldn't be developed further due to insufficient compute and data.

Will There Be a Third?

The current boom has advantages previous cycles lacked: the technology demonstrably works at scale (billions of people use LLMs daily), the economic value is concrete (companies are saving real money and building real products), and compute keeps improving. But risks remain: if AGI timelines prove as optimistic as past predictions, if the current scaling paradigm plateaus, or if a major AI incident erodes public trust, funding could contract. The lesson from history isn't that winters are inevitable — it's that honest expectations are the best prevention.

Concepts liés

← Tous les termes
← AI Security AI21 Labs →