Zubnet AIAprenderWiki › AI Winter
Fundamentos

AI Winter

Un período de financiamiento, interés y progreso reducidos en investigación IA siguiendo un ciclo de hype y expectativas no cumplidas. Ha habido dos inviernos IA mayores: el primero desde mediados de 1970 hasta principios de 1980 (después de que los sistemas expertos fallaron en escalar), y el segundo desde finales de 1980 hasta mediados de 1990 (después de que las redes neuronales chocaron contra límites computacionales). Cada uno fue precedido por optimismo salvaje y seguido de desilusión.

Por qué importa

Entender los inviernos IA provee contexto esencial para evaluar las afirmaciones IA de hoy. El patrón — avance, hype, sobre-promesa, sub-entrega, colapso de financiamiento — se ha repetido dos veces. Si el boom actual del deep learning seguirá el mismo patrón o lo romperá es la pregunta más importante en IA. La mejor defensa contra otro invierno es una evaluación honesta de lo que los sistemas actuales pueden y no pueden hacer.

Deep Dive

The first AI winter (1974–1980) followed early optimism about symbolic AI and machine translation. Herbert Simon predicted in 1965 that machines would be capable of any work a human can do within 20 years. When funding agencies realized this was nowhere close to reality, they slashed budgets. DARPA cut AI funding, and the British government's Lighthill Report effectively killed AI research funding in the UK for a decade.

The Second Winter

The second winter (1987–1993) followed the expert systems boom. Empresas invested billions in rule-based AI systems that were brittle, expensive to maintain, and couldn't handle edge cases. When the AI industry contracted, even promising neural network research lost funding. Backpropagation (1986) and convolutional networks (1989) were invented during this period but couldn't be developed further due to insufficient compute and data.

Will There Be a Third?

The current boom has advantages previous cycles lacked: the technology demonstrably works at scale (billions of people use LLMs daily), the economic value is concrete (companies are saving real money and building real products), and compute keeps improving. But risks remain: if AGI timelines prove as optimistic as past predictions, if the current scaling paradigm plateaus, or if a major AI incident erodes public trust, funding could contract. The lesson from history isn't that winters are inevitable — it's that honest expectations are the best prevention.

Conceptos relacionados

← Todos los términos
← AI Security AI21 Labs →