O primeiro inverno da IA (1974–1980) seguiu o otimismo inicial sobre IA simbólica e tradução automática. Herbert Simon previu em 1965 que máquinas seriam capazes de qualquer trabalho que um humano pode fazer dentro de 20 anos. Quando agências de financiamento perceberam que isso estava longe de ser realidade, cortaram orçamentos. A DARPA cortou financiamento de IA, e o Relatório Lighthill do governo britânico efetivamente matou o financiamento de pesquisa em IA no Reino Unido por uma década.
O segundo inverno (1987–1993) seguiu o boom dos sistemas especialistas. Empresas investiram bilhões em sistemas de IA baseados em regras que eram frágeis, caros para manter e não conseguiam lidar com casos extremos. Quando a indústria de IA se contraiu, até pesquisas promissoras em redes neurais perderam financiamento. Backpropagation (1986) e redes convolucionais (1989) foram inventadas durante esse período, mas não puderam ser desenvolvidas devido a computação e dados insuficientes.
O boom atual tem vantagens que ciclos anteriores não tinham: a tecnologia demonstravelmente funciona em escala (bilhões de pessoas usam LLMs diariamente), o valor econômico é concreto (empresas estão economizando dinheiro real e construindo produtos reais), e a computação continua melhorando. Mas riscos permanecem: se timelines de AGI se provarem tão otimistas quanto predições passadas, se o paradigma atual de escala estagnar, ou se um incidente major de IA erodir a confiança pública, o financiamento poderia contrair. A lição da história não é que invernos são inevitáveis — é que expectativas honestas são a melhor prevenção.