O termo "Inteligência Artificial" foi cunhado na Conferência de Dartmouth em 1956, e o campo passou por múltiplos ciclos de hype e decepção ("invernos da IA") desde então. A onda atual, impulsionada por deep learning e computação massiva, começou por volta de 2012 com a revolução do AlexNet no reconhecimento de imagens e acelerou dramaticamente com a arquitetura Transformer em 2017 e o lançamento público do ChatGPT em 2022.
Tudo que existe hoje é IA estreita (também chamada de "IA fraca") — sistemas projetados para tarefas específicas. Seu filtro de spam é IA. Seu assistente de voz é IA. O Claude é IA. Mas nenhum deles consegue fazer tudo que um humano faz. Inteligência Artificial Geral (AGI) — um sistema com capacidade em nível humano em todos os domínios — continua sendo um objetivo de pesquisa, não um produto. O debate sobre o cronograma vai de "alguns anos" a "nunca", e a resposta honesta é que ninguém sabe.
A maior parte da IA moderna é machine learning: em vez de programar regras explícitas, você fornece dados e deixa o sistema aprender padrões. Deep learning (redes neurais com muitas camadas) é um subconjunto do ML. LLMs são um subconjunto do deep learning. Essa hierarquia importa porque nem toda IA é ML (sistemas especialistas usam regras codificadas manualmente), e nem todo ML é deep learning (random forests, SVMs e regressão logística ainda são amplamente usados para dados tabulares, onde frequentemente superam redes neurais).