El término "Inteligencia Artificial" fue acuñado en la Conferencia de Dartmouth en 1956, y el campo ha pasado por múltiples ciclos de hype y decepción ("inviernos de la IA") desde entonces. La ola actual, impulsada por el deep learning y el cómputo masivo, comenzó alrededor de 2012 con el avance de AlexNet en reconocimiento de imágenes y se aceleró dramáticamente con la arquitectura Transformer en 2017 y el lanzamiento público de ChatGPT en 2022.
Todo lo que existe hoy es IA estrecha (también llamada "IA débil") — sistemas diseñados para tareas específicas. Tu filtro de spam es IA. Tu asistente de voz es IA. Claude es IA. Pero ninguno de ellos puede hacer todo lo que un humano puede. La Inteligencia Artificial General (AGI) — un sistema con capacidad de nivel humano en todos los dominios — sigue siendo un objetivo de investigación, no un producto. El debate sobre los plazos va desde "unos pocos años" hasta "nunca", y la respuesta honesta es que nadie lo sabe.
La mayoría de la IA moderna es machine learning: en lugar de programar reglas explícitas, proporcionas datos y dejas que el sistema aprenda patrones. El deep learning (redes neuronales con muchas capas) es un subconjunto del ML. Los LLMs son un subconjunto del deep learning. Esta anidación importa porque no toda la IA es ML (los sistemas expertos usan reglas codificadas a mano), y no todo el ML es deep learning (random forests, SVMs y regresión logística siguen siendo ampliamente usados para datos tabulares donde frecuentemente superan a las redes neuronales).