NVIDIA fue fundada en 1993 por Jensen Huang, Chris Malachowsky y Curtis Priem en un restaurante Denny's en San José, California. Huang, que había sido diseñador de chips en LSI Logic e ingeniero de microprocesadores en AMD, se convirtió en CEO y ha dirigido la empresa continuamente por más de tres décadas — uno de los mandatos más largos en tech. Durante la mayor parte de su historia, NVIDIA fue una empresa de tarjetas gráficas. Inventaron el GPU en 1999 con la GeForce 256, dominaron el gaming en PC durante los 2000 y construyeron un negocio sólido vendiendo a gamers y usuarios de visualización profesional. El giro hacia la IA no fue un accidente — fue el resultado de una apuesta que Huang hizo empezando alrededor de 2006, cuando NVIDIA lanzó CUDA, un framework de programación que permitía a los investigadores usar GPUs para computación paralela de propósito general. En ese momento, casi nadie le puso atención. Una década después, resultó ser la decisión estratégica más consecuente en la historia de la computación.
La revolución del deep learning de los 2010 corrió sobre hardware de NVIDIA. Cuando Alex Krizhevsky ganó la competencia ImageNet en 2012 usando una red neuronal entrenada en dos GPUs GTX 580, no fue porque los GPUs estuvieran diseñados para IA — fue porque su arquitectura masivamente paralela resultó ser perfecta para las multiplicaciones de matrices que las redes neuronales requieren. NVIDIA reconoció esto más rápido que nadie y comenzó a diseñar chips específicamente para cargas de trabajo de IA. Las arquitecturas de GPU Tesla (luego renombrada para evitar confusión con la empresa de autos), Volta, Ampere, Hopper y Blackwell, cada una trajo mejoras masivas en el rendimiento de entrenamiento e inferencia de IA. El H100, lanzado en 2023, se convirtió en el chip más codiciado del mundo, con hyperscalers y laboratorios de IA gastando miles de millones para asegurar asignaciones. Los subsiguientes H200 y B200 (Blackwell) empujaron el rendimiento aún más, con el rack de servidores GB200 NVL72 diseñado como una supercomputadora de IA completa. Para 2025, NVIDIA estaba vendiendo GPUs para centros de datos más rápido de lo que podían fabricarlos.
El dominio de NVIDIA no se trata solo de hardware — se trata del ecosistema de software que hace que los costos de cambio sean astronómicos. CUDA se ha convertido en el estándar de facto para programación de GPUs, con millones de desarrolladores, miles de bibliotecas y cada framework importante de IA (PyTorch, TensorFlow, JAX) profundamente optimizado para él. TensorRT para optimización de inferencia, cuDNN para primitivas de deep learning, NCCL para comunicación multi-GPU, Triton Inference Server para despliegue — NVIDIA proporciona todo el stack desde silicio hasta software. Competidores como AMD (con ROCm) e Intel (con oneAPI) han intentado ofrecer alternativas, pero la brecha del ecosistema sigue siendo enorme. Cuando un investigador escribe código CUDA, está escribiendo código que solo funciona en hardware NVIDIA, y el peso acumulado de una década de bibliotecas optimizadas para CUDA, tutoriales y herramientas crea un foso que ningún silicio competitivo puede cruzar fácilmente.
La capitalización de mercado de NVIDIA cruzó $1 billón en mayo de 2023, $2 billones en febrero de 2024, y brevemente superó los $3 billones en junio de 2024, convirtiéndola en la empresa más valiosa del mundo. El aumento del precio de las acciones reflejó una genuina explosión en la demanda — los ingresos por centros de datos crecieron de $3.6 mil millones en el Q4 fiscal 2023 a $18.4 mil millones en el Q4 fiscal 2024, un aumento de aproximadamente 5x en un solo año, impulsado casi enteramente por la demanda de entrenamiento e inferencia de IA. Jensen Huang se convirtió en una de las personas más ricas del planeta. La velocidad del ascenso de NVIDIA no tuvo precedentes para una empresa de su tamaño, y remodeló la industria de semiconductores, con TSMC (que fabrica los chips de NVIDIA) luchando para mantenerse al día con la demanda y naciones tratando el acceso a GPUs como un asunto de seguridad nacional.
NVIDIA se ha expandido constantemente más allá de vender GPUs hacia vender plataformas de IA completas. Los sistemas DGX son supercomputadoras de IA llave en mano. NVIDIA AI Enterprise es una suite de software para desplegar IA en producción. Omniverse es una plataforma para construir gemelos digitales y simulaciones 3D. NIM (NVIDIA Inference Microservices) empaqueta modelos de IA optimizados como contenedores desplegables. La empresa también se ha expandido en redes con su adquisición de Mellanox ($6.9 mil millones en 2020), dándole control sobre las interconexiones InfiniBand que vinculan GPUs en centros de datos. La arquitectura Blackwell introdujo redes NVLink que pueden conectar hasta 576 GPUs como un solo sistema. Cada uno de estos movimientos está diseñado para asegurar que a medida que la infraestructura de IA escala desde GPUs individuales hasta cómputo a escala de almacén, NVIDIA proporcione no solo los chips sino todo el stack — haciéndolos tan cercanos a indispensables como cualquier empresa en la industria tecnológica haya sido jamás.