A NVIDIA foi fundada em 1993 por Jensen Huang, Chris Malachowsky e Curtis Priem em um restaurante Denny's em San Jose, Califórnia. Huang, que havia sido designer de chips na LSI Logic e engenheiro de microprocessadores na AMD, se tornou CEO e dirige a empresa continuamente por mais de três décadas — um dos mandatos mais longos em tecnologia. Durante a maior parte de sua história, a NVIDIA foi uma empresa de placas gráficas. Inventaram a GPU em 1999 com a GeForce 256, dominaram os jogos para PC nos anos 2000 e construíram um negócio sólido vendendo para gamers e usuários de visualização profissional. O pivot para IA não foi acidental — foi resultado de uma aposta que Huang fez a partir de 2006, quando a NVIDIA lançou o CUDA, um framework de programação que permitia a pesquisadores usar GPUs para computação paralela de propósito geral. Na época, quase ninguém se importou. Uma década depois, revelou-se a decisão estratégica mais consequente da história da computação.
A revolução do deep learning nos anos 2010 rodou em hardware da NVIDIA. Quando Alex Krizhevsky venceu a competição ImageNet em 2012 usando uma rede neural treinada em duas GPUs GTX 580, não foi porque GPUs foram projetadas para IA — foi porque sua arquitetura massivamente paralela por acaso era perfeita para as multiplicações de matrizes que redes neurais exigem. A NVIDIA reconheceu isso mais rápido que qualquer um e começou a projetar chips especificamente para cargas de trabalho de IA. As arquiteturas de GPU Tesla (depois renomeada para evitar confusão com a montadora), Volta, Ampere, Hopper e Blackwell trouxeram melhorias massivas em performance de treinamento e inferência de IA. A H100, lançada em 2023, se tornou o chip mais disputado do mundo, com hyperscalers e laboratórios de IA gastando bilhões para garantir alocações. As subsequentes H200 e B200 (Blackwell) levaram a performance ainda mais longe, com o rack de servidor GB200 NVL72 projetado como um supercomputador de IA completo. Até 2025, a NVIDIA vendia GPUs para data centers mais rápido do que conseguia fabricá-las.
A dominância da NVIDIA não é apenas sobre hardware — é sobre o ecossistema de software que torna os custos de troca astronômicos. CUDA se tornou o padrão de facto para programação de GPU, com milhões de desenvolvedores, milhares de bibliotecas e todos os principais frameworks de IA (PyTorch, TensorFlow, JAX) profundamente otimizados para ele. TensorRT para otimização de inferência, cuDNN para primitivas de deep learning, NCCL para comunicação multi-GPU, Triton Inference Server para implantação — a NVIDIA fornece a stack inteira do silício ao software. Concorrentes como AMD (com ROCm) e Intel (com oneAPI) tentaram oferecer alternativas, mas a lacuna de ecossistema permanece enorme. Quando um pesquisador escreve código CUDA, está escrevendo código que só roda em hardware NVIDIA, e o peso cumulativo de uma década de bibliotecas, tutoriais e ferramentas otimizadas para CUDA cria um fosso que nenhuma quantidade de silício competitivo pode facilmente cruzar.
A capitalização de mercado da NVIDIA cruzou US$ 1 trilhão em maio de 2023, US$ 2 trilhões em fevereiro de 2024 e brevemente excedeu US$ 3 trilhões em junho de 2024, tornando-a a empresa mais valiosa do mundo. O aumento do preço das ações refletiu uma explosão genuína na demanda — a receita de data center cresceu de US$ 3,6 bilhões no Q4 fiscal de 2023 para US$ 18,4 bilhões no Q4 fiscal de 2024, um aumento de aproximadamente 5x em um único ano, impulsionado quase inteiramente pela demanda de treinamento e inferência de IA. Jensen Huang se tornou uma das pessoas mais ricas do planeta. A velocidade da ascensão da NVIDIA foi sem precedentes para uma empresa desse porte, e remodelou a indústria de semicondutores, com a TSMC (que fabrica os chips da NVIDIA) lutando para acompanhar a demanda e nações tratando o acesso a GPUs como questão de segurança nacional.
A NVIDIA tem se expandido constantemente além de vender GPUs para vender plataformas completas de IA. Sistemas DGX são supercomputadores de IA prontos para uso. NVIDIA AI Enterprise é uma suíte de software para implantar IA em produção. Omniverse é uma plataforma para construir gêmeos digitais e simulações 3D. NIM (NVIDIA Inference Microservices) empacota modelos de IA otimizados como containers implantáveis. A empresa também avançou em networking com a aquisição da Mellanox (US$ 6,9 bilhões em 2020), dando-lhe controle sobre os interconnects InfiniBand que ligam GPUs em data centers. A arquitetura Blackwell introduziu rede NVLink que pode conectar até 576 GPUs como um único sistema. Cada uma dessas jogadas é projetada para garantir que, à medida que a infraestrutura de IA escala de GPUs individuais para computação em escala de galpão, a NVIDIA forneça não apenas os chips, mas toda a stack — tornando-os tão próximos do indispensável quanto qualquer empresa na indústria de tecnologia jamais foi.