NVIDIA a ete fondee en 1993 par Jensen Huang, Chris Malachowsky et Curtis Priem dans un restaurant Denny's a San Jose, en Californie. Huang, qui avait ete concepteur de puces chez LSI Logic et ingenieur en microprocesseurs chez AMD, est devenu PDG et dirige l'entreprise sans interruption depuis plus de trois decennies — l'un des plus longs mandats du secteur technologique. Pendant la majeure partie de son histoire, NVIDIA etait un fabricant de cartes graphiques. Ils ont invente le GPU en 1999 avec le GeForce 256, domine le jeu sur PC tout au long des annees 2000, et bati une activite stable vendant aux joueurs et aux utilisateurs de visualisation professionnelle. Le virage vers l'IA n'etait pas un accident — c'etait le resultat d'un pari que Huang a fait a partir d'environ 2006, quand NVIDIA a publie CUDA, un cadre de programmation qui permettait aux chercheurs d'utiliser les GPU pour le calcul parallele a usage general. A l'epoque, presque personne ne s'y interessait. Une decennie plus tard, il s'est avere etre la decision strategique la plus determinante de l'histoire de l'informatique.
La revolution de l'apprentissage profond des annees 2010 a tourne sur du materiel NVIDIA. Quand Alex Krizhevsky a remporte la competition ImageNet en 2012 en utilisant un reseau de neurones entraine sur deux GPU GTX 580, ce n'etait pas parce que les GPU etaient concus pour l'IA — c'etait parce que leur architecture massivement parallele se trouvait etre parfaite pour les multiplications matricielles que les reseaux de neurones requierent. NVIDIA l'a reconnu plus vite que quiconque et a commence a concevoir des puces specifiquement pour les charges de travail IA. Les architectures GPU Tesla (renommee par la suite pour eviter la confusion avec le constructeur automobile), Volta, Ampere, Hopper et Blackwell ont chacune apporte des ameliorations massives en performance d'entrainement et d'inference IA. Le H100, sorti en 2023, est devenu la puce la plus convoitee au monde, les hyperscalers et les laboratoires d'IA depensant des milliards pour s'en assurer des allocations. Le H200 et le B200 (Blackwell) ont pousse la performance encore plus loin, avec le serveur en rack GB200 NVL72 concu comme un supercalculateur IA complet. D'ici 2025, NVIDIA vendait des GPU pour centres de donnees plus vite qu'ils ne pouvaient les fabriquer.
La domination de NVIDIA ne repose pas seulement sur le materiel — elle repose sur l'ecosysteme logiciel qui rend les couts de migration astronomiques. CUDA est devenu la norme de facto pour la programmation GPU, avec des millions de developpeurs, des milliers de bibliotheques, et chaque cadre d'IA majeur (PyTorch, TensorFlow, JAX) profondement optimise pour lui. TensorRT pour l'optimisation de l'inference, cuDNN pour les primitives d'apprentissage profond, NCCL pour la communication multi-GPU, Triton Inference Server pour le deploiement — NVIDIA fournit l'ensemble de la pile, du silicium au logiciel. Des concurrents comme AMD (avec ROCm) et Intel (avec oneAPI) ont tente d'offrir des alternatives, mais l'ecart d'ecosysteme reste enorme. Quand un chercheur ecrit du code CUDA, il ecrit du code qui ne fonctionne que sur du materiel NVIDIA, et le poids cumulatif d'une decennie de bibliotheques, tutoriels et outillage optimises pour CUDA cree un rempart qu'aucune quantite de silicium concurrent ne peut facilement franchir.
La capitalisation boursiere de NVIDIA a franchi le billion de dollars en mai 2023, les 2 billions en fevrier 2024, et a brievement depasse les 3 billions en juin 2024, en faisant l'entreprise la plus valorisee au monde. La hausse du cours de l'action refletait une veritable explosion de la demande — les revenus des centres de donnees sont passes de 3,6 milliards de dollars au Q4 fiscal 2023 a 18,4 milliards au Q4 fiscal 2024, soit une multiplication par environ 5 en une seule annee, alimentee presque entierement par la demande d'entrainement et d'inference IA. Jensen Huang est devenu l'une des personnes les plus riches de la planete. La vitesse de l'ascension de NVIDIA etait sans precedent pour une entreprise de cette taille, et elle a remodele l'industrie des semi-conducteurs, TSMC (qui fabrique les puces de NVIDIA) peinant a suivre la demande et les nations traitant l'acces aux GPU comme une question de securite nationale.
NVIDIA s'est progressivement etendu au-dela de la vente de GPU vers la vente de plateformes d'IA completes. Les systemes DGX sont des supercalculateurs IA cles en main. NVIDIA AI Enterprise est une suite logicielle pour deployer l'IA en production. Omniverse est une plateforme pour construire des jumeaux numeriques et des simulations 3D. NIM (NVIDIA Inference Microservices) conditionne des modeles d'IA optimises en conteneurs deployables. L'entreprise s'est aussi lancee dans le reseau avec l'acquisition de Mellanox (6,9 milliards de dollars en 2020), lui donnant le controle des interconnexions InfiniBand qui relient les GPU entre eux dans les centres de donnees. L'architecture Blackwell a introduit le reseau NVLink qui peut connecter jusqu'a 576 GPU en un seul systeme. Chacune de ces initiatives est concue pour s'assurer que, a mesure que l'infrastructure d'IA passe de GPU individuels au calcul a l'echelle d'un entrepot, NVIDIA fournisse non seulement les puces mais l'ensemble de la pile — les rendant aussi proches d'etre indispensables que n'importe quelle entreprise de l'industrie technologique ne l'a jamais ete.