Zubnet AIApprendreWiki › NVIDIA
Compagnies

NVIDIA

Aussi appelé : GPU, CUDA, H100/H200, NeMo
L'entreprise dont les GPU alimentent pratiquement tout l'entrainement d'IA et la majeure partie de l'inference a l'echelle mondiale. Ce qui a commence comme un fabricant de cartes graphiques est devenu le fournisseur de materiel le plus critique de l'industrie de l'IA, faisant brievement de NVIDIA l'entreprise la plus valorisee au monde.

Pourquoi c’est important

NVIDIA est l'entreprise sans laquelle la revolution de l'IA n'aurait tout simplement pas lieu — leurs GPU et leur ecosysteme logiciel CUDA sont les fondations sur lesquelles pratiquement tous les grands modeles d'IA ont ete entraines. La combinaison de materiel d'IA specialise, d'un rempart logiciel forge sur une decennie et du controle du tissu reseau qui interconnecte les GPU leur a confere une position quasi monopolistique dans la chaine d'approvisionnement la plus critique du 21e siecle. Quand les gouvernements, les entreprises et les laboratoires de recherche se disputent la puissance de calcul IA, c'est pour du materiel NVIDIA qu'ils se battent, et ce simple fait a transforme l'ancien fabricant de cartes graphiques de Jensen Huang en l'entreprise technologique la plus strategiquement importante de la planete.

En profondeur

NVIDIA a ete fondee en 1993 par Jensen Huang, Chris Malachowsky et Curtis Priem dans un restaurant Denny's a San Jose, en Californie. Huang, qui avait ete concepteur de puces chez LSI Logic et ingenieur en microprocesseurs chez AMD, est devenu PDG et dirige l'entreprise sans interruption depuis plus de trois decennies — l'un des plus longs mandats du secteur technologique. Pendant la majeure partie de son histoire, NVIDIA etait un fabricant de cartes graphiques. Ils ont invente le GPU en 1999 avec le GeForce 256, domine le jeu sur PC tout au long des annees 2000, et bati une activite stable vendant aux joueurs et aux utilisateurs de visualisation professionnelle. Le virage vers l'IA n'etait pas un accident — c'etait le resultat d'un pari que Huang a fait a partir d'environ 2006, quand NVIDIA a publie CUDA, un cadre de programmation qui permettait aux chercheurs d'utiliser les GPU pour le calcul parallele a usage general. A l'epoque, presque personne ne s'y interessait. Une decennie plus tard, il s'est avere etre la decision strategique la plus determinante de l'histoire de l'informatique.

Comment les GPU ont devore l'IA

La revolution de l'apprentissage profond des annees 2010 a tourne sur du materiel NVIDIA. Quand Alex Krizhevsky a remporte la competition ImageNet en 2012 en utilisant un reseau de neurones entraine sur deux GPU GTX 580, ce n'etait pas parce que les GPU etaient concus pour l'IA — c'etait parce que leur architecture massivement parallele se trouvait etre parfaite pour les multiplications matricielles que les reseaux de neurones requierent. NVIDIA l'a reconnu plus vite que quiconque et a commence a concevoir des puces specifiquement pour les charges de travail IA. Les architectures GPU Tesla (renommee par la suite pour eviter la confusion avec le constructeur automobile), Volta, Ampere, Hopper et Blackwell ont chacune apporte des ameliorations massives en performance d'entrainement et d'inference IA. Le H100, sorti en 2023, est devenu la puce la plus convoitee au monde, les hyperscalers et les laboratoires d'IA depensant des milliards pour s'en assurer des allocations. Le H200 et le B200 (Blackwell) ont pousse la performance encore plus loin, avec le serveur en rack GB200 NVL72 concu comme un supercalculateur IA complet. D'ici 2025, NVIDIA vendait des GPU pour centres de donnees plus vite qu'ils ne pouvaient les fabriquer.

Le rempart logiciel

La domination de NVIDIA ne repose pas seulement sur le materiel — elle repose sur l'ecosysteme logiciel qui rend les couts de migration astronomiques. CUDA est devenu la norme de facto pour la programmation GPU, avec des millions de developpeurs, des milliers de bibliotheques, et chaque cadre d'IA majeur (PyTorch, TensorFlow, JAX) profondement optimise pour lui. TensorRT pour l'optimisation de l'inference, cuDNN pour les primitives d'apprentissage profond, NCCL pour la communication multi-GPU, Triton Inference Server pour le deploiement — NVIDIA fournit l'ensemble de la pile, du silicium au logiciel. Des concurrents comme AMD (avec ROCm) et Intel (avec oneAPI) ont tente d'offrir des alternatives, mais l'ecart d'ecosysteme reste enorme. Quand un chercheur ecrit du code CUDA, il ecrit du code qui ne fonctionne que sur du materiel NVIDIA, et le poids cumulatif d'une decennie de bibliotheques, tutoriels et outillage optimises pour CUDA cree un rempart qu'aucune quantite de silicium concurrent ne peut facilement franchir.

L'inflexion du billion de dollars

La capitalisation boursiere de NVIDIA a franchi le billion de dollars en mai 2023, les 2 billions en fevrier 2024, et a brievement depasse les 3 billions en juin 2024, en faisant l'entreprise la plus valorisee au monde. La hausse du cours de l'action refletait une veritable explosion de la demande — les revenus des centres de donnees sont passes de 3,6 milliards de dollars au Q4 fiscal 2023 a 18,4 milliards au Q4 fiscal 2024, soit une multiplication par environ 5 en une seule annee, alimentee presque entierement par la demande d'entrainement et d'inference IA. Jensen Huang est devenu l'une des personnes les plus riches de la planete. La vitesse de l'ascension de NVIDIA etait sans precedent pour une entreprise de cette taille, et elle a remodele l'industrie des semi-conducteurs, TSMC (qui fabrique les puces de NVIDIA) peinant a suivre la demande et les nations traitant l'acces aux GPU comme une question de securite nationale.

Au-dela des puces : la strategie plateforme

NVIDIA s'est progressivement etendu au-dela de la vente de GPU vers la vente de plateformes d'IA completes. Les systemes DGX sont des supercalculateurs IA cles en main. NVIDIA AI Enterprise est une suite logicielle pour deployer l'IA en production. Omniverse est une plateforme pour construire des jumeaux numeriques et des simulations 3D. NIM (NVIDIA Inference Microservices) conditionne des modeles d'IA optimises en conteneurs deployables. L'entreprise s'est aussi lancee dans le reseau avec l'acquisition de Mellanox (6,9 milliards de dollars en 2020), lui donnant le controle des interconnexions InfiniBand qui relient les GPU entre eux dans les centres de donnees. L'architecture Blackwell a introduit le reseau NVLink qui peut connecter jusqu'a 576 GPU en un seul systeme. Chacune de ces initiatives est concue pour s'assurer que, a mesure que l'infrastructure d'IA passe de GPU individuels au calcul a l'echelle d'un entrepot, NVIDIA fournisse non seulement les puces mais l'ensemble de la pile — les rendant aussi proches d'etre indispensables que n'importe quelle entreprise de l'industrie technologique ne l'a jamais ete.

Concepts connexes

← Tous les termes
← Traitement automatique du langage Réseau de neurones →
ESC