Zubnet AIApprendreWiki › Meta AI
Compagnies

Meta AI

Aussi appelé : Llama, FAIR, PyTorch
La division de recherche en IA de Meta, qui abrite FAIR (Fundamental AI Research). Responsable de la famille de modèles à poids ouverts Llama et de PyTorch, le cadriciel d'apprentissage profond utilisé par la majeure partie de l'industrie de l'IA.

Pourquoi c’est important

Meta AI a fondamentalement changé l'économie de l'IA en prouvant que des modèles de classe frontière pouvaient être publiés en poids ouverts. Llama et ses dérivés alimentent des milliers d'applications, de startups et de projets de recherche qui n'auraient jamais eu accès à des modèles de ce calibre. PyTorch sous-tend la majorité des systèmes de recherche et de production en IA dans le monde. Et avec plus de 3 milliards d'utilisateurs à travers ses applications, Meta dispose d'une distribution qu'aucun autre laboratoire d'IA ne peut égaler — quand ils lancent une fonctionnalité IA, elle atteint un tiers de l'humanité du jour au lendemain.

En profondeur

L'histoire de Meta AI commence en décembre 2013, quand Mark Zuckerberg a recruté Yann LeCun — l'un des trois « parrains de l'apprentissage profond » aux côtés de Geoffrey Hinton et Yoshua Bengio — pour diriger Facebook AI Research (FAIR). LeCun, professeur à NYU et pionnier des réseaux neuronaux convolutifs, a apporté une crédibilité instantanée et une philosophie de recherche claire : la recherche fondamentale, publiée ouvertement, sans pression de produit à court terme. FAIR est rapidement devenu l'un des laboratoires d'IA les plus prolifiques et respectés au monde, attirant les meilleurs talents et produisant des travaux influents en vision par ordinateur, traitement du langage naturel et apprentissage auto-supervisé. Le laboratoire opérait avec une liberté académique inhabituelle pour une division de recherche d'entreprise, et la présence de LeCun lui conférait une force d'attraction que peu de laboratoires industriels pouvaient égaler.

PyTorch et le pari de l'infrastructure

Si Meta AI n'avait rien fait d'autre, PyTorch suffirait à cimenter son héritage. Lancé en 2016 comme une évolution du cadriciel Torch, PyTorch est devenu le cadriciel d'apprentissage profond dominant en recherche et, de plus en plus, en production. Son graphe de calcul dynamique « define-by-run » était plus intuitif que l'approche initiale de graphe statique de TensorFlow, et l'expérience développeur était simplement meilleure. Au début des années 2020, la grande majorité des articles de recherche en IA utilisaient PyTorch, et la plupart des modèles avec lesquels vous interagissez aujourd'hui — y compris ceux d'OpenAI, Anthropic et Mistral — ont été entraînés avec celui-ci. Meta a rendu PyTorch libre et l'a finalement transféré à la Linux Foundation en 2022, le dotant d'une véritable gouvernance communautaire. Ce n'était pas du pur altruisme ; en faisant de PyTorch le standard, Meta s'est assurée que l'ensemble de l'écosystème de l'IA se construise sur une infrastructure qu'elle maîtrisait en profondeur.

Llama et la révolution des poids ouverts

En février 2023, Meta a publié LLaMA (Large Language Model Meta AI), une famille de modèles de 7B à 65B paramètres, initialement restreinte aux chercheurs. En l'espace d'une semaine, les poids ont fuité en ligne. Plutôt que de lutter contre cela, Meta a embrassé le mouvement : Llama 2 (juillet 2023) a été publié sous licence permissive pour la recherche et l'usage commercial, et Llama 3 (avril 2024) puis Llama 4 (2025) ont poursuivi la stratégie des poids ouverts avec des modèles de plus en plus compétitifs. Cette décision a reconfiguré l'industrie. Avant Llama, l'hypothèse dominante était que les modèles de pointe resteraient propriétaires. Après Llama, un écosystème massif d'affinages, de quantifications et de modèles dérivés a émergé, et le mouvement des poids ouverts est devenu une force concurrentielle sérieuse. La motivation de Meta était en partie stratégique — si les modèles d'IA deviennent des commodités, la valeur se déplace vers les plateformes qui les déploient, et Meta compte plus de 3 milliards d'utilisateurs sur Facebook, Instagram, WhatsApp et Threads — mais l'impact sur la démocratisation de l'accès à l'IA a été réel, quelle que soit la motivation.

Le pari IA de Zuckerberg

L'investissement personnel de Mark Zuckerberg dans l'IA a été massif et très visible. Après que le virage vers le métavers n'a pas capté l'imagination du public (et a coûté des dizaines de milliards), Zuckerberg a repositionné Meta comme une entreprise « IA d'abord » en 2023-2024. Les dépenses en immobilisations ont été considérables : Meta a construit l'une des plus grandes grappes de GPU au monde (initialement plus de 600 000 H100, avec des plans d'expansion), dépensant plus de 30 milliards de dollars par an en infrastructure IA d'ici 2025. Meta AI, l'assistant grand public de l'entreprise alimenté par Llama, a été intégré dans toutes les applications Meta, en faisant l'un des assistants IA les plus largement déployés au monde par la simple force de la distribution. Zuckerberg a également été vocal sur sa position philosophique : les modèles d'IA devraient être ouverts, la concentration du pouvoir de l'IA dans des laboratoires fermés est dangereuse, et l'approche ouverte de Meta est préférable pour l'écosystème. Que ce soit une conviction authentique ou une stratégie concurrentielle contre OpenAI et Google (dont Meta peut miner les modèles fermés avec des alternatives gratuites) est une question qui suscite bien des débats.

Ampleur de la recherche et perspectives

Au-delà des grands modèles de langage, le portefeuille de recherche de Meta AI est remarquablement large. Leurs travaux en vision par ordinateur (DINOv2, Segment Anything), en parole et traduction (SeamlessM4T, couvrant plus de 100 langues), en génération vidéo et en IA incarnée comptent parmi les meilleurs de l'industrie. Le modèle Segment Anything (SAM), publié en 2023, a fait pour la segmentation d'images ce qu'AlphaFold a fait pour le repliement des protéines — il a rendu une tâche auparavant difficile triviale et librement accessible. FAIR, désormais dirigé par Joelle Pineau (LeCun demeurant scientifique en chef de l'IA dans un rôle consultatif), continue de publier à un rythme extraordinaire. Le défi stratégique pour Meta est l'intégration : transformer toute cette recherche en produits qui rendent les plateformes sociales de Meta plus attrayantes et sa publicité plus efficace, sans déclencher le type de réaction réglementaire auquel une entreprise ayant l'historique de Meta en matière de confidentialité est particulièrement vulnérable. La stratégie des poids ouverts a aussi ses limites — à mesure que les modèles approchent de capacités de niveau AGI, la question de savoir s'il est responsable de les publier ouvertement devient beaucoup plus difficile à trancher.

Concepts connexes

← Tous les termes
← Mémoire MiniMax →
ESC