L'histoire de Meta AI commence en décembre 2013, quand Mark Zuckerberg a recruté Yann LeCun — l'un des trois « parrains de l'apprentissage profond » aux côtés de Geoffrey Hinton et Yoshua Bengio — pour diriger Facebook AI Research (FAIR). LeCun, professeur à NYU et pionnier des réseaux neuronaux convolutifs, a apporté une crédibilité instantanée et une philosophie de recherche claire : la recherche fondamentale, publiée ouvertement, sans pression de produit à court terme. FAIR est rapidement devenu l'un des laboratoires d'IA les plus prolifiques et respectés au monde, attirant les meilleurs talents et produisant des travaux influents en vision par ordinateur, traitement du langage naturel et apprentissage auto-supervisé. Le laboratoire opérait avec une liberté académique inhabituelle pour une division de recherche d'entreprise, et la présence de LeCun lui conférait une force d'attraction que peu de laboratoires industriels pouvaient égaler.
Si Meta AI n'avait rien fait d'autre, PyTorch suffirait à cimenter son héritage. Lancé en 2016 comme une évolution du cadriciel Torch, PyTorch est devenu le cadriciel d'apprentissage profond dominant en recherche et, de plus en plus, en production. Son graphe de calcul dynamique « define-by-run » était plus intuitif que l'approche initiale de graphe statique de TensorFlow, et l'expérience développeur était simplement meilleure. Au début des années 2020, la grande majorité des articles de recherche en IA utilisaient PyTorch, et la plupart des modèles avec lesquels vous interagissez aujourd'hui — y compris ceux d'OpenAI, Anthropic et Mistral — ont été entraînés avec celui-ci. Meta a rendu PyTorch libre et l'a finalement transféré à la Linux Foundation en 2022, le dotant d'une véritable gouvernance communautaire. Ce n'était pas du pur altruisme ; en faisant de PyTorch le standard, Meta s'est assurée que l'ensemble de l'écosystème de l'IA se construise sur une infrastructure qu'elle maîtrisait en profondeur.
En février 2023, Meta a publié LLaMA (Large Language Model Meta AI), une famille de modèles de 7B à 65B paramètres, initialement restreinte aux chercheurs. En l'espace d'une semaine, les poids ont fuité en ligne. Plutôt que de lutter contre cela, Meta a embrassé le mouvement : Llama 2 (juillet 2023) a été publié sous licence permissive pour la recherche et l'usage commercial, et Llama 3 (avril 2024) puis Llama 4 (2025) ont poursuivi la stratégie des poids ouverts avec des modèles de plus en plus compétitifs. Cette décision a reconfiguré l'industrie. Avant Llama, l'hypothèse dominante était que les modèles de pointe resteraient propriétaires. Après Llama, un écosystème massif d'affinages, de quantifications et de modèles dérivés a émergé, et le mouvement des poids ouverts est devenu une force concurrentielle sérieuse. La motivation de Meta était en partie stratégique — si les modèles d'IA deviennent des commodités, la valeur se déplace vers les plateformes qui les déploient, et Meta compte plus de 3 milliards d'utilisateurs sur Facebook, Instagram, WhatsApp et Threads — mais l'impact sur la démocratisation de l'accès à l'IA a été réel, quelle que soit la motivation.
L'investissement personnel de Mark Zuckerberg dans l'IA a été massif et très visible. Après que le virage vers le métavers n'a pas capté l'imagination du public (et a coûté des dizaines de milliards), Zuckerberg a repositionné Meta comme une entreprise « IA d'abord » en 2023-2024. Les dépenses en immobilisations ont été considérables : Meta a construit l'une des plus grandes grappes de GPU au monde (initialement plus de 600 000 H100, avec des plans d'expansion), dépensant plus de 30 milliards de dollars par an en infrastructure IA d'ici 2025. Meta AI, l'assistant grand public de l'entreprise alimenté par Llama, a été intégré dans toutes les applications Meta, en faisant l'un des assistants IA les plus largement déployés au monde par la simple force de la distribution. Zuckerberg a également été vocal sur sa position philosophique : les modèles d'IA devraient être ouverts, la concentration du pouvoir de l'IA dans des laboratoires fermés est dangereuse, et l'approche ouverte de Meta est préférable pour l'écosystème. Que ce soit une conviction authentique ou une stratégie concurrentielle contre OpenAI et Google (dont Meta peut miner les modèles fermés avec des alternatives gratuites) est une question qui suscite bien des débats.
Au-delà des grands modèles de langage, le portefeuille de recherche de Meta AI est remarquablement large. Leurs travaux en vision par ordinateur (DINOv2, Segment Anything), en parole et traduction (SeamlessM4T, couvrant plus de 100 langues), en génération vidéo et en IA incarnée comptent parmi les meilleurs de l'industrie. Le modèle Segment Anything (SAM), publié en 2023, a fait pour la segmentation d'images ce qu'AlphaFold a fait pour le repliement des protéines — il a rendu une tâche auparavant difficile triviale et librement accessible. FAIR, désormais dirigé par Joelle Pineau (LeCun demeurant scientifique en chef de l'IA dans un rôle consultatif), continue de publier à un rythme extraordinaire. Le défi stratégique pour Meta est l'intégration : transformer toute cette recherche en produits qui rendent les plateformes sociales de Meta plus attrayantes et sa publicité plus efficace, sans déclencher le type de réaction réglementaire auquel une entreprise ayant l'historique de Meta en matière de confidentialité est particulièrement vulnérable. La stratégie des poids ouverts a aussi ses limites — à mesure que les modèles approchent de capacités de niveau AGI, la question de savoir s'il est responsable de les publier ouvertement devient beaucoup plus difficile à trancher.