A história da Meta AI começa em dezembro de 2013, quando Mark Zuckerberg recrutou Yann LeCun — um dos três "padrinhos do deep learning" ao lado de Geoffrey Hinton e Yoshua Bengio — para liderar o Facebook AI Research (FAIR). LeCun, professor na NYU e pioneiro das redes neurais convolucionais, trouxe credibilidade instantânea e uma filosofia de pesquisa clara: pesquisa fundamental, publicada abertamente, sem pressão por produtos de curto prazo. O FAIR rapidamente se tornou um dos laboratórios de IA mais prolíficos e respeitados do mundo, atraindo talentos de ponta e produzindo trabalhos influentes em visão computacional, processamento de linguagem natural e aprendizado autossupervisionado. O laboratório operava com uma liberdade acadêmica incomum para uma divisão de pesquisa corporativa, e a presença de LeCun lhe conferia uma gravidade que poucos laboratórios da indústria conseguiam igualar.
Se a Meta AI não tivesse feito mais nada, o PyTorch seria suficiente para cimentar seu legado. Lançado em 2016 como uma evolução do framework Torch, o PyTorch se tornou o framework de deep learning dominante em pesquisa e, cada vez mais, em produção. Seu grafo de computação dinâmico "define-by-run" era mais intuitivo que a abordagem original de grafo estático do TensorFlow, e a experiência do desenvolvedor era simplesmente melhor. No início dos anos 2020, a grande maioria dos artigos de pesquisa em IA usava PyTorch, e a maioria dos modelos com os quais você interage hoje — incluindo os da OpenAI, Anthropic e Mistral — foram treinados nele. A Meta tornou o PyTorch open source e eventualmente o doou à Linux Foundation em 2022, tornando-o genuinamente governado pela comunidade. Isso não foi puro altruísmo; ao tornar o PyTorch o padrão, a Meta garantiu que todo o ecossistema de IA fosse construído sobre uma infraestrutura que ela entendia profundamente.
Em fevereiro de 2023, a Meta lançou o LLaMA (Large Language Model Meta AI), uma família de modelos de 7B a 65B parâmetros, inicialmente restrita a pesquisadores. Em uma semana, os pesos vazaram online. Em vez de lutar contra isso, a Meta abraçou a situação: o Llama 2 (julho de 2023) foi lançado sob uma licença permissiva tanto para pesquisa quanto para uso comercial, e o Llama 3 (abril de 2024) e o Llama 4 (2025) continuaram a estratégia open-weights com modelos cada vez mais competitivos. Essa decisão reconfigurou a indústria. Antes do Llama, a suposição predominante era que modelos de fronteira permaneceriam proprietários. Depois do Llama, surgiu um ecossistema massivo de fine-tunes, quantizações e modelos derivados, e o movimento open-weights se tornou uma força competitiva séria. A motivação da Meta era parcialmente estratégica — se os modelos de IA se tornarem commodities, o valor migra para as plataformas que os implantam, e a Meta tem mais de 3 bilhões de usuários no Facebook, Instagram, WhatsApp e Threads — mas o impacto na democratização do acesso à IA foi real, independentemente da motivação.
O investimento pessoal de Mark Zuckerberg em IA tem sido massivo e altamente visível. Depois que o pivot para o metaverso não conseguiu capturar a imaginação do público (e custou dezenas de bilhões), Zuckerberg reposicionou a Meta como uma empresa "AI-first" em 2023-2024. O investimento de capital tem sido impressionante: a Meta construiu um dos maiores clusters de GPUs do mundo (inicialmente mais de 600.000 GPUs H100, com planos para mais), gastando mais de US$ 30 bilhões anualmente em infraestrutura de IA até 2025. O Meta AI, o assistente voltado ao consumidor da empresa, alimentado pelo Llama, foi integrado em todos os apps da Meta, tornando-o um dos assistentes de IA mais amplamente implantados do mundo por pura distribuição. Zuckerberg também tem sido vocal sobre sua posição filosófica: modelos de IA devem ser abertos, a concentração do poder de IA em laboratórios fechados é perigosa, e a abordagem aberta da Meta é melhor para o ecossistema. Se isso é convicção genuína ou estratégia competitiva contra a OpenAI e o Google (cujos modelos fechados a Meta pode minar com alternativas gratuitas) é uma questão que gera bastante debate.
Além dos LLMs, o portfólio de pesquisa da Meta AI é notavelmente amplo. Seu trabalho em visão computacional (DINOv2, Segment Anything), fala e tradução (SeamlessM4T, cobrindo mais de 100 idiomas), geração de vídeo e IA embodied está entre os melhores da indústria. O Segment Anything Model (SAM), lançado em 2023, fez pela segmentação de imagens o que o AlphaFold fez pelo dobramento de proteínas — tornou uma tarefa anteriormente difícil trivialmente fácil e gratuitamente disponível. O FAIR, agora liderado por Joelle Pineau (LeCun permanece como Chief AI Scientist em capacidade consultiva), continua publicando em um ritmo extraordinário. O desafio estratégico para a Meta é a integração: transformar toda essa pesquisa em produtos que tornem as plataformas sociais da Meta mais envolventes e sua publicidade mais eficaz, sem provocar o tipo de reação regulatória à qual uma empresa com o histórico de privacidade da Meta é particularmente vulnerável. A estratégia open-weights também tem limites — à medida que os modelos se aproximam de capacidades de nível AGI, a questão de se é responsável liberá-los abertamente se torna muito mais difícil de responder.