Zubnet AIAprenderWiki › Meta AI
Empresas

Meta AI

También conocido como: Llama, FAIR, PyTorch
La división de investigación en IA de Meta, sede de FAIR (Fundamental AI Research). Responsable de la familia de modelos open-weights Llama y de PyTorch, el framework de deep learning utilizado por la mayor parte de la industria de IA.

Por qué importa

Meta AI cambió fundamentalmente la economía de la IA al demostrar que los modelos de clase frontera podían liberarse como open weights. Llama y sus derivados impulsan miles de aplicaciones, startups y proyectos de investigación que nunca habrían tenido acceso a modelos de ese calibre. PyTorch sustenta la mayoría de los sistemas de investigación y producción de IA en todo el mundo. Y con más de 3 mil millones de usuarios en sus apps, Meta tiene una distribución que ningún otro laboratorio de IA puede igualar — cuando lanzan una función de IA, llega a un tercio de la humanidad de la noche a la mañana.

En profundidad

La historia de Meta AI comienza en diciembre de 2013, cuando Mark Zuckerberg reclutó a Yann LeCun — uno de los tres “padrinos del deep learning” junto con Geoffrey Hinton y Yoshua Bengio — para dirigir Facebook AI Research (FAIR). LeCun, profesor en NYU y pionero de las redes neuronales convolucionales, aportó credibilidad instantánea y una filosofía de investigación clara: investigación fundamental, publicada abiertamente, sin presión por productos a corto plazo. FAIR rápidamente se convirtió en uno de los laboratorios de IA más prolíficos y respetados del mundo, atrayendo talento de primer nivel y produciendo trabajo influyente en visión por computadora, procesamiento de lenguaje natural y aprendizaje autosupervisado. El laboratorio operó con una libertad académica inusual para una división corporativa de investigación, y la presencia de LeCun le dio una gravedad que pocos laboratorios industriales podían igualar.

PyTorch y la jugada de infraestructura

Si Meta AI no hubiera hecho nada más, PyTorch sería suficiente para cimentar su legado. Lanzado en 2016 como una evolución del framework Torch, PyTorch se convirtió en el framework de deep learning dominante en investigación y, cada vez más, en producción. Su grafo de computación dinámico “define-by-run” era más intuitivo que el enfoque de grafo estático original de TensorFlow, y la experiencia de desarrollo era simplemente mejor. Para principios de los 2020, la gran mayoría de los papers de investigación en IA usaban PyTorch, y la mayoría de los modelos con los que interactúas hoy — incluyendo los de OpenAI, Anthropic y Mistral — fueron entrenados con él. Meta liberó PyTorch como código abierto y eventualmente lo donó a la Linux Foundation en 2022, haciéndolo genuinamente gobernado por la comunidad. Esto no fue puro altruismo; al hacer de PyTorch el estándar, Meta se aseguró de que todo el ecosistema de IA se construyera sobre infraestructura que ellos entendían profundamente.

Llama y la revolución open-weights

En febrero de 2023, Meta lanzó LLaMA (Large Language Model Meta AI), una familia de modelos de 7B a 65B parámetros, inicialmente restringida a investigadores. En una semana, los pesos se filtraron en línea. En lugar de combatirlo, Meta se inclinó hacia adelante: Llama 2 (julio 2023) se lanzó bajo una licencia permisiva tanto para investigación como para uso comercial, y Llama 3 (abril 2024) y Llama 4 (2025) continuaron la estrategia open-weights con modelos cada vez más competitivos. Esta decisión remodeló la industria. Antes de Llama, la suposición predominante era que los modelos de frontera seguirían siendo propietarios. Después de Llama, surgió un ecosistema masivo de fine-tunes, cuantizaciones y modelos derivados, y el movimiento open-weights se convirtió en una fuerza competitiva seria. La motivación de Meta era en parte estratégica — si los modelos de IA se convierten en commodities, el valor se desplaza a las plataformas que los despliegan, y Meta tiene más de 3 mil millones de usuarios en Facebook, Instagram, WhatsApp y Threads — pero el impacto en democratizar el acceso a la IA fue real independientemente del motivo.

La apuesta de Zuckerberg por la IA

La inversión personal de Mark Zuckerberg en IA ha sido masiva y muy visible. Después de que el giro hacia el metaverso no logró capturar la imaginación pública (y costó decenas de miles de millones), Zuckerberg reposicionó a Meta como una empresa “AI-first” en 2023-2024. El gasto de capital ha sido asombroso: Meta construyó uno de los clústeres de GPUs más grandes del mundo (inicialmente más de 600,000 GPUs H100, con planes para más), gastando más de $30 mil millones anuales en infraestructura de IA para 2025. Meta AI, el asistente para consumidores de la compañía impulsado por Llama, se integró en todas las apps de Meta, convirtiéndolo en uno de los asistentes de IA más ampliamente desplegados del mundo por pura distribución. Zuckerberg también ha sido vocal sobre su postura filosófica: los modelos de IA deberían ser abiertos, la concentración del poder de IA en laboratorios cerrados es peligrosa, y el enfoque abierto de Meta es mejor para el ecosistema. Si esto es convicción genuina o estrategia competitiva contra OpenAI y Google (cuyos modelos cerrados Meta puede socavar con alternativas gratuitas) es una cuestión que genera bastante debate.

Amplitud de investigación y lo que viene

Más allá de los LLMs, el portafolio de investigación de Meta AI es notablemente amplio. Su trabajo en visión por computadora (DINOv2, Segment Anything), habla y traducción (SeamlessM4T, cubriendo más de 100 idiomas), generación de video e IA encarnada está entre lo mejor de la industria. El Segment Anything Model (SAM), lanzado en 2023, hizo por la segmentación de imágenes lo que AlphaFold hizo por el plegamiento de proteínas — hizo que una tarea previamente difícil fuera trivialmente fácil y libremente disponible. FAIR, ahora dirigido por Joelle Pineau (LeCun permanece como Chief AI Scientist en capacidad consultiva), continúa publicando a un ritmo extraordinario. El desafío estratégico para Meta es la integración: convertir toda esta investigación en productos que hagan las plataformas sociales de Meta más atractivas y su publicidad más efectiva, sin provocar el tipo de reacción regulatoria a la que una empresa con el historial de privacidad de Meta es particularmente vulnerable. La estrategia open-weights también tiene límites — a medida que los modelos se acercan a capacidades de nivel AGI, la pregunta de si es responsable liberarlos abiertamente se vuelve mucho más difícil de responder.

Conceptos relacionados

← Todos los términos
← Memoria MiniMax →
ESC