O Superintelligence Lab da Meta lançou o Muse Spark na quarta-feira, marcando uma ruptura definitiva com a série Llama medíocre da empresa através de um modelo proprietário que integra conteúdo do Instagram, Facebook e Threads. O modelo possui um modo "Contemplating" que roda até 16 agentes em paralelo, atingindo 58,4 no Humanity's Last Exam com ferramentas externas — embora a Meta admita timidamente "lacunas de performance atuais" em fluxos de trabalho de programação e sistemas agênticos de longo prazo.
Isso representa o lançamento de modelo mais honesto da Meta em anos. Enquanto concorrentes alardeiam capacidades de programação como requisito básico, a admissão direta da Meta sobre lacunas de programação sinaliza transparência refrescante ou limitações preocupantes. A "reformulação completa" do Superintelligence Lab sugere que a Meta sabe que o Llama não estava dando conta contra GPT-4 e Claude — um reconhecimento tácito de que a boa vontade do código aberto não compensa déficits de performance.
A integração das plataformas sociais da Meta diferencia o Muse Spark dos modelos de raciocínio puro, posicionando-o mais como o Grok da xAI do que assistentes tradicionais. A empresa promete futuros modelos Muse de código aberto, mas essa abordagem proprietária contradiz o posicionamento anterior de código aberto da Meta. A arquitetura de agentes paralelos é tecnicamente intrigante, embora "latência comparável" com 16 agentes rodando sugira otimização impressionante ou marketing disfarçando performance mais lenta.
Para desenvolvedores, as limitações de programação do Muse Spark o tornam inadequado para trabalho de desenvolvimento sério apesar dos benchmarks sólidos de raciocínio. A integração social pode ser valiosa para aplicações de consumo, mas a falta de acesso à API limita a adoção imediata. A honestidade da Meta sobre as lacunas é louvável, mas admitir que seu modelo não consegue programar em 2026 é como lançar um carro sem rodas.
