Le Superintelligence Lab de Meta a lancé Muse Spark mercredi, marquant une rupture nette avec la série Llama plutôt médiocre de l'entreprise grâce à un modèle propriétaire qui intègre le contenu d'Instagram, Facebook et Threads. Le modèle dispose d'un mode « Contemplating » qui fait tourner jusqu'à 16 agents en parallèle, atteignant 58,4 sur Humanity's Last Exam avec des outils externes — bien que Meta admette avec embarras des « lacunes de performance actuelles » dans les flux de travail de programmation et les systèmes agentiques à long terme.
Ceci représente la sortie de modèle la plus honnête de Meta depuis des années. Alors que les concurrents vantent les capacités de programmation comme un minimum requis, l'admission franche de Meta concernant les lacunes de programmation signale soit une transparence rafraîchissante, soit des limitations préoccupantes. La « refonte complète » du Superintelligence Lab suggère que Meta sait que Llama ne faisait pas le poids face à GPT-4 et Claude — un aveu tacite que la bonne volonté open-source ne compense pas les déficits de performance.
L'intégration des plateformes sociales de Meta différencie Muse Spark des modèles de raisonnement pur, le positionnant plus comme le Grok de xAI que comme les assistants traditionnels. L'entreprise promet de futurs modèles Muse open-source, mais cette approche propriétaire en premier contredit le positionnement open-source précédent de Meta. L'architecture d'agents parallèles est techniquement intéressante, bien que la « latence comparable » avec 16 agents en marche suggère soit une optimisation impressionnante, soit du marketing pour masquer des performances plus lentes.
Pour les développeurs, les limitations de programmation de Muse Spark le rendent inadéquat pour un travail de développement sérieux malgré de solides benchmarks de raisonnement. L'intégration sociale pourrait s'avérer précieuse pour les applications grand public, mais l'absence d'accès API limite l'adoption immédiate. L'honnêteté de Meta concernant les lacunes est louable, mais admettre que votre modèle ne peut pas programmer en 2026, c'est comme lancer une auto sans roues.
