Google a lancé Gemma 4, affirmant qu'il est construit sur la même base architecturale que Gemini 3 et conçu pour des tâches de raisonnement complexes sur des appareils à faible consommation. L'entreprise le présente comme leur « famille de modèles ouverts la plus avancée » à ce jour, ciblant les agents AI autonomes qui peuvent fonctionner localement sans dépendances cloud. Google met l'accent sur la capacité des modèles à gérer un raisonnement sophistiqué tout en opérant dans les contraintes énergétiques des appareils de périphérie.

Cette sortie représente la dernière tentative de Google pour concurrencer dans l'espace des poids ouverts où ils ont constamment traîné derrière la série Llama de Meta et des acteurs plus petits comme Mistral. Le timing est révélateur — alors que les développeurs exigent de plus en plus des modèles qui peuvent fonctionner localement pour des raisons de confidentialité, de coût et de latence, Google a besoin d'alternatives crédibles pour garder les développeurs dans leur écosystème. L'affirmation « même base architecturale que Gemini 3 » est particulièrement intéressante, suggérant que Google est enfin prêt à partager des techniques plus avancées dans des modèles ouverts.

Cependant, le manque de couverture détaillée d'autres sources soulève des signaux d'alarme sur la substance réelle derrière cette annonce. Pas de benchmarks indépendants, pas de comptes de paramètres spécifiques, pas de comparaisons de performance en conditions réelles — juste la parole de Google que ces modèles tiennent leurs promesses. La communauté AI a appris à être sceptique des affirmations marketing sans résultats reproductibles.

Pour les développeurs, la question clé n'est pas de savoir si Gemma 4 existe, mais s'il livre réellement des capacités de raisonnement significatives à l'échelle des appareils de périphérie. Jusqu'à ce qu'on voie des tests indépendants et de vraies expériences de déploiement, ça ressemble plus à du positionnement qu'à une véritable percée dans le raisonnement AI local.