Google Cloud a sorti Agents CLI à Cloud Next '26 le 22 avril, un outil en ligne de commande open source qui donne aux agents de codage IA une interface déterministe à la Gemini Enterprise Agent Platform de Google (le nouveau nom de Vertex AI). InfoQ l'a repris six jours plus tard. Le choix notable : Agents CLI supporte explicitement Claude Code, Cursor pis Gemini CLI comme clients de première classe — Google livre du tooling d'intégration pour les agents de ses compétiteurs au lieu d'enfermer les développeurs dans Gemini. Le repo google/agents-cli sur GitHub a passé 1 000 étoiles dans les 48 heures suivant le lancement.

La mécanique est de réduire le overhead de tokens, pas d'ajouter des features. Aujourd'hui, quand Claude Code ou Cursor travaille avec Google Cloud, il doit inférer comment Agent Platform, Cloud Run, l'IaC pis le CI/CD se branchent ensemble — chaque itération brûle du contexte sur la même plomberie. Agents CLI embarque cette connaissance structurée directement : au lieu qu'un agent lise la doc pis re-déduise les formes d'API, il appelle une commande CLI qui retourne des résultats déterministes. Le package inclut une simulation locale, des pipelines d'évaluation qui comparent les sorties entre runs, pis de la validation contre des datasets — ça règle une des plaintes les plus fortes du développement d'agents aujourd'hui : la plupart des équipes shippent sans tester parce qu'y a pas de moyen propre de tester. L'automatisation de déploiement génère du IaC, configure le CI/CD, pis livre sur Cloud Run ou Kubernetes, avec publication dans Gemini Enterprise. Un « Human Mode » permet aux devs de rouler les commandes CLI directement quand les workflows pilotés par agent ont besoin de supervision.

Deux patterns comptent ici. Premièrement, l'intégration multi-vendeurs des agents de codage, c'est le mouvement opposé à ce que GitHub a annoncé la même semaine. Où Copilot devient un fossé Microsoft saveur OpenAI à coût contrôlé, Agents CLI, c'est Google qui dit « prenez n'importe quel agent de codage, déployez juste chez nous ». C'est friendly pour les devs pis c'est un pari calculé : le substrat cloud est le lock-in, la couche agent est une commodité. Deuxièmement, embarquer de la connaissance CLI structurée pour couper l'overhead de contexte, c'est le même pattern que MCP — donner aux agents des outils déterministes au lieu de les forcer à re-déduire les APIs à partir de la doc à chaque itération. Le pattern converge entre fournisseurs : Anthropic avec ses connecteurs créatifs plus tôt aujourd'hui, IBM avec le tool calling de Bob, Google avec Agents CLI. Surfaces différentes, même forme.

Pour les builders qui shippent des workflows agentiques sur Google Cloud, c'est le genre de release qui te fait vraiment gagner du temps — la pipeline d'éval à elle seule enlève une vraie catégorie de douleur du genre « on sait pas si cette régression est vraie ». Pour tous les autres, la lecture stratégique est plus utile : Google a décidé de pas se battre dans la guerre des agents de codage pis de devenir plutôt le cloud où atterrissent les agents de tout le monde. À comparer avec le pari Copilot d'Azure (un écosystème, un cloud) pis AWS Bedrock Agents (médiatisé par Bedrock, moins plug-in pour les agents externes). Le détail du « Human Mode » — laisser les devs court-circuiter l'agent — c'est la petite touche qui montre que Google a regardé ce qui se passait quand les workflows entièrement autonomes brisaient des affaires. Utilise-le.