Les chercheurs d'Amazon ont lancé A-Evolve, un framework conçu pour automatiser le cycle de développement d'agents IA en mutant directement leur code et fichiers de configuration. Le système introduit un « Agent Workspace » avec cinq composants—manifest.yaml pour la configuration, prompts pour la logique de raisonnement, skills pour les fonctions réutilisables, tools pour les API externes, et memory pour le contexte historique. Un « Mutation Engine » opère sur ces fichiers à travers une boucle à cinq étapes : résoudre des tâches, observer la performance, évoluer en modifiant les fichiers workspace, valider via des fonctions fitness, et répéter.
Le timing reflète une frustration croissante avec les workflows actuels de développement d'agents. Quiconque construit des agents en production connaît la douleur—les agents échouent sur des tâches comme les issues GitHub de SWE-bench, forçant les développeurs dans des cycles sans fin d'inspection de logs, réécriture de prompts, et ajout d'outils. L'approche d'A-Evolve de traiter les agents comme des « collections d'artefacts mutables » qui évoluent grâce aux retours environnementaux adresse un vrai goulot d'étranglement. La comparaison avec PyTorch n'est pas totalement hors-sujet ; tout comme PyTorch a fait abstraction des calculs manuels de gradients, ceci pourrait faire abstraction de l'ingénierie manuelle de prompts.
Cependant, la couverture mono-source soulève des questions sur la validation en monde réel. Les affirmations de « zéro intervention humaine » et de transformation d'« agents semences » en haute performance sonnent prometteuses mais manquent de vérification indépendante ou de benchmarks détaillés. Le répertoire GitHub du framework existe, mais sans tests industriels plus larges ou perspectives concurrentes, il n'est pas clair si ceci résout le problème d'automatisation ou ajoute simplement une autre couche de complexité aux workflows de développement d'agents qui luttent déjà avec la fiabilité et prévisibilité.
