Parallel Web Systems, la startup d'outillage d'agent IA fondée par l'ancien PDG de Twitter Parag Agrawal, a levé une Série B de 100 millions à une valorisation de 2 milliards menée par Sequoia. Le tour arrive juste cinq mois après la Série A de 100 M$ à 740 M$ menée par Kleiner Perkins pis Index Ventures — un saut de valorisation de 2,7x en moins de six mois. Les investisseurs existants Kleiner, Index, Khosla, First Round, Spark pis Terrain ont tous participé au nouveau tour, portant le capital total levé à 230 M$. Agrawal a dit à TechCrunch que la compagnie a plus de 100 000 développeurs qui utilisent ses produits, avec des clients nommés incluant Clay, Harvey, Notion, pis OpenDoor, plus des banques pis des hedge funds non nommés. Le détail personnel à signaler : c'est l'Agrawal qui s'est fait crisser dehors par Elon Musk dans la prise de contrôle de Twitter, pis qui a poursuivi pour 128 M$ en indemnités non payées — une cause que Musk a réglée à des termes non divulgués en octobre 2025.

Le pari produit substantiel, c'est ce qui rend la valorisation intéressante. Parallel offre une suite d'APIs de recherche pis de research web spécifiquement pour les agents IA — c'est pas de l'automation de navigateur (la catégorie classe Browser Use / Stagehand / Operator), pis c'est pas de l'infrastructure de recherche générique (territoire Exa, Tavily, You.com). C'est un hybride : recherche pis research API-first conçue autour de comment les agents consomment vraiment le contenu web plutôt que comment les humains le font. Cette distinction-là compte plus que ça sonne. L'automation de navigateur donne aux agents un accès web humain-like mais paye le coût de latence pis de fragilité de vraiment rendre les pages pis cliquer les boutons. Les APIs de recherche générique donnent des retours structurés propres mais aplatissent le contenu en snippets qui perdent les patterns de recherche multi-étapes dont les agents ont besoin. Le pitch de Parallel, c'est que des primitives de recherche pis research conçues pour agents, c'est une catégorie séparée des deux autres, pis la liste de clients (Clay pour les workflows de vente, Harvey pour la recherche juridique, Notion pour la gestion des connaissances) supporte cette thèse — c'est exactement les clients dont les agents ont besoin de recherche web profonde, pas de navigation casual.

Le pattern d'allocation de capital raconte une histoire plus large. L'infrastructure d'agent IA s'est séparée en environ trois anneaux : couche modèle (Anthropic, OpenAI, Google), couche exécution (automation de navigateur, sandboxes d'exécution de code), pis couche outils-et-données (recherche, retrieval, scraping, research web). La couche modèle, c'est maintenant mostly fermé aux nouveaux entrants sauf en levant du capital à des valorisations de labo frontière ; la couche exécution se fragmente vite avec plusieurs petites compagnies qui compétitionnent sur des primitives similaires. Le 2 G$ à un rythme de doublement en cinq mois de Parallel suggère que Sequoia traite les APIs de recherche d'agents comme une sous-catégorie winner-take-most dans outils-et-données — pis est prêt à payer pour un leadership prématurément concentré. Le chiffre de 100 000 développeurs, c'est le point de données porteur ; c'est pas un nombre marketing, c'est l'indicateur de tunnel que l'API a vraiment de la largeur d'intégration au bas du marché développeur. Si 100 000 dévs persistent à travers les cycles build-test-deploy d'agent, l'histoire de rétention client pour le marché moyen-supérieur (classe Clay/Harvey/Notion) est structurellement saine.

Pour les builders, trois takeaways. Premièrement, si tu bâtis des produits agentiques qui ont besoin de lire le web ouvert à n'importe quelle profondeur, évalue Parallel contre Exa, Tavily, You.com pis le navigateur web direct du LLM — les distinctions sont réelles (profondeur-de-research vs qualité-de-snippet vs latence) pis la bonne réponse dépend du ratio lecture-vs-action de ton agent. Deuxièmement, surveille le gradient de valorisation entre les couches d'infrastructure d'agent — les fournisseurs de modèles lèvent à 50-300 G$, la couche exécution à 200 M$-2 G$, outils-et-données à 500 M$-2 G$. Parallel s'assoit à la limite supérieure d'outils-et-données, ce qui signale où Sequoia pense que le leadership de catégorie durable vit. Troisièmement, l'histoire d'Agrawal-comme-fondateur compte moins que la liste de clients, mais ça vaut la peine de le noter : les exécutifs post-Twitter fondent maintenant des compagnies d'infrastructure d'agent à des valorisations compétitives, ce qui veut dire que le talent qui sort des turbulences de compagnies publiques nourrit la stack d'agent plutôt que la stack de modèle. Où les exécutifs vont après, c'est souvent un indicateur avancé d'où la formation de catégorie se passe, pis présentement ils s'en vont aux compagnies d'outils-d'agent.