Anthropic existe en raison d'une scission au sein d'OpenAI. Fin 2020 et début 2021, un groupe de chercheurs chevronnés — dirigés par Dario Amodei (VP Recherche) et sa sœur Daniela Amodei (VP Opérations) — sont devenus de plus en plus préoccupés par ce qu'ils percevaient comme une dérive d'OpenAI vers la commercialisation au détriment de la sécurité. Ils ont quitté l'entreprise et fondé Anthropic en janvier 2021, emmenant avec eux plusieurs figures clés, dont Tom Brown (auteur principal de l'article sur GPT-3), Chris Olah (un pionnier de l'interprétabilité des réseaux neuronaux), Sam McCandlish et Jared Kaplan. Kaplan et McCandlish avaient corédigé l'influent article « Scaling Laws for Neural Language Models », qui démontrait que la performance des modèles s'améliorait de manière prévisible avec l'échelle — une recherche qui allait devenir fondamentale pour l'ensemble du domaine.
La contribution technique centrale d'Anthropic est Constitutional AI (CAI), publiée en décembre 2022. Plutôt que de se fier uniquement à la rétroaction humaine pour aligner les modèles (l'approche RLHF standard), CAI fait en sorte que le modèle critique et révise ses propres réponses en se basant sur un ensemble de principes écrits — une « constitution ». Il s'agissait à la fois d'une déclaration philosophique et d'un choix d'ingénierie pratique : la rétroaction humaine est coûteuse, incohérente et ne passe pas à l'échelle. En encodant des valeurs dans un document que le modèle lui-même peut appliquer, Anthropic a démontré qu'on pouvait obtenir un alignement plus cohérent avec moins de travail humain. L'approche s'est avérée suffisamment efficace pour que Claude, leur modèle phare, acquière une réputation de prudence notable et une moindre tendance à produire du contenu nuisible que ses concurrents — parfois de manière frustrante, ce qu'Anthropic a cherché à calibrer au fil des versions successives.
Claude a été lancé comme produit API en mars 2023 et est rapidement devenu le modèle privilégié des clients entreprises qui valorisaient la fiabilité et la sécurité. La famille de modèles a évolué rapidement : Claude 2 (juillet 2023) a introduit des fenêtres de contexte de 100K tokens, Claude 3 (mars 2024) a proposé une gamme à trois niveaux (Haiku, Sonnet, Opus) permettant aux clients d'arbitrer entre coût et capacité, et les générations Claude 3.5 et 4 ont propulsé Anthropic dans une véritable compétition de pointe avec OpenAI et Google. La fenêtre de contexte de 200K tokens de Claude est devenue une référence dans l'industrie. En 2024 et 2025, Anthropic a également lancé les capacités d'utilisation d'ordinateur (permettant à Claude d'opérer un bureau), le Model Context Protocol (MCP) comme standard ouvert pour l'intégration d'outils, et Claude Code pour le génie logiciel — des initiatives signalant un passage de laboratoire de recherche pure à entreprise de plateforme. Le produit grand public, claude.ai, a connu une croissance soutenue, mais le pain quotidien d'Anthropic est resté l'API et les contrats entreprises, notamment grâce à son partenariat avec Amazon Web Services.
Anthropic s'est structurée comme une Public Benefit Corporation — une forme juridique qui permet au conseil d'administration de concilier profit et mission déclarée. L'entreprise a également créé un Long-Term Benefit Trust conçu pour détenir le pouvoir de gouvernance au fil du temps, bien que l'impact concret de cette structure reste à démontrer. Les levées de fonds ont été considérables : 750 millions de dollars de Google début 2023, puis un accord en plusieurs phases avec Amazon totalisant jusqu'à 8 milliards de dollars d'investissement engagé (les premiers 4 milliards sont arrivés en 2023-2024, avec des tranches supplémentaires par la suite). Début 2025, Anthropic était valorisée à plus de 60 milliards de dollars sur les marchés secondaires. La relation avec Amazon est particulièrement significative — Claude est le modèle phare sur Amazon Bedrock, offrant à Anthropic une distribution auprès de la vaste clientèle entreprise d'AWS, tandis qu'Amazon obtient une réponse compétitive au partenariat Microsoft-OpenAI.
La tension fondamentale d'Anthropic est d'être une entreprise axée sur la sécurité dans une course où la prudence peut ressembler à un retard. L'entreprise a publié sa Responsible Scaling Policy (RSP), qui établit des seuils de capacité concrets — appelés AI Safety Levels — déclenchant des mesures supplémentaires de sécurité et de surveillance à mesure que les modèles deviennent plus puissants. Les critiques issus de la communauté de l'altruisme efficace soutiennent qu'Anthropic continue de développer des capacités potentiellement dangereuses malgré sa prudence affichée. Les critiques du côté commercial affirment que les garde-fous de sécurité rendent Claude moins utile que ses concurrents. Naviguer entre ces deux camps — tout en levant des milliards et en rivalisant directement avec OpenAI, Google, et de plus en plus Meta — est le défi permanent qui définit l'entreprise. La question de savoir si Anthropic peut prouver que sécurité et succès commercial sont véritablement compatibles, plutôt que de simplement l'affirmer, pourrait être l'une des questions les plus déterminantes dans le domaine de l'IA.