A Anthropic existe por causa de um cisma na OpenAI. No final de 2020 e início de 2021, um grupo de pesquisadores seniores — liderados por Dario Amodei (VP de Pesquisa) e sua irmã Daniela Amodei (VP de Operações) — ficaram cada vez mais preocupados com o que viam como uma deriva da OpenAI em direção à comercialização em detrimento da segurança. Eles saíram e fundaram a Anthropic em janeiro de 2021, trazendo consigo várias figuras-chave incluindo Tom Brown (autor principal do artigo do GPT-3), Chris Olah (um pioneiro em interpretabilidade de redes neurais), Sam McCandlish e Jared Kaplan. Kaplan e McCandlish foram coautores do influente artigo "Scaling Laws for Neural Language Models", que mostrou que o desempenho dos modelos melhora previsivelmente com escala — pesquisa que se tornaria fundamental para todo o campo.
A contribuição técnica central da Anthropic é a Constitutional AI (CAI), publicada em dezembro de 2022. Em vez de depender puramente de feedback humano para alinhar modelos (a abordagem padrão de RLHF), a CAI faz o modelo criticar e revisar suas próprias saídas com base em um conjunto escrito de princípios — uma "constituição". Isso foi tanto uma declaração filosófica quanto uma escolha prática de engenharia: feedback humano é caro, inconsistente e não escala. Ao codificar valores em um documento que o próprio modelo pode aplicar, a Anthropic argumentou que seria possível obter um alignment mais consistente com menos trabalho humano. A abordagem se provou eficaz o suficiente para que o Claude, seu modelo principal, tenha conquistado uma reputação de ser notavelmente mais cauteloso e menos propenso a produzir conteúdo prejudicial do que os concorrentes — às vezes frustrantemente, o que a Anthropic tem trabalhado para calibrar em lançamentos sucessivos.
O Claude foi lançado como produto de API em março de 2023 e rapidamente se tornou o modelo preferido para clientes empresariais que valorizavam confiabilidade e segurança. A família de modelos evoluiu rapidamente: o Claude 2 (julho de 2023) introduziu janelas de contexto de 100K, o Claude 3 (março de 2024) trouxe uma linha de três camadas (Haiku, Sonnet, Opus) que permitia aos clientes escolher entre custo e capacidade, e as gerações Claude 3.5 e 4 empurraram a Anthropic para uma competição genuína de fronteira com OpenAI e Google. A janela de contexto de 200K do Claude se tornou um referencial da indústria. Em 2024 e 2025, a Anthropic também lançou capacidades de uso de computador (permitindo que o Claude operasse um desktop), o Model Context Protocol (MCP) como padrão aberto para integração de ferramentas e o Claude Code para engenharia de software — movimentos que sinalizaram uma mudança de laboratório de pesquisa puro para empresa de plataforma. O produto para consumidores, claude.ai, cresceu constantemente, mas o carro-chefe da Anthropic permaneceu sendo a API e contratos empresariais, particularmente através de sua parceria com a Amazon Web Services.
A Anthropic se estruturou como uma Public Benefit Corporation — uma forma jurídica que permite ao conselho equilibrar lucro com uma missão declarada. Também criou um Long-Term Benefit Trust projetado para deter poder de governança ao longo do tempo, embora o impacto prático dessa estrutura ainda precise ser testado. A captação de recursos da empresa tem sido impressionante: US$ 750 milhões do Google no início de 2023, depois um acordo em múltiplas fases com a Amazon totalizando até US$ 8 bilhões em investimento comprometido (os primeiros US$ 4 bilhões chegaram em 2023-2024, com parcelas adicionais seguindo). No início de 2025, a Anthropic era avaliada em mais de US$ 60 bilhões em mercados secundários. O relacionamento com a Amazon é particularmente significativo — o Claude é o modelo principal no Amazon Bedrock, dando à Anthropic distribuição por toda a massiva base de clientes empresariais da AWS, enquanto a Amazon ganha uma resposta competitiva à parceria da Microsoft com a OpenAI.
A tensão definidora da Anthropic é ser uma empresa focada em segurança em uma corrida onde cautela pode parecer ficar para trás. Eles publicaram sua Responsible Scaling Policy (RSP), que define limiares concretos de capacidade — chamados AI Safety Levels — que acionam medidas adicionais de segurança e supervisão conforme os modelos ficam mais poderosos. Críticos da comunidade de altruísmo efetivo argumentam que a Anthropic ainda está construindo capacidades potencialmente perigosas independentemente de sua cautela declarada. Críticos do lado comercial argumentam que seus guardrails de segurança tornam o Claude menos útil que os concorrentes. Navegar entre esses campos — enquanto levanta bilhões e compete diretamente com OpenAI, Google e cada vez mais a Meta — é o desafio contínuo que define a empresa. Se a Anthropic consegue provar que segurança e sucesso comercial são genuinamente compatíveis, em vez de apenas afirmar isso, pode ser uma das questões mais consequentes em IA.