Anthropic OpenAI में एक schism के कारण मौजूद है। 2020 के अंत और 2021 की शुरुआत में, senior शोधकर्ताओं का एक समूह — Dario Amodei (VP of Research) और उनकी बहन Daniela Amodei (VP of Operations) के नेतृत्व में — सुरक्षा की क़ीमत पर commercialization की ओर OpenAI के drift के बारे में तेज़ी से चिंतित हो गए। उन्होंने छोड़ दिया और जनवरी 2021 में Anthropic की स्थापना की, उनके साथ कई प्रमुख व्यक्तियों को लाते हुए जिनमें Tom Brown (GPT-3 paper के lead author), Chris Olah (न्यूरल नेटवर्क interpretability में अग्रणी), Sam McCandlish, और Jared Kaplan शामिल थे। Kaplan और McCandlish ने प्रभावशाली "Scaling Laws for Neural Language Models" paper को सह-लिखा था, जिसने दिखाया कि मॉडल प्रदर्शन पैमाने के साथ पूर्वानुमेय रूप से सुधरता है — शोध जो पूरे क्षेत्र के लिए मौलिक बनेगा।
Anthropic का core तकनीकी योगदान Constitutional AI (CAI) है, दिसंबर 2022 में प्रकाशित। मॉडलों को align करने के लिए केवल मानव feedback पर निर्भर रहने के बजाय (मानक RLHF दृष्टिकोण), CAI मॉडल को सिद्धांतों के एक लिखित set — एक "constitution" — के आधार पर अपने स्वयं के आउटपुट की आलोचना और संशोधन करवाता है। यह एक दार्शनिक बयान और एक व्यावहारिक इंजीनियरिंग विकल्प दोनों था: मानव feedback महंगा, असंगत है, और scale नहीं होता। एक दस्तावेज़ में values को encode करके जिसे मॉडल स्वयं लागू कर सकता है, Anthropic ने तर्क दिया कि आप कम मानव labour के साथ अधिक consistent alignment प्राप्त कर सकते हैं। दृष्टिकोण इतना प्रभावी साबित हुआ कि Claude, उनके flagship मॉडल, ने प्रतिस्पर्धियों की तुलना में notably अधिक सावधान और हानिकारक सामग्री उत्पन्न करने की कम संभावना के लिए एक प्रतिष्ठा अर्जित की है — कभी-कभी निराशाजनक रूप से, जिसे Anthropic ने उत्तरोत्तर रिलीज़ में calibrate करने के लिए काम किया है।
Claude मार्च 2023 में एक API उत्पाद के रूप में launch हुआ और जल्दी से उन enterprise ग्राहकों के लिए पसंदीदा मॉडल बन गया जो विश्वसनीयता और सुरक्षा को महत्व देते थे। मॉडल परिवार तेज़ी से विकसित हुआ है: Claude 2 (जुलाई 2023) ने 100K context windows पेश की, Claude 3 (मार्च 2024) ने एक तीन-स्तरीय lineup (Haiku, Sonnet, Opus) लाया जो ग्राहकों को लागत और क्षमता का व्यापार करने देता है, और Claude 3.5 तथा 4 पीढ़ियों ने Anthropic को OpenAI और Google के साथ वास्तविक फ्रंटियर प्रतिस्पर्धा में धकेला। Claude का 200K context window एक उद्योग बेंचमार्क बन गया। 2024 और 2025 में, Anthropic ने computer use क्षमताएँ भी shipped (Claude को एक desktop संचालित करने देती हैं), tool integration के लिए एक खुले मानक के रूप में Model Context Protocol (MCP), और software engineering के लिए Claude Code — ऐसे कदम जिन्होंने शुद्ध शोध लैब से platform कंपनी तक एक shift का signal दिया। उपभोक्ता उत्पाद, claude.ai, स्थिर रूप से बढ़ा लेकिन Anthropic की रोटी और मक्खन API और enterprise deals बनी रही, विशेष रूप से Amazon Web Services के साथ अपनी साझेदारी के माध्यम से।
Anthropic ने खुद को एक Public Benefit Corporation के रूप में संरचित किया — एक क़ानूनी रूप जो बोर्ड को profit को एक निर्धारित मिशन के साथ संतुलित करने देता है। इसने एक Long-Term Benefit Trust भी बनाया जिसे समय के साथ governance शक्ति रखने के लिए डिज़ाइन किया गया, हालाँकि इस संरचना का व्यावहारिक प्रभाव परीक्षण के लिए शेष है। कंपनी की fundraising बढ़ रही है: 2023 की शुरुआत में Google से $750 मिलियन, फिर Amazon के साथ एक multi-phase deal $8 अरब तक committed निवेश में (पहले $4 अरब 2023-2024 में आए, अतिरिक्त tranches के साथ)। 2025 की शुरुआत तक, Anthropic का secondary बाज़ारों में $60 अरब से अधिक मूल्यांकन हुआ। Amazon संबंध विशेष रूप से महत्वपूर्ण है — Claude Amazon Bedrock पर flagship मॉडल है, Anthropic को AWS के विशाल enterprise ग्राहक आधार में वितरण देते हुए जबकि Amazon Microsoft की OpenAI साझेदारी के लिए एक प्रतिस्पर्धी उत्तर प्राप्त करता है।
Anthropic का परिभाषित तनाव एक ऐसी दौड़ में सुरक्षा-केंद्रित कंपनी होना है जहाँ सावधानी पीछे रहने जैसी दिख सकती है। उन्होंने अपनी Responsible Scaling Policy (RSP) प्रकाशित की है, जो concrete क्षमता thresholds — जिन्हें AI Safety Levels कहा जाता है — सेट करती है जो मॉडलों के अधिक शक्तिशाली होने पर अतिरिक्त सुरक्षा और निगरानी उपायों को trigger करते हैं। Effective altruism community के आलोचक तर्क देते हैं कि Anthropic अभी भी संभावित रूप से खतरनाक क्षमताओं का निर्माण कर रहा है इसकी निर्धारित सावधानी की परवाह किए बिना। Commercial पक्ष से आलोचक तर्क देते हैं कि उनके सुरक्षा guardrails Claude को प्रतिस्पर्धियों की तुलना में कम उपयोगी बनाते हैं। इन camps के बीच navigate करना — अरबों जुटाते हुए और OpenAI, Google, और तेज़ी से Meta के साथ head-to-head प्रतिस्पर्धा करते हुए — कंपनी को परिभाषित करने वाली निरंतर चुनौती है। क्या Anthropic यह साबित कर सकता है कि सुरक्षा और commercial सफलता वास्तव में compatible हैं, बजाय इसे केवल दावा करने के, AI में सबसे consequential प्रश्नों में से एक हो सकता है।