Zubnet AI學習Wiki › Anthropic
公司

Anthropic

別名:Claude、憲法式 AI、MCP
AI安全公司Anthropic正在開發Claude。該公司由前OpenAI研究人員戴里奧與丹妮拉·阿莫迪共同創立,專注於開發可靠、可解釋且可導向的AI系統。

為什麼重要

Anthropic 證明了一家 AI 公司可以以安全研究為先導,同時仍能在技術前沿競爭。他們的 Constitutional AI 方法影響了整個產業對對齊問題的思考方式,其 Responsible Scaling Policy 設定了一個模板,其他實驗室以各種形式採用,而 Claude 已成為需要可靠性與謹慎處理敏感內容的企業的首選模型。或許最重要的是,Anthropic 作為一家資金充足的競爭者存在,確保通往 AGI 的競賽不會成為一家公司的獨角戲 — 並確保至少有一家主要參與者將安全編織在其創立基因中,而非事後補上的考量。

深度解析

Anthropic 的成立源於 OpenAI 內部的分裂。2020 年底至 2021 年初,一群高階研究人員——由研究副總裁 Dario Amodei 和運營副總裁 Daniela Amodei 姊妹領軍——逐漸對 OpenAI 越來越傾向商業化而忽略安全性的趨勢感到擔憂。他們離開後於 2021 年 1 月創立了 Anthropic,並帶走了 Tom Brown(GPT-3 論文的主要作者)、Chris Olah(神經網絡可解釋性先驅)、Sam McCandlish 和 Jared Kaplan 等關鍵人物。Kaplan 和 McCandlish 共同撰寫了具有影響力的「Neural Language Models 的擴展定律」論文,證明模型性能會隨著規模擴展而可預測地提升——這項研究後來成為整個領域的基礎。

憲法 AI 與以安全為先的假設

Anthropic 的核心技術貢獻是 Constitutional AI(CAI),於 2022 年 12 月發表。與依賴純粹人類反饋對齊模型(標準的 RLHF 方法)不同,CAI 讓模型根據一套書面原則——「憲法」——來批評和修正自己的輸出。這既是哲學聲明,也是實用工程選擇:人類反饋成本高昂、不一致且無法擴展。透過將價值觀編碼到模型本身可應用的文件中,Anthropic 認為可以以更少的人工勞動獲得更一致的對齊。這種方法足夠有效,使得他們的旗艦模型 Claude 被認為比競爭對手更謹慎,產生有害內容的機率更低——有時甚至令人煩惱,Anthropic 也透過後續版本的迭代進行調整。

Claude 與產品演進

Claude 於 2023 年 3 月作為 API 產品推出,迅速成為重視可靠性和安全性的企業客戶的首選模型。模型系列快速演進:Claude 2(2023 年 7 月)引入 100K 上下文窗口,Claude 3(2024 年 3 月)推出三階產品線(Haiku、Sonnet、Opus),讓客戶在成本與能力之間做出權衡,而 Claude 3.5 和 4 世代則讓 Anthropic 真正進入與 OpenAI 和 Google 的前沿競爭。Claude 的 200K 上下文窗口成為業界基準。2024 年與 2025 年,Anthropic 還推出了桌面操作能力(讓 Claude 運作桌面)、Model Context Protocol(MCP)作為工具整合的開放標準,以及 Claude Code 用於軟體工程——這些舉措顯示從純粹研究實驗室轉向平台公司的轉變。消費者產品 claude.ai 穩步成長,但 Anthropic 的主要收入仍來自 API 和企業合約,特別是透過與 Amazon Web Services 的合作。

資金、治理與 Amazon 的關係

Anthropic 將自身設立為 Public Benefit Corporation(公共利益公司)——一種讓董事會能在獲利與明確使命之間取得平衡的法律形式。它還創設了 Long-Term Benefit Trust(長期利益信託),旨在長期持有治理權力,但這種結構的實際影響仍有待觀察。公司的募資規模驚人:2023 年初從 Google 獲得 7.5 億美元,隨後與 Amazon 簽訂多階段協議,總共承諾投資高達 80 億美元(前 40 億美元於 2023-2024 年到位,後續還有更多資金)。到 2025 年初,Anthropic 在二級市場的估值已超過 600 億美元。與 Amazon 的關係尤為重要——Claude 是 Amazon Bedrock 的旗艦模型,讓 Anthropic 能夠覆蓋 AWS 巨大的企業客戶群,而 Amazon 則獲得對抗 Microsoft 與 OpenAI 合作關係的競爭對手。

安全的鋼絲

Anthropic 的核心矛盾是在一個謹慎可能被視為落後的競賽中,保持安全導向的公司定位。他們發布了 Responsible Scaling Policy(RSP),設定具體的能力門檻——稱為 AI Safety Levels——當模型變得更強大時,會觸發額外的安全與監管措施。來自有效 altruism(有效利他主義)社群的批評者認為,Anthropic 仍在開發可能具有危險性的能力,儘管他們聲稱謹慎。來自商業角度的批評者則認為,Claude 的安全限制使其比競爭對手更不實用。在這兩個陣營之間取得平衡——同時籌集數十億美元資金,並與 OpenAI、Google,以及日益壯大的 Meta 直接競爭——是定義這家公司的持續挑戰。Anthropic 是否能證明安全與商業成功真正兼容,而不僅僅是宣稱,可能是 AI 領域最重要的問題之一。

相關概念

← 所有術語
← 對齊 AssemblyAI →
ESC