OpenAI、Google和Anthropic已經結成史無前例的聯盟,以防止中國AI新創公司使用模型蒸餾技術對其系統進行逆向工程。這項合作是在OpenAI於2026年2月正式警告美國立法者DeepSeek正試圖透過蒸餾複製美國AI能力之後開始的——這是一個訓練小模型使用大模型輸出來模仿其行為的過程。
這種防禦性協調標誌著美國AI領導者從競爭性保密向戰略合作的重大轉變。模型蒸餾已成為關鍵關切,因為它允許公司在不存取底層訓練資料或架構的情況下從前沿模型中提取有價值的知識。作為背景,蒸餾可以將GPT-4級別的能力壓縮到更小、更快的模型中——這正是使其既對合法最佳化有用又對智慧財產權盜竊危險的原因。
值得注意的是OpenAI向國會就DeepSeek發出警告的時機和具體性。這表明這家中國公司不只是隨意探測APIs,而是在進行大規模的系統性提取。三家通常競爭的公司現在共享防禦策略這一事實表明,它們將此視為對其競爭護城河的生存威脅,而不僅僅是常規的國際競爭。
對於開發者來說,這個聯盟可能意味著更嚴格的API限制、更激進的速率限制,以及針對可疑查詢模式的增強檢測系統。預計合法的蒸餾研究將面臨新的阻力,因為這些公司實施全面保護措施。透過創造性提示從前沿模型中自由提取知識的時代可能正在結束。
