Zubnet AI學習Wiki › 開放權重
安全

開放權重

別名:開源 (AI 語境)
當一家公司釋出模型的已訓練參數供任何人下載和運行。「開放權重」比「開源」更精確,因為大多數釋出的模型並不包含訓練資料或訓練程式碼 —— 你得到的是成品模型而非配方。Llama、Mistral 和通義千問都是開放權重模型。

為什麼重要

開放權重意味著你可以在自己的硬體上以完全隱私運行 AI —— 不需要 API 呼叫,資料不會離開你的網路。代價是你需要 GPU 資源來運行它們,而且你必須自行負責安全。

深度解析

「開放權重」這個詞的存在,是因為 AI 產業對「開源」一詞的使用確實有誤導性。傳統的開源(由 OSI 定義)意味著你能獲得原始碼、可以修改它、也可以重新分發。當 Meta 釋出 Llama 時,你得到的是已訓練的模型權重 —— 定義模型行為的數十億個數值參數 —— 但得不到訓練資料,也得不到完整的訓練程式碼,通常也得不到資料預處理管線。你可以進行推理和微調,但無法從零重現模型。開源促進會(OSI)在 2024 年底發布了「開源 AI」的正式定義試圖釐清這一點,但業界仍在混用這些術語。在評估你實際能用模型做什麼時,了解這個區別很重要。

授權光譜

不同發布之間的開放程度差異很大。一端是 Meta 的 Llama 模型,其自訂授權禁止月活超過 7 億用戶的公司使用(顯然針對競爭者),並要求署名。Mistral 的模型通常使用 Apache 2.0,這是最寬鬆的授權之一。阿里巴巴的通義千問系列也使用 Apache 2.0。DeepSeek 則以 MIT 授權釋出權重。與此同時,BLOOM(BigScience)和 OLMo(AI2)等專案更進一步,同時釋出了訓練資料和完整的訓練程式碼 —— 這些更接近真正的開源。對開發者來說,授權決定了你是否可以商業使用該模型、是否需要分享修改內容,以及是否可以在其上建構專有產品。

自己運行

得益於量化和優化推理引擎,自行運行開放權重模型已變得顯著更容易。一個在全精度下需要超過 140 GB VRAM 的 700 億參數模型,在 4 位元量化下可以在單張 24 GB 消費級 GPU 上運行,且品質損失在可接受範圍內。llama.cpp、vLLM 和 Ollama 等工具已讓本地推理變得幾乎輕而易舉 —— 你可以在幾分鐘內讓一個堪用的模型在遊戲筆電上運行。實際瓶頸已從「我能不能跑起來?」轉變為「品質對我的使用場景夠不夠?」量化後的較小模型在許多任務上表現驚人地好,但在複雜推理和長上下文工作上,與透過 API 提供的全精度前沿模型相比確實會有性能損失。

安全辯論

開放權重的安全影響是 AI 政策中最活躍的辯論主題之一。疑慮很直接:一旦權重釋出,任何人都可以透過微調移除安全訓練。研究人員已證明,只需幾百個範例和極少的算力就能從開放權重模型中移除基於 RLHF 的安全護欄。這意味著開放權重模型可以被改造成會配合任何請求的「無審查」版本。反方的論點 —— 且頗具說服力 —— 是這些模型包含的知識在網路上本已可得,開放研究和分散式創新的好處超過風險,而試圖限制模型分發只會將權力集中在少數大公司手中,卻不能實質改善安全性。雙方都有道理,而這場辯論遠未結束。

做出選擇

對於在開放權重和 API 模型之間選擇的實務工作者來說,決策取決於四個因素:隱私(開放權重讓你的資料留在本地)、成本(高使用量時自建託管更便宜,低使用量時更貴)、控制(你可以自由微調和客製化)以及能力(GPT-4o 和 Claude 等僅提供 API 的前沿模型在許多基準測試上仍優於最好的開放權重模型,儘管差距隨每次重大發布而縮小)。許多生產系統同時使用兩者 —— 將簡單查詢路由到本地開放權重模型以提高速度和降低成本,同時將複雜任務發送到前沿 API。這種混合方式結合了兩者的優勢,對於同時需要效能和隱私的團隊來說,這越來越成為務實之選。

相關概念

← 所有術語
← 神經網絡 OpenAI →
ESC