开放程度的光谱:完全专有(仅API,无权重,无细节——GPT-4、Claude)、开放权重(权重发布,架构描述,但训练数据和代码未公开——Llama、Mistral)、以及开源(权重、代码、数据和训练方案全部公开——罕见,主要是学术界)。大多数“开源AI”实际上是开放权重。这一区别对可复现性、可审计性和法律责任都很重要。
开放模型实现了:透明性(你可以检查模型做了什么)、隐私(你的数据永远不离开你的基础设施)、定制化(针对你的特定需求微调)、成本控制(无按token收费)、研究(学术界可以研究和改进模型)、竞争(防止垄断)、以及可靠性(不依赖提供商的正常运行时间或政策变更)。开源社区在构建高效推理(llama.cpp)、微调工具(PEFT、TRL)和模型变体方面展示了卓越的能力。
封闭模型实现了:安全控制(提供商可以执行使用政策)、负责任的部署(监控滥用)、快速能力更新(用户无需重新部署即可获得改进)、以及问责制(模型背后有负责任的实体)。安全论点在前沿最为有力:最强大的模型具有最大的滥用潜力,一旦权重发布,任何人都可以移除安全护栏。这就是为什么大多数前沿模型仍然仅通过API提供。