El espectro de apertura: completamente propietario (solo API, sin pesos, sin detalles — GPT-4, Claude), pesos abiertos (pesos publicados, arquitectura descrita, pero datos y código de entrenamiento retenidos — Llama, Mistral), y open source (pesos, código, datos y receta de entrenamiento, todo público — raro, mayormente académico). La mayor parte de la "IA open source" en realidad es de pesos abiertos. La distinción importa para la reproducibilidad, la auditabilidad y la responsabilidad legal.
Los modelos abiertos permiten: transparencia (puedes inspeccionar lo que hace el modelo), privacidad (tus datos nunca salen de tu infraestructura), personalización (fine-tune para tus necesidades específicas), control de costos (sin tarifas por token), investigación (la academia puede estudiar y mejorar modelos), competencia (previene el monopolio) y confiabilidad (sin dependencia del uptime o cambios de política de un proveedor). La comunidad de código abierto ha demostrado una capacidad notable para construir inferencia eficiente (llama.cpp), herramientas de fine-tuning (PEFT, TRL) y variantes de modelos.
Los modelos cerrados permiten: controles de seguridad (el proveedor puede imponer políticas de uso), despliegue responsable (monitoreo de mal uso), actualizaciones rápidas de capacidades (los usuarios obtienen mejoras sin redespliegue) y rendición de cuentas (una entidad responsable detrás del modelo). El argumento de seguridad es más fuerte en la frontera: los modelos más capaces presentan el mayor potencial de mal uso, y una vez que los pesos se publican, las salvaguardas de seguridad pueden ser eliminadas por cualquiera. Por eso la mayoría de los modelos de frontera siguen siendo solo API.