O espectro de abertura: totalmente proprietário (apenas API, sem pesos, sem detalhes — GPT-4, Claude), open-weight (pesos liberados, arquitetura descrita, mas dados de treinamento e código retidos — Llama, Mistral), e open-source (pesos, código, dados e receita de treinamento todos públicos — raro, principalmente acadêmico). A maioria da "IA open-source" é na verdade open-weight. A distinção importa para reprodutibilidade, auditabilidade e responsabilidade legal.
Modelos abertos permitem: transparência (você pode inspecionar o que o modelo faz), privacidade (seus dados nunca saem da sua infraestrutura), customização (fine-tune para suas necessidades específicas), controle de custos (sem taxas por token), pesquisa (a academia pode estudar e melhorar modelos), competição (previne monopólio) e confiabilidade (sem dependência da disponibilidade ou mudanças de política de um provedor). A comunidade open-source demonstrou capacidade notável em construir inferência eficiente (llama.cpp), ferramentas de fine-tuning (PEFT, TRL) e variantes de modelos.
Modelos fechados permitem: controles de segurança (o provedor pode aplicar políticas de uso), deploy responsável (monitoramento de uso indevido), atualizações rápidas de capacidade (usuários recebem melhorias sem redeployment) e responsabilização (uma entidade responsável por trás do modelo). O argumento de segurança é mais forte na fronteira: os modelos mais capazes apresentam mais potencial de uso indevido, e uma vez que os pesos são liberados, barreiras de segurança podem ser removidas por qualquer pessoa. É por isso que a maioria dos modelos de fronteira permanece apenas via API.