Zubnet AIAprenderWiki › Pesos abertos
Segurança

Pesos abertos

Também conhecido como: Código aberto (em contexto de IA)
Quando uma empresa libera os parâmetros treinados de um modelo para qualquer pessoa baixar e rodar. "Open weights" é mais preciso que "open source" porque a maioria dos modelos liberados não inclui dados de treinamento ou código de treinamento — você recebe o modelo pronto, mas não a receita. Llama, Mistral e Qwen são modelos open-weights.

Por que isso importa

Open weights significam que você pode rodar IA em seu próprio hardware com total privacidade — sem chamadas de API, sem dados saindo da sua rede. O trade-off é que você precisa dos recursos de GPU para rodá-los e é responsável pela segurança.

Em profundidade

O termo "open weights" existe porque o uso de "open source" pela indústria de IA é genuinamente enganoso. Open source tradicional (conforme definido pela OSI) significa que você recebe o código-fonte, pode modificá-lo e redistribuí-lo. Quando a Meta libera o Llama, você recebe os pesos treinados do modelo — os bilhões de parâmetros numéricos que definem o comportamento do modelo — mas não os dados de treinamento, não o código completo de treinamento e frequentemente não o pipeline de pré-processamento de dados. Você pode rodar inferência e fazer fine-tuning, mas não pode reproduzir o modelo do zero. A Open Source Initiative publicou uma definição formal de "IA Open Source" no final de 2024 tentando esclarecer isso, mas a indústria ainda usa os termos de forma imprecisa. Conhecer a distinção importa quando você está avaliando o que pode realmente fazer com um modelo.

O Espectro de Licenças

O espectro de abertura varia amplamente entre os lançamentos. Em um extremo, os modelos Llama da Meta vêm com uma licença customizada que proíbe uso por empresas com mais de 700 milhões de usuários ativos mensais (claramente voltada para concorrentes) e exige atribuição. Os modelos da Mistral têm usado geralmente Apache 2.0, uma das licenças mais permissivas disponíveis. A família Qwen da Alibaba também usa Apache 2.0. A DeepSeek lançou pesos sob licença MIT. Enquanto isso, projetos como BLOOM (BigScience) e OLMo (AI2) foram além ao também liberar dados de treinamento e código completo de treinamento — esses estão mais próximos do verdadeiro open source. Para desenvolvedores, a licença determina se você pode usar o modelo comercialmente, se precisa compartilhar modificações e se pode construir produtos proprietários sobre ele.

Rodando Você Mesmo

Rodar modelos open-weights por conta própria ficou dramaticamente mais acessível graças à quantização e engines de inferência otimizadas. Um modelo de 70 bilhões de parâmetros que precisaria de mais de 140 GB de VRAM em precisão total pode rodar em uma única GPU de consumo de 24 GB com quantização de 4 bits com perda de qualidade aceitável. Ferramentas como llama.cpp, vLLM e Ollama tornaram a inferência local quase trivialmente fácil — você pode ter um modelo capaz rodando em um laptop gamer em minutos. O gargalo prático mudou de "consigo rodar?" para "a qualidade é suficiente para meu caso de uso?" Modelos menores quantizados são notavelmente bons para muitas tarefas, mas perdem performance em raciocínio complexo e trabalho com contexto longo comparados a modelos de fronteira em precisão total servidos via API.

O Debate de Segurança

As implicações de segurança dos open weights são um dos tópicos mais ativamente debatidos em política de IA. A preocupação é direta: uma vez que os pesos são liberados, qualquer pessoa pode fazer fine-tuning para remover o treinamento de segurança. Pesquisadores demonstraram que salvaguardas de segurança baseadas em RLHF podem ser removidas de modelos open-weights com apenas algumas centenas de exemplos e computação mínima. Isso significa que modelos open-weights podem ser transformados em versões sem censura que cumprirão qualquer solicitação. O contra-argumento — e é forte — é que o conhecimento que esses modelos contêm já está disponível na internet, que os benefícios da pesquisa aberta e inovação distribuída superam os riscos, e que tentar restringir a distribuição de modelos apenas concentra poder em algumas grandes empresas sem melhorar significativamente a segurança. Ambos os lados têm pontos válidos, e o debate está longe de ser resolvido.

Fazendo a Escolha

Para praticantes escolhendo entre modelos open-weights e baseados em API, a decisão se resume a quatro fatores: privacidade (open weights mantêm seus dados locais), custo (auto-hospedagem é mais barata em alto volume mas mais cara em baixo volume), controle (você pode fazer fine-tuning e customizar livremente) e capacidade (modelos de fronteira apenas via API como GPT-4o e Claude ainda superam os melhores modelos open-weights em muitos benchmarks, embora a lacuna diminua a cada grande lançamento). Muitos sistemas de produção usam ambos — roteando consultas simples para um modelo open-weights local por velocidade e custo, enquanto enviam tarefas complexas para uma API de fronteira. Essa abordagem híbrida lhe dá o melhor dos dois mundos, e é cada vez mais a escolha pragmática para equipes que precisam de performance e privacidade.

Conceitos relacionados

← Todos os termos
← Rede neural OpenAI →
ESC