Malus.sh é um serviço que pega uma biblioteca open source, faz uma reescrita "clean room" assistida por IA, e entrega o resultado sob qualquer licença que o comprador queira — geralmente MIT ou BSD, deliberadamente despojada do copyleft ou exigências de atribuição do projeto original. O pitch no próprio site não é sutil: "Código legalmente distinto com licença amigável a empresas. Sem atribuição. Sem copyleft. Sem problemas." O cofundador Mike Nolan, um pesquisador da ONU que trabalhou na economia política do open source, dirige a LLC por trás. O primeiro exemplo concreto que atraiu atenção dos desenvolvedores: chardet, a biblioteca Python amplamente usada para detecção de codificação de caracteres, foi reescrita usando o Claude Code da Anthropic no mês passado e republicada sob licença MIT que não tem nada a ver com a história do projeto original.

A teoria legal é genuinamente antiga e genuinamente sólida. Engenharia reversa em sala limpa é a doutrina que produziu a indústria de PCs compatíveis com IBM: um time especifica o que o software faz, um time separado escreve código novo a partir dessas especificações sem nunca ver o original, e o código resultante não infringe o copyright do original porque nenhuma cópia ocorreu. Phoenix Technologies construiu um BIOS clean-room nos anos 80 e sobreviveu a desafios legais. A Compaq fez o mesmo. A doutrina aguentou por quarenta anos. O que mudou em 2026 é o custo: uma reescrita que costumava exigir um time de muralha chinesa e meses de processo cuidadoso pode agora ser feita por um único engenheiro, em dias, com um LLM fazendo o trabalho pesado. O desenvolvedor Dan Blanchard, comentando o incidente do chardet, disse sem rodeios: "Não acho que dá para colocar o gênio de volta na garrafa a essa altura".

O buraco não dito na teoria legal é se reescritas assistidas por IA realmente qualificam como clean-room. A doutrina clássica assume que o time de reescrita tem zero exposição ao código original. Claude Code, GPT-5 e todo outro modelo de código no mercado são treinados em quantidades enormes de código fonte público, incluindo chardet, incluindo as bibliotecas GPL contra as quais Malus.sh é presumivelmente mais útil. Quando você pede a um modelo assim "reescreva esta biblioteca com estas especificações", o modelo talvez não tenha o arquivo original aberto, mas o leu durante o treinamento e pode reproduzir estrutura, comentários ou até pedaços verbatim. Nenhum tribunal testou ainda se isso constitui trabalho derivativo, e os casos de treinamento de IA atualmente abrindo caminho pelo sistema são em grande parte sobre similaridade de saída, não sobre a pergunta intermediária de se o conhecimento treinado conta como acesso. A primeira ação que Malus.sh atrair vai ser o caso teste para essa pergunta.

Para desenvolvedores, a leitura prática é que isso é maior que chardet e maior que copyright. O acordo implícito do open source — você tem meu código, respeita minha licença — é a única coisa segurando o ecossistema junto, e depende de uma norma social que agora é barata de contornar. Despojo de licença sempre foi possível; só requeria esforço suficiente para que a maioria das empresas escolhesse cumprir ou pagar. A IA comprime esse esforço em uma ordem de grandeza. Os movimentos defensivos disponíveis a mantenedores são limitados: licenciamento duplo com termos comerciais, marca registrada sobre o nome do projeto (você pode clonar o código, mas não pode chamá-lo chardet) e acordos de contribuinte que dão à fundação do projeto legitimidade para processar. Nenhum desses ajuda com bibliotecas que já estão sob licença permissiva. A resposta honesta é que o ecossistema vai precisar de novas normas, novo tooling para proveniência e provavelmente uma nova onda de decisões judiciais antes de qualquer coisa disso assentar. Enquanto isso, o gênio está de fato fora, e a única pergunta é qual forma as regras tomam quando alcançarem.