Malus.sh es un servicio que toma una librería open source, hace una reescritura "clean room" asistida por IA, y entrega el resultado bajo cualquier licencia que el comprador quiera — generalmente MIT o BSD, deliberadamente despojada del copyleft o los requisitos de atribución del proyecto original. El pitch en su propio sitio no es sutil: "Código legalmente distinto con licencia amigable a empresas. Sin atribución. Sin copyleft. Sin problemas." El cofundador Mike Nolan, un investigador de la ONU que ha trabajado en la economía política del open source, dirige la LLC detrás. El primer ejemplo concreto que atrajo la atención de los desarrolladores: chardet, la librería Python ampliamente usada para detección de codificación de caracteres, fue reescrita usando Claude Code de Anthropic el mes pasado y republicada bajo una licencia MIT que no tiene nada que ver con la historia del proyecto original.
La teoría legal es genuinamente vieja y genuinamente sólida. La ingeniería inversa en sala limpia es la doctrina que produjo la industria de PCs compatibles con IBM: un equipo especifica qué hace el software, un equipo separado escribe nuevo código desde esas especificaciones sin jamás ver el original, y el código resultante no infringe el copyright del original porque no ocurrió copia. Phoenix Technologies construyó un BIOS clean-room en los 80s y sobrevivió a desafíos legales. Compaq hizo lo mismo. La doctrina ha aguantado por cuarenta años. Lo que ha cambiado en 2026 es el costo: una reescritura que solía requerir un equipo de muro chino y meses de proceso cuidadoso ahora puede hacerla un solo ingeniero, en días, con un LLM haciendo el trabajo pesado. El desarrollador Dan Blanchard, comentando el incidente de chardet, lo dijo sin rodeos: "No creo que se pueda volver a meter el genio en la botella a estas alturas".
El hueco no dicho en la teoría legal es si las reescrituras asistidas por IA realmente califican como clean-room. La doctrina clásica asume que el equipo de reescritura tiene cero exposición al código original. Claude Code, GPT-5 y cualquier otro modelo de código en el mercado están entrenados sobre cantidades enormes de código fuente público, incluyendo chardet, incluyendo las librerías GPL contra las que Malus.sh es presumiblemente más útil. Cuando le pides a un modelo así "reescribe esta librería con estas especificaciones", el modelo tal vez no tenga el archivo original abierto, pero lo leyó durante el entrenamiento y puede reproducir estructura, comentarios o incluso pedazos verbatim. Ninguna corte ha probado todavía si eso constituye trabajo derivado, y los casos de entrenamiento de IA actualmente abriéndose paso por el sistema son mayormente sobre similaridad de salida, no sobre la pregunta intermedia de si el conocimiento entrenado cuenta como acceso. La primera demanda que Malus.sh atraiga va a ser el caso de prueba para esa pregunta.
Para desarrolladores, la lectura práctica es que esto es más grande que chardet y más grande que el copyright. El trato implícito del open source — tienes mi código, respetas mi licencia — es lo único que mantiene el ecosistema unido, y depende de una norma social que ahora es barata de eludir. El despojo de licencia siempre fue posible; solo tomaba suficiente esfuerzo como para que la mayoría de empresas eligiera cumplir o pagar. La IA comprime ese esfuerzo en un orden de magnitud. Las jugadas defensivas disponibles para mantenedores son limitadas: doble licencia con términos comerciales, marca registrada sobre el nombre del proyecto (puedes clonar el código, pero no puedes llamarlo chardet), y acuerdos de contribuyentes que le dan a la fundación del proyecto legitimación para demandar. Ninguna de esas ayuda con librerías que ya están bajo licencia permisiva. La respuesta honesta es que el ecosistema va a necesitar nuevas normas, nuevo tooling para procedencia y probablemente una nueva ola de fallos judiciales antes de que algo de esto se asiente. Mientras tanto, el genio está en efecto fuera, y la única pregunta es qué forma toman las reglas cuando alcancen.
