O Parlamento Europeu votou para adiar os prazos principais da Lei de IA da UE em 18-28 meses enquanto simultaneamente apoia uma proibição de apps nudify. Sistemas de IA de alto risco agora têm até dezembro de 2027 para cumprir ao invés de agosto de 2025, com sistemas específicos por setor como dispositivos médicos tendo até agosto de 2028. Requisitos de watermarking de IA foram movidos para novembro de 2026. A proibição nudify surgiu após indignação generalizada sobre deepfakes sexualizados do Grok inundando o X no início deste ano, embora detalhes permaneçam vagos além de isentar sistemas com "medidas de segurança eficazes".
Esse adiamento expõe a realidade regulatória da UE: cronogramas ambiciosos encontrando impossibilidade prática. Empresas já lutaram com orientações em mudança e perderam prazos da UE para publicar detalhes de implementação. A urgência simultânea em torno de apps nudify versus a extensão de 18 meses para tudo mais revela como pressão política, não prontidão técnica, direciona política de IA. O Parlamento ainda precisa da aprovação do Conselho Europeu, adicionando mais incerteza a um lançamento já caótico.
Enquanto a Europa luta com cronogramas básicos de conformidade, outras plataformas continuam construindo. Roblox acabou de abrir o código de um servidor MCP permitindo que Claude modifique diretamente experiências de jogos, e estão completando sua migração de cabeça dinâmica para habilitar melhor expressão do usuário. O contraste é gritante: reguladores europeus debatendo prazos de watermark enquanto desenvolvedores entregam ferramentas de IA que realmente funcionam.
Para construtores de IA, isso significa mais folga na Europa mas incerteza regulatória contínua. A linguagem vaga da proibição nudify em torno de "medidas de segurança eficazes" provavelmente criará dores de cabeça de conformidade. Empresas deveriam se preparar para inconsistências de aplicação conforme diferentes estados membros da UE interpretam essas regras diferentemente quando finalmente entrarem em vigor.
