A Microsoft foi pega de calças arriadas essa semana quando usuários notaram que os termos de serviço do Copilot literalmente dizem que a AI é "apenas para fins de entretenimento" e "pode cometer erros" que a tornam não confiável para "conselhos importantes". Isso enquanto a Microsoft agressivamente enfia o Copilot no Paint, Notepad, e toda ferramenta de produtividade que conseguem tocar. A empresa rapidamente recuou, chamando de "linguagem legada" que seria atualizada, mas o estrago já estava feito.

Isso não é apenas a Microsoft sendo desleixada com texto legal — é a contradição fundamental de toda a indústria de AI escancarada. Empresas estão vendendo AI como ferramentas revolucionárias de produtividade enquanto legalmente se isentam de qualquer responsabilidade quando essas ferramentas inevitavelmente alucinam, cometem erros, ou dão conselhos terríveis. OpenAI avisa usuários para não tratar o ChatGPT como "uma fonte única da verdade", e xAI diz que o Grok pode "ser ofensivo" ou fabricar fatos. Ainda assim essas mesmas empresas estão pressionando clientes corporativos para integrar AI em fluxos de trabalho críticos.

A reação no Reddit foi brutal mas precisa: "Se a Microsoft não confia no Copilot, por que eu deveria?" Um usuário notou que um terço da economia americana investiu em tecnologia que aparentemente é só para entretenimento. Você não compraria um carro com uma cláusula dizendo "não confie nisso para transporte", ainda assim é exatamente isso que está acontecendo com ferramentas AI sendo comercializadas como potencializadores de produtividade.

Para desenvolvedores e builders de AI, isso deveria ser um alerta sobre responsabilidade e expectativas. Se vocês estão integrando AI em sistemas de produção, não dependam do marketing de fornecedores — leiam os termos reais deles. Construam suas próprias camadas de validação, mantenham supervisão humana, e estabeleçam expectativas realistas para usuários. A desconexão entre o hype da AI e a realidade legal não vai embora tão cedo.