Zubnet AIAprenderWiki › Regulamentação de IA
Segurança

Regulamentação de IA

Também conhecido como: EU AI Act, Política de IA
Leis e políticas que governam o desenvolvimento e implantação de sistemas de IA. O EU AI Act (2024) é o mais abrangente, classificando sistemas de IA por nível de risco e impondo requisitos de acordo. Os EUA adotaram uma abordagem mais setorial com ordens executivas e diretrizes de agências. A China tem regulamentações direcionadas a IA generativa, deepfakes e algoritmos de recomendação.

Por que isso importa

Regulamentação molda o que empresas de IA podem construir, como devem construir e o que devem divulgar. O EU AI Act afeta qualquer empresa atendendo usuários europeus. Entender o cenário regulatório é cada vez mais necessário para qualquer um construindo ou implantando IA — não conformidade pode significar multas, proibições ou responsabilidade.

Em profundidade

O EU AI Act usa um framework baseado em risco. Risco inaceitável (proibido): pontuação social, vigilância biométrica em tempo real em locais públicos (com exceções). Alto risco (requisitos rigorosos): IA em contratação, educação, aplicação da lei, infraestrutura crítica — esses exigem avaliações de conformidade, governança de dados, supervisão humana e documentação. Risco limitado (obrigações de transparência): chatbots devem informar que são IA, deepfakes devem ser rotulados. Risco mínimo (sem requisitos): filtros de spam, IA de videogames.

Regras para Modelos Fundacionais

O EU AI Act aborda especificamente modelos fundacionais (chamados de "modelos de IA de propósito geral"). Provedores devem publicar resumos de dados de treinamento, cumprir leis de direitos autorais e implementar avaliações de segurança. Modelos considerados como apresentando "risco sistêmico" (grosso modo: modelos de fronteira com orçamentos de computação significativos) enfrentam obrigações adicionais incluindo testes adversariais, relatórios de incidentes e medidas de cibersegurança. Isso afeta diretamente empresas como Anthropic, OpenAI, Google e Meta.

O Mosaico Global

Regulamentação de IA está se desenvolvendo de forma desigual pelo mundo. A UE lidera com legislação abrangente. Os EUA dependem de ordens executivas, frameworks do NIST e agências setoriais (FDA para IA médica, FTC para proteção do consumidor). A China exige transparência algorítmica, rotulagem de conteúdo e aprovação governamental para IA generativa pública. Esse mosaico cria desafios de compliance para empresas globais de IA que devem navegar regras diferentes em diferentes mercados.

Conceitos relacionados

← Todos os termos
← Regressão Reka →