Zubnet AIAprenderWiki › Tradução Automática
Usar AI

Tradução Automática

Também conhecido como: MT, Neural Machine Translation, NMT
Traduzir automaticamente texto de um idioma para outro. A tradução automática neural moderna (NMT) usa Transformers encoder-decoder treinados em corpora paralelos (textos e suas traduções). Google Translate, DeepL e tradução baseada em LLM usam variantes dessa abordagem. A qualidade melhorou dramaticamente — para pares de idiomas comuns, MT se aproxima da tradução humana profissional para conteúdo rotineiro.

Por que isso importa

A tradução automática quebra barreiras linguísticas em escala. Ela possibilita comércio global, busca entre idiomas, comunicação em tempo real e acesso a informações entre idiomas. Para IA especificamente, MT é como modelos treinados principalmente em inglês podem servir usuários em mais de 100 idiomas — e é por isso que a eficiência do tokenizer multilíngue importa para o custo.

Em profundidade

NMT moderna usa a arquitetura Transformer encoder-decoder: o encoder processa a frase de origem, e o decoder gera a frase de destino token por token, atendendo à fonte codificada através de cross-attention. O treinamento requer corpora paralelos — milhões de pares de frases em ambos os idiomas. A qualidade e adequação ao domínio dos dados são críticas: um modelo treinado em procedimentos do Parlamento Europeu traduz texto legal bem, mas conversa informal mal.

LLMs como Tradutores

Modelos de linguagem grandes se tornaram tradutores competitivos, às vezes superando sistemas de MT dedicados para pares de idiomas com muitos recursos. Sua vantagem: entendem contexto, expressões idiomáticas e nuances culturais melhor porque viram a linguagem usada em contextos diversos. Sua desvantagem: são muito mais lentos e caros por frase do que modelos de MT dedicados. Para tradução em tempo real de milhões de frases, modelos dedicados (como os por trás do Google Translate) são necessários. Para tradução de qualidade crítica em volumes menores, LLMs frequentemente produzem resultados mais naturais.

A Cauda Longa de Idiomas

A qualidade da MT varia enormemente entre pares de idiomas. Inglês-francês, inglês-espanhol e inglês-chinês são bem atendidos (dados de treinamento abundantes). Mas para os mais de 7.000 idiomas do mundo, a maioria dos pares tem pouco ou nenhum dado de treinamento paralelo. A tradução de baixo recurso permanece uma área de pesquisa ativa, com abordagens incluindo: tradução zero-shot através de modelos multilíngues, back-translation (usar o próprio sistema de MT para gerar dados de treinamento sintéticos) e transfer learning de idiomas relacionados.

← Todos os termos
ESC