Zubnet AIAprenderWiki › Aprendizado de máquina
Fundamentos

Aprendizado de máquina

Também conhecido como: ML
A ampla área da ciência da computação em que os sistemas aprendem padrões a partir de dados, em vez de seguir regras explícitas. Em vez de programar um computador para reconhecer um gato listando características (quatro patas, orelhas pontiagudas, bigodes), você mostra a ele milhares de fotos de gatos e deixa que ele descubra o padrão por si mesmo. Machine learning abrange tudo desde a simples regressão linear até as redes neurais profundas que impulsionam a IA de hoje — aprendizado supervisionado (exemplos rotulados), aprendizado não supervisionado (encontrar estrutura) e aprendizado por reforço (tentativa e erro).

Por que isso importa

Aprendizado de máquina é o fundamento por trás de tudo o que chamamos de "IA" hoje. Todo LLM, todo gerador de imagens, todo algoritmo de recomendação, todo filtro de spam — tudo isso é aprendizado de máquina. Entender a ML como uma disciplina mais ampla ajuda você a ver onde o aprendizado profundo se encaixa, onde os métodos clássicos ainda vencem e por que a "IA" é, na verdade, apenas "ML que se tornou realmente boa".

Em profundidade

O aprendizado de máquina se divide em três paradigmas, e saber qual se aplica salva você de recorrer à ferramenta errada. O aprendizado supervisionado é o cavalo de trabalho: você fornece ao modelo exemplos rotulados (este e-mail é spam, este não é) e ele aprende uma mapeamento de entrada para saída. Classificação, regressão, tradução, legendas de imagens — se você tiver dados rotulados, o aprendizado supervisionado é quase certamente onde você começará. O aprendizado não supervisionado funciona sem rótulos: ele encontra estrutura por conta própria. Agrupar clientes com base no comportamento de compra, reduzir um conjunto de dados com 10.000 características para suas dimensões mais informativas, detectar tráfego de rede anômalo que não corresponde a nenhum padrão conhecido. Você o usa quando não sabe o que está procurando, o que acontece com mais frequência do que as pessoas admitem. O aprendizado por reforço é o estranho da turma — o modelo aprende por tentativa e erro, recebendo recompensas ou penalidades por suas ações. É assim que o AlphaGo venceu o campeão mundial, como os robôs aprendem a andar e como o RLHF alinha os LLMs às preferências humanas. É também notoriamente difícil de implementar corretamente, o que explica por que a maioria dos sistemas de ML em produção ainda é supervisionada.

ML Clássico vs. Aprendizado Profundo

Existe um mito persistente de que o aprendizado profundo tornou o ML clássico obsoleto. Não é verdade. A regressão logística ainda supera um Transformer quando você tem 500 linhas de dados tabulares, um conjunto claro de características e a necessidade de explicar suas previsões a um regulador. Florestas aleatórias e árvores com boosting de gradiente (XGBoost, LightGBM) dominam competições no Kaggle com dados estruturados por um motivo — são rápidas para treinar, difíceis de superajustar e suas importâncias de características são interpretáveis. O aprendizado profundo brilha quando os dados são não estruturados (imagens, texto, áudio, vídeo) e as características são muito complexas para serem engenheiradas manualmente. Ninguém escreve filtros de detecção de bordas mais porque redes convolucionais aprendem melhor. Ninguém escreve regras de gramática para tradução porque Transformers aprendem o mapeamento de ponta a ponta. A habilidade está em saber em qual regime você está. Se seus dados cabem em uma planilha, tente o XGBoost primeiro. Se não cabem, é aí que as redes neurais ganham sua complexidade.

O Loop de Treinamento

Cada projeto de ML segue o mesmo loop, seja você treinando um filtro de spam ou um LLM com 400 bilhões de parâmetros. Você começa com dados — coletando-os, limpando-os, dividindo-os em conjuntos de treinamento e teste. Depois, extrai ou aprende características: no ML clássico, isso significa engenheirá-las manualmente (contagens de palavras, histogramas de pixels, características de data); no aprendizado profundo, o modelo aprende suas próprias características a partir da entrada bruta. Você escolhe uma arquitetura de modelo, treina-o minimizando uma função de perda nos dados de treinamento, depois avalia-o em dados de validação para ver se realmente generaliza. Quase nunca funciona na primeira tentativa. Então você itera — mais dados, melhores características, hiperparâmetros diferentes, uma arquitetura completamente diferente. A diferença entre um pipeline de ML de livro didático e um sistema de produção é principalmente esse loop, executado centenas de vezes com experimentos cada vez mais desesperados até que algo funcione bem o suficiente para ser lançado.

Por Que Agora

As ideias por trás do aprendizado de máquina não são novas. A retropropagação foi descoberta nos anos 1980. SVMs e florestas aleatórias estavam maduras até o início dos anos 2000. O que mudou é que três coisas convergiram ao mesmo tempo. Primeiro, dados: a internet gerou mais dados rotulados e não rotulados do que qualquer um sabia o que fazer. Segundo, computação: GPUs se revelaram acidentalmente perfeitas para as multiplicações matriciais que as redes neurais precisam, e provedores de nuvem tornaram essas GPUs disponíveis por hora. Terceiro, algoritmos: normalização em lote, dropout, mecanismos de atenção e otimizadores melhores tornaram possível treinar redes que antes eram muito profundas e instáveis para convergir. Nenhuma dessas três fatores sozinho teria sido suficiente. Muitos dados existiam nos anos 1990, mas ninguém tinha a computação para treiná-los. GPUs existiam nos anos 2000, mas os truques algorítmicos para treinar redes com centenas de camadas ainda não tinham sido descobertos. Foi preciso que as três chegassem juntas para desencadear a onda atual — e é por isso que o ML passou de curiosidade acadêmica para o setor tecnológico mais financiado do planeta em menos de uma década.

Conceitos relacionados

← Todos os termos
← MCP Memória →
ESC