Zubnet AIAprenderWiki › Annotation
Training

Annotation

Data Labeling, Data Annotation
O processo de adicionar labels, tags ou metadados a dados brutos para que possam ser usados para aprendizado supervisionado. Anotar imagens significa desenhar bounding boxes ao redor de objetos. Anotar texto significa etiquetar entidades, sentimento ou intenção. Anotar para RLHF significa classificar respostas do modelo por qualidade. Anotação é o trabalho humano que transforma dados brutos em dados de treinamento.

Por que importa

Anotação é a fundação pouco glamorosa da IA supervisionada. Todo dataset rotulado, todo modelo fine-tuned, todo assistente alinhado depende de anotadores humanos que passaram horas rotulando dados corretamente. A qualidade das anotações determina diretamente a qualidade do modelo — rotulação inconsistente ou enviesada produz modelos inconsistentes e enviesados. É a parte mais labor-intensiva e frequentemente mais cara de construir sistemas IA.

Deep Dive

Annotation workflows typically involve: (1) creating clear labeling guidelines (what counts as "positive sentiment"? what's the boundary of a "car" in a bounding box?), (2) training annotators on the guidelines, (3) annotating data with multiple annotators per example (for quality control), (4) measuring inter-annotator agreement (do annotators agree on labels?), and (5) resolving disagreements (through adjudication or majority vote). Low agreement often indicates ambiguous guidelines or genuinely ambiguous data.

RLHF Annotation

For LLM alignment, annotation means comparing model responses: "Is response A or response B better for this prompt?" This preference annotation is particularly challenging because "better" is subjective, context-dependent, and culturally variable. Annotator demographics, expertise, and instructions all influence the resulting preference data, which in turn shapes model behavior. This is why alignment is often described as encoding the values of whoever writes the annotation guidelines.

AI-Assisted Annotation

Increasingly, AI models assist with annotation: pre-labeling data that humans then correct (faster than labeling from scratch), generating synthetic annotation data, or serving as additional annotators alongside humans. This creates an interesting feedback loop: AI helps label data that trains better AI. The risk is that AI-assisted annotation inherits the biases of the assisting model, so human oversight remains essential.

Conceitos relacionados

← Todos os termos
← Alignment Anthropic →