Zubnet AIAprenderWiki › Diarização de Falantes
Usar AI

Diarização de Falantes

Também conhecido como: Quem Falou Quando
Determinar quem falou quando em uma gravação de áudio com múltiplos falantes. Dada uma gravação de reunião, a diarização a segmenta em "Falante A: 0:00–0:15, Falante B: 0:15–0:32, Falante A: 0:32–0:45." Combinada com reconhecimento de fala, isso produz transcrições atribuídas por falante — essencial para atas de reunião, transcrição de entrevistas e analytics de call center.

Por que isso importa

O reconhecimento de fala sozinho produz um bloco de texto sem indicação de quem disse o quê. A diarização adiciona a estrutura que torna transcrições úteis: você pode buscar o que uma pessoa específica disse, resumir as contribuições de cada falante e analisar a dinâmica da conversa (quem fala mais, quem interrompe). É essencial para qualquer aplicação de áudio com múltiplos falantes.

Em profundidade

Pipelines modernos de diarização: (1) detecção de atividade vocal (encontrar segmentos com fala vs. silêncio), (2) extração de embedding de falante (converter cada segmento de fala em um vetor que representa as características vocais do falante usando modelos como ECAPA-TDNN), (3) clustering (agrupar segmentos com embeddings similares — mesmo falante), (4) opcionalmente, re-segmentação (refinar limites usando os modelos de falantes agrupados). O pipeline produz timestamps rotulados com IDs de falantes.

Abordagens End-to-End

Sistemas mais recentes como Pyannote, NVIDIA NeMo e WhisperX realizam diarização end-to-end ou integram-se intimamente com reconhecimento de fala. O WhisperX combina transcrição Whisper com timestamps em nível de palavra e diarização de falantes, produzindo transcrições atribuídas por falante em um único pipeline. Essa integração lida melhor com fala sobreposta do que estágios separados do pipeline.

Desafios

Casos difíceis: fala sobreposta (duas pessoas falando simultaneamente), turnos curtos de fala (interjections breves), falantes com vozes parecidas (membros da família), condições de gravação variadas (um falante no telefone, outro na sala) e determinar o número de falantes (frequentemente desconhecido de antemão). Sistemas estado da arte alcançam ~5–10% de Diarization Error Rate em datasets de benchmark, mas podem ser piores em condições desafiadoras do mundo real.

← Todos os termos
ESC