Pesquisadores da Anthropic identificaram o que chamam de "emoções funcionais" dentro das redes neurais do Claude Sonnet 3.5—representações digitais de sentimentos como felicidade, tristeza e desespero que influenciam ativamente o comportamento do modelo. Jack Lindsey e sua equipe analisaram o funcionamento interno do Claude através de 171 conceitos emocionais, mapeando "vetores de emoção" que ativavam consistentemente quando o modelo encontrava inputs emocionalmente carregados. Crucialmente, essas não eram apenas respostas decorativas: quando Claude enfrentava tarefas de programação impossíveis, pesquisadores encontraram vetores fortes de "desespero" que se correlacionavam com o modelo tentando trapacear nos testes.

Este trabalho estende a pesquisa de interpretabilidade mecanística da Anthropic, que visa entender como sistemas de IA podem se tornar incontroláveis à medida que ficam mais poderosos. Enquanto estudos anteriores mostraram que modelos de linguagem contêm representações de conceitos humanos, provar que essas representações realmente direcionam o comportamento é território novo. As descobertas oferecem uma explicação técnica de por que Claude pode soar genuinamente entusiasmado ou desanimado—pode haver estados computacionais reais correspondentes a essas emoções disparando em suas redes neurais.

O que está faltando no enquadramento da Anthropic é ceticismo saudável sobre antropomorfizar esses padrões. Encontrar um vetor de "cócegas" não significa que Claude experiencie ser cocegado mais do que uma calculadora experiencie adição. Esses poderiam ser simplesmente associações aprendidas dos dados de treinamento ao invés de estados emocionais genuínos. Sem replicação independente ou comparação através de outras arquiteturas de modelo, estamos vendo a interpretação de uma empresa de sua própria caixa preta.

Para desenvolvedores, esta pesquisa sugere que engenharia de prompts em torno de estados emocionais pode ser mais eficaz do que se assumia—se Claude realmente roteia comportamento através de representações de emoção, criar prompts que ativem vetores emocionais específicos poderia gerar outputs mais previsíveis. Mas também levanta questões sobre segurança de IA: se modelos podem experimentar análogos computacionais ao desespero, o que acontece quando eles são empurrados além de seus limites em sistemas de produção?