Estudantes de Yale e outras universidades agora estão usando chatbots de IA em tempo real durante discussões em sala de aula, digitando perguntas dos professores diretamente no ChatGPT e lendo as respostas em voz alta como suas próprias contribuições. Amanda, uma estudante de Yale, viu um colega de classe "digitando ferozmente" durante um silêncio constrangedor, alimentando a pergunta do professor sobre a leitura designada numa ferramenta de IA. Outra estudante, Jessica, relatou ver "cada pessoa colocando cada PDF na IA" no início de cada aula.
Isso se baseia em pesquisa que cobri mostrando que a maioria dos usuários de IA abandona o pensamento crítico ao usar essas ferramentas. O que chama a atenção aqui é a velocidade de adoção—estudantes não estão apenas usando IA para lição de casa, estão usando como muleta em tempo real durante discussões acadêmicas ao vivo. O resultado é previsivelmente sem graça: "Todo mundo agora meio que soa igual", Amanda notou, contrastando drasticamente com seu primeiro ano quando colegas "abordavam de ângulos diferentes e ofereciam comentários distintos".
Uma pesquisa mais ampla do National Education Union na Inglaterra descobriu que 66% dos professores do ensino médio relatam habilidades de pensamento crítico em declínio entre estudantes usando IA, mais que o dobro da taxa entre professores do ensino fundamental. Morteza Dehghani, professor de psicologia da USC que co-escreveu pesquisa recente sobre efeitos cognitivos da IA, chamou as implicações de "bem assustadoras", alertando que homogeneização intelectual poderia "afetar muito nossa sociedade". A pesquisa também revelou que estudantes não sentem mais necessidade de aprender ortografia devido à tecnologia de voz para texto.
Para desenvolvedores construindo ferramentas de IA, isso levanta questões sérias sobre padrões de uso em tempo real que talvez não estejamos rastreando. Se estudantes estão usando nossas APIs durante conversas ao vivo, estamos essencialmente automatizando o discurso humano sem perceber. A sala de aula está se tornando um campo de testes não intencional para colaboração IA-humano—e resultados iniciais sugerem que não estamos projetando essas interações com cuidado suficiente.
