La frase "papagayo estocástico" proviene de un artículo específico — "Sobre los peligros de los papagayos estocásticos: ¿Pueden los modelos de lenguaje ser demasiado grandes?" de Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell, publicado en 2021. Los argumentos reales del artículo son más sutiles de lo que sugiere el lema. Bender y Gebru no afirmaron simplemente que los modelos de lenguaje son tontos. Plantearon cuatro preocupaciones: el costo ambiental de entrenar modelos cada vez más grandes, la codificación de visiones del mundo hegemónicas encontradas en los datos de entrenamiento de internet, la imposibilidad de que los modelos basen sus salidas en un significado real, y el riesgo de que el texto fluido engañe a la gente para que crea que hay una comprensión genuina detrás. El artículo se volvió infame no solo por su contenido, sino por su secuela — Google despidió a Gebru de su equipo de IA Ética poco después de que ella lo presentara para revisión interna, y luego despidió a Mitchell semanas después. La controversia transformó lo que podría haber sido una contribución académica estándar en un punto de discusión sobre el control corporativo de la investigación en ética de la IA.
La versión más sólida del argumento del papagayo estocástico es fuerte, y el compromiso honesto con la IA requiere reconocerlo. Los modelos de lenguaje sí codifican sesgos de sus datos de entrenamiento — no como un error corregible, sino como una característica estructural del aprendizaje a partir del texto humano. No tienen comprensión basada en el mundo en ningún sentido convencional: un modelo puede describir el sabor de una fresa con exquisitez sin haber experimentado nunca el sabor. Los recursos computacionales necesarios para los modelos de vanguardia son genuinamente enormes, y los costos ambientales son reales incluso si mejoran por parámetro. Lo más importante, la advertencia del artículo sobre la "ilusión de comprensión" ha envejecido bien. La gente sí sobreconfía en el texto fluido. Cada implementación de un chatbot en atención al cliente o en salud prueba que los usuarios atribuyen comprensión a sistemas que no la tienen, al menos no en el sentido en que los humanos entienden "comprensión".
Los argumentos contrarios más fuertes provienen de capacidades que surgieron después de que se escribiera el artículo. El razonamiento en cadena de pensamiento, donde los modelos resuelven problemas paso a paso y llegan a respuestas correctas que no podrían alcanzar en una sola pasada, es difícil de explicar como pura imitación estadística. El aprendizaje en contexto — la capacidad de adquirir tareas completamente nuevas a partir de unos pocos ejemplos en el prompt, sin actualizaciones de peso — va más allá de lo que hacen los papagayos. Los modelos pueden escribir código funcional para problemas novedosos, traducir entre idiomas para los que han visto datos paralelos limitados, y generalizar instrucciones a situaciones bastante diferentes de sus ejemplos de entrenamiento. Si esto es "solo" coincidencia de patrones, entonces la coincidencia de patrones es mucho más poderosa de lo que sugiere la metáfora. La pregunta no es si los modelos son coincidentes de patrones (lo son), sino si la coincidencia de patrones a una escala suficiente produce algo funcionalmente equivalente al razonamiento.
Este es el lugar donde la conversación se vuelve genuinamente filosófica, y honestamente, sin resolver. El experimento mental de la habitación china de John Searle — donde una persona sigue reglas para manipular símbolos chinos sin entender el chino — se mapea directamente en el debate del papagayo estocástico. Los defensores de la capacidad de los LLM argumentan a favor de la equivalencia funcional: si un sistema produce salidas indistinguibles de la comprensión, ¿importa el mecanismo interno? Los críticos argumentan que sin base en la experiencia física y la intencionalidad genuina, ninguna cantidad de manipulación de texto constituye comprensión. Ambos bandos tienen un punto, y la respuesta honesta es que no tenemos una definición satisfactoria de "comprensión" incluso para la cognición humana. La respuesta del pragmatista es que quizás no importe. Si un modelo puede diagnosticar un error en tu código, explicar un concepto de física claramente, o redactar un informe legal que un abogado encuentre útil, el estatus filosófico de su "comprensión" es menos importante que si la salida es correcta y útil.
La mayoría de los investigadores serios de IA han superado el enfoque binario "papagayo vs. inteligencia real". La pregunta interesante ya no es si los LLM comprenden el lenguaje — es qué tipo de cognición está sucediendo y qué puede y no puede hacer de manera confiable. Los modelos claramente hacen algo más que repetir, pero también claramente carecen de cosas que tienen los humanos: memoria persistente a través de conversaciones, experiencia corporal, creencias consistentes, la capacidad de saber lo que no saben. La etiqueta de papagayo estocástico sigue siendo útil como una advertencia contra el entusiasmo — un recordatorio de que el texto fluido no es lo mismo que la verdad, y que las salidas impresionantes no garantizan razonamiento sólido. Pero como descripción completa de lo que hacen los modelos de lenguaje grandes, dejó de ser adecuada alrededor de GPT-4. El campo necesita mejores metáforas, y más importante aún, mejores herramientas empíricas para entender qué es exactamente lo que estos sistemas aprenden.