Un estudio de la Universidad de Texas en Austin y Microsoft, resumido por Help Net Security el 29 de abril, observó a 15 investigadores académicos usando herramientas de IA comercial — Research Rabbit, Elicit AI, ChatGPT — para revisión de literatura, síntesis e ideación. Los investigadores fueron filmados pensando en voz alta mientras trabajaban, y las transcripciones resultantes documentan los workarounds que construyeron alrededor de dos problemas no resueltos: confidencialidad de prompts (enviar trabajo no publicado a herramientas cuyo manejo de datos es opaco) y verificación de salida (probar de dónde vino realmente una cita generada). La muestra es chica, pero los patrones mapean directo a los mismos problemas que los equipos de seguridad empresarial están manejando ahora con el uso por parte de empleados de LLMs comerciales.
Los dos modos de falla nombrados son vocabulario útil. Attribution displacement pasa cuando un LLM ata información exacta a la fuente equivocada — el dato es real, la cita está mal asignada. Synthetic blending pasa cuando un LLM integra afirmaciones fabricadas junto a citas legítimas en una sola salida, haciendo la verificación lenta y propensa a errores. Una participante describió haber desafiado a ChatGPT sobre una cita inexistente; el modelo se disculpó y produjo más referencias fabricadas. Siete de los quince participantes trataron las alucinaciones no como errores fácticos discretos sino como fallas de transparencia — el modelo no da ninguna señal sobre qué partes de la salida están fundamentadas y cuáles son interpoladas. Sobre confidencialidad, dos participantes plantearon directamente preocupaciones sobre reuso para entrenamiento y opacidad de almacenamiento ("no saber cuántos de mis datos personales están almacenados, dónde, y quién tiene acceso"); el comportamiento de fondo — pegar preguntas de investigación no publicadas, hipótesis borrador, conocimiento de dominio propietario en herramientas de IA comerciales — era extendido en toda la muestra independientemente de la preocupación declarada.
Es un patrón reconocible. Los investigadores, como los empleados de empresa, pegan contenido sensible en herramientas de IA comerciales porque las herramientas son útiles y la fricción de auto-hospedar una alternativa es alta. El estudio describe esto como "un problema de imputabilidad institucional" — no hay un foro visible a través del cual los proveedores de IA puedan ser responsabilizados por las entradas recolectadas, almacenadas o reutilizadas. La misma brecha existe en las empresas, donde el staff pega rutinariamente documentos internos, código y planes estratégicos en LLMs comerciales sin garantías de manejo de datos aplicadas. Los dos modos de falla nombrados — attribution displacement y synthetic blending — también generalizan más allá de la investigación académica. Cualquier sistema que produzca citas o afirmaciones atribuidas a una fuente va a producir ambas; cualquier pipeline de verificación que no detecte ambas va a dejar pasar algunas.
Para los builders, tres cosas concretas. Primero, si tu producto produce afirmaciones atribuidas a una fuente (salidas RAG, resultados de búsqueda resumidos, reportes escritos por IA), incorporá chequeos para ambos modos. Attribution displacement es detectable re-consultando la fuente citada y verificando que la afirmación específica está soportada ahí; synthetic blending es detectable matcheando cada referencia citada contra una base autoritativa antes de servir la salida. La mayoría de los sistemas RAG de producción chequean el primero y se saltean el segundo. Segundo, el ángulo de confidencialidad de prompts va a manejar las decisiones de compra empresariales. Si vendés tooling de IA a empresas, "tus prompts no se usan para entrenamiento" tiene que ser una cláusula de contrato respaldada por auditoría, no una línea de marketing. El estudio UT Austin formaliza las preocupaciones que los compradores van a empezar a usar para empujar. Tercero, "falla de transparencia" es el encuadre correcto para el manejo de alucinación. Los usuarios no quieren sólo tasas más bajas — quieren que el sistema marque qué salidas están fundamentadas y cuáles son interpoladas. Esa clase de UI de procedencia falta en casi todo producto de IA consumidor, y es la próxima ronda de diferenciación.
