Une étude de l'Université du Texas à Austin pis de Microsoft, résumée par Help Net Security le 29 avril, a observé 15 chercheurs académiques en train d'utiliser des outils IA commerciaux — Research Rabbit, Elicit AI, ChatGPT — pour de la revue de littérature, de la synthèse pis de l'idéation. Les chercheurs ont été filmés en train de penser à voix haute pendant qu'ils travaillaient, pis les transcrits documentent les contournements qu'ils ont bâtis autour de deux problèmes non résolus : la confidentialité des prompts (envoyer des travaux non publiés dans des outils dont la gestion de données est opaque) pis la vérification de la sortie (prouver d'où vient vraiment une citation générée). L'échantillon est petit, mais les patterns collent direct aux mêmes problèmes que les équipes de sécurité en entreprise gèrent maintenant avec l'usage d'employé des LLM commerciaux.
Les deux modes d'échec nommés sont du vocabulaire utile. Attribution displacement, c'est quand un LLM lie de l'information exacte à la mauvaise source — le fait est vrai, la citation est mal attribuée. Synthetic blending, c'est quand un LLM intègre des affirmations inventées à côté de citations légitimes dans une même sortie, ce qui rend la vérification lente pis sujette à erreur. Une participante a raconté avoir contesté ChatGPT sur une citation inexistante; le modèle s'est excusé pis a produit plus de références inventées. Sept des quinze participants ont traité les hallucinations pas comme des erreurs factuelles discrètes, mais comme des échecs de transparence — le modèle donne aucun signal sur quelles parties de la sortie sont ancrées pis lesquelles sont interpolées. Côté confidentialité, deux participants ont soulevé directement des préoccupations sur la réutilisation pour entraînement pis l'opacité du stockage (« ne pas savoir combien de mes données personnelles sont stockées, où, pis qui y a accès »); le comportement sous-jacent — coller des questions de recherche non publiées, des hypothèses brouillons, du savoir de domaine propriétaire dans des outils IA commerciaux — était répandu dans l'échantillon, peu importe la préoccupation déclarée.
C'est un pattern reconnaissable. Les chercheurs, comme les employés en entreprise, collent du contenu sensible dans des outils IA commerciaux parce que les outils sont utiles pis que la friction d'auto-héberger une alternative est haute. L'étude décrit ça comme « un problème d'imputabilité institutionnelle » — y a pas de forum visible par lequel les fournisseurs IA peuvent être tenus responsables des intrants collectés, stockés ou réutilisés. Le même écart existe en compagnie, où le personnel colle régulièrement des documents internes, du code pis des plans stratégiques dans des LLM commerciaux sans aucune garantie de gestion de données qui soit appliquée. Les deux modes d'échec nommés — attribution displacement pis synthetic blending — se généralisent aussi au-delà de la recherche académique. N'importe quel système qui produit des citations ou des affirmations attribuées à une source va produire les deux; n'importe quelle pipeline de vérification qui détecte pas les deux va en laisser passer.
Pour les builders, trois choses concrètes. Premièrement, si ton produit produit des affirmations attribuées à une source (sorties RAG, résultats de recherche résumés, rapports écrits par IA), embarque des checks pour les deux modes d'échec. Attribution displacement, c'est détectable en re-querant la source citée pis en vérifiant que l'affirmation spécifique y est supportée; synthetic blending, c'est détectable en matchant chaque référence citée contre une base de données qui fait autorité avant de servir la sortie. La plupart des systèmes RAG en production checkent le premier pis skipent le deuxième. Deuxièmement, l'angle de confidentialité des prompts va diriger les décisions d'achat en entreprise. Si tu vends du tooling IA aux entreprises, « tes prompts sont pas utilisés pour l'entraînement » doit être une clause de contrat appuyée par un audit, pas une ligne marketing. L'étude UT Austin formalise les préoccupations que les acheteurs vont commencer à utiliser pour pousser. Troisièmement, « échec de transparence », c'est le bon cadrage pour la gestion d'hallucination. Les utilisateurs veulent pas juste des taux d'hallucination plus bas — ils veulent que le système signale quelles sorties sont ancrées pis lesquelles sont interpolées. Ce genre d'UI de provenance manque dans presque tous les produits IA consommateurs, pis c'est la prochaine ronde de différenciation.
