Des chercheurs ont développé une méthode peu coûteuse pour détecter quand les modèles de traduction automatique neuronale hallucinent en comparant les patterns d'attention entre les modèles de traduction directe et inverse. La technique tire parti des configurations de traduction bidirectionnelle existantes—où la plupart des organisations font déjà tourner des modèles langue1→langue2 et langue2→langue1—pour identifier l'incertitude au niveau des tokens sans nécessiter un réentraînement coûteux ou la génération de multiples sorties.

Ceci adresse un vrai problème : Google Translate et les systèmes similaires vous montrent seulement la traduction finale, cachant les niveaux de confiance qui pourraient aider à allouer les ressources computationnelles plus efficacement. Les solutions actuelles comme Semantic Entropy nécessitent de générer 5-10 sorties par entrée (computationnellement dispendieux), tandis que les modèles d'estimation de qualité de pointe comme xCOMET ont besoin d'ajuster finement 3,5 milliards de paramètres sur des données annotées coûteuses. La nouvelle approche contourne les deux problèmes en utilisant teacher forcing pour extraire des cartes d'attention croisée transposées à partir de paires de modèles existantes.

La recherche émerge alors que les traducteurs professionnels expriment une prudence croissante envers les outils de traduction IA, selon des entrevues avec 19 traducteurs à travers 11 langues publiées dans des travaux connexes. Ces traducteurs s'inquiètent de l'externalisation du travail vers des systèmes automatisés, soulignant l'importance de la transparence dans l'IA de traduction—exactement ce que les méthodes de désalignement d'attention pourraient fournir. Le contraste est frappant : tandis que les chercheurs se concentrent sur la détection technique d'incertitude, les praticiens veulent comprendre quand et pourquoi faire confiance aux traductions IA.

Pour les développeurs qui construisent des systèmes de traduction, cette méthode offre un avantage pratique. Au lieu de scores de probabilité de boîte noire qui n'expliquent pas pourquoi un modèle est incertain, le désalignement d'attention révèle si l'incertitude provient d'exemples d'entraînement non vus ou d'hallucinations réelles. La plupart des configurations de traduction en production ont déjà les modèles bidirectionnels requis, rendant l'implémentation directe sans coûts d'infrastructure additionnels.