La matrice de poids d'attention est (seq_len × seq_len) pour chaque tête et chaque couche. Pour visualiser : choisis une couche et une tête, affiche la matrice comme une heatmap où la ligne i montre à quels tokens le token i prête attention. Les cellules lumineuses signifient une attention élevée. Pour l'attention multi-tête, tu peux visualiser des têtes individuelles (chacune se spécialise dans des patterns différents) ou faire la moyenne sur toutes les têtes (distribution d'attention globale).
Les cartes d'attention montrent quels tokens une tête considère lors du calcul de sa sortie, mais elles ne montrent pas directement ce que le modèle « comprend » ou pourquoi il a pris une décision. Une forte attention ne signifie pas « important » — certaines têtes prêtent attention à la ponctuation ou aux patterns positionnels sans signification sémantique. Les cartes d'attention sont descriptives (ce que le modèle a regardé), pas explicatives (pourquoi il a pris sa décision). C'est un outil de débogage utile, pas une explication complète.
BertViz fournit des visualisations d'attention interactives pour les modèles Transformer. Ecco et Captum offrent de l'interprétabilité basée sur l'attention pour les modèles PyTorch. Pour les LLM accessibles via API, certains fournisseurs retournent les poids d'attention ou les log-probabilités qui permettent une visualisation partielle. Dans la génération d'images, les cartes d'attention croisée montrent quelles régions de l'image correspondent à quels mots du prompt — utile pour comprendre pourquoi le modèle a placé les objets là où il les a mis.