Zubnet AIApprendreWiki › Prompt caching
Utiliser l'IA

Prompt caching

Aussi appelé : Mise en cache du contexte, mise en cache du préfixe
Une technique qui sauvegarde et réutilise la version traitée d'un préfixe de prompt à travers plusieurs appels API, évitant les calculs redondants. Si tu envoies le même prompt système et le même contexte documentaire à chaque requête (ce qui est courant), le prompt caching les traite une seule fois et réutilise le calcul mis en cache pour les requêtes suivantes. Cela réduit à la fois la latence et le coût.

Pourquoi c'est important

La plupart des applications IA envoient le même prompt système, les mêmes exemples few-shot ou les mêmes documents de référence à chaque requête. Sans mise en cache, le fournisseur traite ce préfixe identique à chaque fois. Le prompt caching peut réduire les coûts de tokens d'entrée de 50 à 90 % et diminuer significativement le time-to-first-token. Pour les applications à fort volume, ça se traduit par des milliers de dollars économisés par mois.

En profondeur

Le mécanisme technique : pendant la phase de « prefill » de l'inférence LLM, le modèle traite tous les tokens d'entrée et calcule leurs entrées dans le KV cache. Le prompt caching stocke ce KV cache pour que les requêtes suivantes avec le même préfixe sautent le prefill de la portion mise en cache. Seuls les nouveaux tokens (le message réel de l'utilisateur) nécessitent un traitement. Anthropic, OpenAI et Google offrent tous une forme de prompt caching.

Comment l'utiliser

La plupart des implémentations fonctionnent en détectant les préfixes correspondants automatiquement ou en te laissant marquer des points de rupture du cache. La contrainte clé : seules les correspondances exactes de préfixe comptent. Si ton prompt système change ne serait-ce que d'un seul token, le cache manque sa cible. Ça signifie que structurer tes prompts avec les parties stables en premier (prompt système, documents) et les parties variables en dernier (message de l'utilisateur) est important pour le taux de succès du cache.

Quand ça compte le plus

Le prompt caching offre les plus grandes économies quand : (1) tu as un long préfixe stable (grands prompts système, contexte RAG), (2) tu envoies beaucoup de requêtes avec ce même préfixe (chatbots, agents), et (3) les tokens d'entrée représentent une part significative de tes coûts. Pour les applications avec des prompts courts et uniques, la mise en cache apporte peu de bénéfice. Pour les applications qui remplissent la fenêtre de contexte avec des documents, c'est transformateur.

Concepts connexes

← Tous les termes
← Prompt Prompt système →