Zubnet AIApprendreWiki › Chatbot
Using AI

Chatbot

AI Assistant, Conversational AI
Une interface logicielle qui te laisse interagir avec un modèle d'IA par conversation. Les chatbots IA modernes (Claude, ChatGPT, Gemini) sont alimentés par des modèles de langage et peuvent gérer du dialogue ouvert, répondre à des questions, écrire du code, analyser des images et utiliser des outils. Contrairement aux chatbots à base de règles du passé qui suivaient des arbres de décision, les chatbots alimentés par LLM génèrent leurs réponses dynamiquement en fonction du contexte complet de la conversation.

Pourquoi c'est important

Les chatbots sont la principale façon dont la plupart des gens interagissent avec l'IA. Ils sont l'interface consommateur pour les LLM, et comprendre comment ils marchent — historique de conversation, system prompts, fenêtres de contexte, limites de tokens — t'aide à les utiliser plus efficacement. Le chatbot n'est pas le modèle ; c'est un produit construit par-dessus le modèle, avec ses propres choix de design sur la mémoire, la sécurité et les capacités.

Deep Dive

A chatbot maintains a conversation history: a sequence of messages alternating between user and assistant, often prefixed by a system message. Each time you send a message, the entire conversation history is sent to the model as context. The model generates a response conditioned on this full history. This is why chatbots seem to "remember" earlier parts of the conversation — they're re-reading it every time.

Memory Is an Illusion

The "memory" of a chatbot is bounded by its context window. Once the conversation exceeds the context limit, earlier messages must be dropped or summarized. The chatbot doesn't truly remember — it re-reads the transcript. Some chatbots implement persistent memory by storing key facts in a separate database and injecting them into the system prompt, giving the appearance of long-term memory across conversations. But the model itself has no state between API calls.

The Product Layer

What separates a chatbot from a raw API call is the product layer: the UI design, the conversation management, the safety filters, the model routing (some chatbots use different models for different tasks), tool integrations (web search, code execution, file analysis), and the system prompt that defines the assistant's personality and capabilities. Two chatbots using the same underlying model can feel completely different because of their product layer choices.

Concepts liés

← Tous les termes
← Chain of Thought Chatbot Arena →