Zubnet AILearn › Wiki

AI Wiki

AI concepts explained by builders, not textbooks. No jargon walls. No academic gatekeeping. Just clear, practical definitions of the terms you'll actually encounter.

128 terms 8 categories Updated March 2026
No terms match your search.
A
ASI
Superintelligence Artificielle
Fondamentaux
Un système d'IA théorique qui dépasse les capacités cognitives de tous les humains dans presque tous les domaines — raisonnement scientifique, intelligence sociale, créativité, planification stratégique, etc. L'ASI dépasse l'AGI (qui correspond à l'intelligence humaine) pour atteindre quelque chose de qualitativement différent : une intelligence capable de s'améliorer de manière récursive et de résoudre des problèmes que les humains ne pourraient même pas formuler. Aucune ASI n'existe, et il n'y a pas de consensus scientifique sur le fait qu'elle puisse ou non être construite.
Pourquoi c’est important : ASI est le domaine où la sécurité de l'intelligence artificielle prend une dimension existentielle. Si vous croyez que l'intelligence surhumaine est possible, l'alignement n'est pas seulement question de rendre les chatbots polis — il s'agit d'assurer qu'un système plus intelligent que toute l'humanité agisse toujours dans notre intérêt. C'est spéculatif, mais les enjeux sont suffisamment élevés pour que des chercheurs sérieux y portent une attention sérieuse. Comprendre l'ASI vous permet d'évaluer les affirmations sur les risques de l'intelligence artificielle avec plus de nuance.
AGI
Intelligence Artificielle Générale
Fondamentaux
Un système hypothétique d'intelligence artificielle capable de comprendre, d'apprendre et d'exécuter toute tâche intellectuelle qu'un humain peut accomplir — avec la capacité de transférer des connaissances d'un domaine à un autre sans avoir été spécifiquement entraîné pour chacun. Contrairement à l'IA actuelle, qui excelle dans des tâches spécialisées (génération de texte, classification d'images), l'IA générale (AGI) gérerait des situations nouvelles, raisonnerait de manière abstraite et s'adapterait à tout défi. Que l'AGI soit imminente, à des décennies de distance ou impossible constitue le débat le plus contentieux dans le domaine.
Pourquoi c’est important : L'IA générale (AGI) est l'étoile polaire (ou le cauchemar) de toute l'industrie de l'intelligence artificielle. Elle fait déplacer des milliards de dollars d'investissements, définit les priorités de recherche en matière de sécurité et domine les débats politiques. Quelle que soit votre opinion sur la proximité de l'AGI, ce concept détermine la manière dont des entreprises comme Anthropic, OpenAI et DeepMind définissent leurs missions — et comprendre ce débat vous permet de distinguer les progrès réels des provocations.
Assistants de codage IA
Code Copilot, IDE IA
Outils
Des outils d'IA qui aident les développeurs à écrire, réviser, déboguer et déployer du code. De l'autocomplétion (GitHub Copilot, Codeium) au développement entièrement autonome (Claude Code, Cursor, Devin), les assistants de code représentent l'une des applications les plus matures et les plus largement adoptées des LLM. Ils fonctionnent en prédisant les prochains tokens de code à partir du contexte de votre base de code, de la documentation et des instructions.
Pourquoi c’est important : Les assistants de code IA sont le tranchant le plus aiguisé de l'impact de l'IA sur le travail intellectuel. Les développeurs qui les utilisent rapportent des gains de productivité de 30 à 50 % sur les tâches de routine. Mais ils hallucinent aussi des API qui n'existent pas, introduisent des bogues subtils et peuvent rendre les développeurs dépendants d'outils qu'ils ne comprennent pas entièrement.
Automatisation
Automatisation IA, automatisation des workflows
Outils
Utiliser l'IA pour effectuer des tâches qui nécessitaient auparavant une intervention humaine. Cela va de l'automatisation simple (catégorisation automatique de courriels, génération de rapports) aux flux de travail autonomes complexes (agents IA qui recherchent, rédigent, testent et déploient du code). Le changement clé de l'automatisation traditionnelle (règles rigides) à l'automatisation par IA (intelligence flexible) est que l'IA peut gérer des tâches ambiguës et non structurées.
Pourquoi c’est important : L'automatisation est le moteur économique de l'adoption de l'IA. Chaque entreprise qui achète de l'IA achète en réalité de l'automatisation — moins d'humains effectuant du travail répétitif, un traitement plus rapide, un fonctionnement 24 heures sur 24. La question n'est pas de savoir si l'IA automatisera des tâches, mais lesquelles, à quelle vitesse, et ce qu'il adviendra des humains qui les effectuaient.
IA en cybersécurité
Cybersécurité IA, détection de menaces par IA
Sécurité
La double application de l'IA en cybersécurité : utiliser l'IA pour défendre les systèmes (détection de menaces, détection d'anomalies, réponse automatisée aux incidents) et les nouveaux vecteurs d'attaque que l'IA crée (hameçonnage généré par IA, découverte automatisée de vulnérabilités, attaques adverses contre les systèmes d'apprentissage automatique). Le domaine est engagé dans une course aux armements où attaquants et défenseurs sont de plus en plus propulsés par l'IA.
Pourquoi c’est important : L'IA rend les cybermenaces existantes plus rapides et moins chères à exécuter — un courriel d'hameçonnage rédigé par un LLM est plus convaincant et ne coûte rien à personnaliser. Mais l'IA permet aussi des défenses qui seraient impossibles manuellement, comme analyser des millions d'événements réseau par seconde pour détecter des anomalies. Les équipes de sécurité qui n'utilisent pas l'IA perdront face aux attaquants qui l'utilisent.
Gouvernance de l'IA
Réglementation de l'IA, politique d'IA
Sécurité
Les cadres, politiques, lois et pratiques organisationnelles qui encadrent la façon dont l'IA est développée, déployée et utilisée. Cela inclut la réglementation gouvernementale (l'AI Act européen, les décrets exécutifs), l'autorégulation de l'industrie (politiques de mise à l'échelle responsable, fiches de modèle), la gouvernance d'entreprise (comités d'éthique de l'IA, politiques d'utilisation) et la coordination internationale sur les normes de sécurité de l'IA.
Pourquoi c’est important : La technologie avance plus vite que les règles. Les entreprises livrent des produits d'IA dans les domaines de la santé, de la justice pénale et de la finance avec un encadrement minimal. La gouvernance est la tentative d'établir des limites avant que quelque chose ne se brise assez gravement pour déclencher un contrecoup qui pourrait faire reculer tout le domaine.
Confidentialité en IA
Confidentialité des données en IA, confidentialité ML
Sécurité
Le défi de construire et d'utiliser des systèmes d'IA sans compromettre les données personnelles. Cela couvre l'ensemble du cycle de vie : les données d'entraînement qui pourraient contenir des informations privées, les modèles qui peuvent mémoriser et régurgiter des détails personnels, les journaux d'inférence qui suivent le comportement des utilisateurs, et la tension fondamentale entre la capacité de l'IA (qui s'améliore avec plus de données) et les droits à la vie privée.
Pourquoi c’est important : Chaque conversation avec une IA est une donnée. Chaque image que vous générez révèle vos instructions. Chaque document que vous résumez passe par les serveurs de quelqu'un. La vie privée n'est pas juste une case à cocher juridique (RGPD, CCPA) — c'est une question de confiance qui détermine si les individus et les entreprises adopteront l'IA pour le travail sensible.
Sécurité de l'IA
Sécurité des LLM, ingénierie de la sûreté de l'IA
Sécurité
La pratique de protéger les systèmes d'IA contre les attaques adverses, l'empoisonnement de données, l'injection de prompts, le vol de modèles et l'utilisation abusive — tout en se défendant contre les menaces propulsées par l'IA comme les hypertrucages et les cyberattaques automatisées. La sécurité de l'IA se situe à l'intersection de la cybersécurité traditionnelle et des vulnérabilités uniques introduites par les systèmes d'apprentissage automatique.
Pourquoi c’est important : Les systèmes d'IA sont simultanément des outils puissants et des surfaces d'attaque inédites. Une injection de prompt peut faire fuiter des données internes par votre bot de support client. Un ensemble de données d'entraînement empoisonné peut insérer des portes dérobées. À mesure que l'IA est déployée dans les infrastructures critiques, la santé et la finance, la sécurité n'est pas optionnelle — elle est existentielle.
Tarification de l'IA
Tarification au token, tarification API
Infrastructure
Comment les fournisseurs d'IA facturent l'accès à leurs modèles. Le modèle dominant est la tarification par token — vous payez pour le nombre de tokens que vous envoyez (entrée) et recevez (sortie), les tokens de sortie coûtant typiquement 3 à 5 fois plus. D'autres modèles incluent la tarification par requête, les abonnements mensuels, les remises sur engagement et les niveaux gratuits. La course à la baisse des prix a été féroce, avec des coûts en chute de 10 à 100 fois en deux ans.
Pourquoi c’est important : La tarification détermine ce que vous pouvez construire. Une application qui fait 10 000 appels API par jour vit ou meurt par le coût par token. Comprendre les modèles de tarification, comparer les fournisseurs et optimiser l'utilisation des tokens est une compétence essentielle pour quiconque construit des produits propulsés par l'IA.
Infrastructure IA
Infra IA, infrastructure ML
Infrastructure
La pile complète de matériel, de logiciels et de services nécessaires pour entraîner et déployer des modèles d'IA à grande échelle. Cela inclut les GPU et les puces sur mesure, les centres de données, le réseau, le stockage, les plateformes d'orchestration (Kubernetes, Slurm), les cadres de service de modèles (vLLM, TensorRT) et les fournisseurs infonuagiques qui empaquettent le tout. L'infrastructure IA est le lieu où le monde abstrait de l'architecture de modèles rencontre le monde très concret des réseaux électriques et des systèmes de refroidissement.
Pourquoi c’est important : L'infrastructure détermine ce qui est possible. La raison pour laquelle seule une poignée d'entreprises peut entraîner des modèles de pointe n'est pas un manque d'idées — c'est un manque d'infrastructure. Et la raison pour laquelle l'IA coûte ce qu'elle coûte pour les utilisateurs finaux remonte directement à la disponibilité des GPU, à la capacité des centres de données et à l'efficacité du service d'inférence.
AssemblyAI
Universal-2 STT, intelligence audio
Compagnies
Entreprise de reconnaissance vocale qui développe des API conviviales pour les développeurs, couvrant la transcription, la détection de locuteurs et la compréhension audio. Leur modèle Universal-2 rivalise avec OpenAI Whisper en précision, tout en ajoutant des fonctionnalités comme la diarisation, l'analyse de sentiment et la détection de sujets directement intégrées.
Pourquoi c’est important : AssemblyAI a rendu la reconnaissance vocale véritablement accessible aux développeurs, condensant ce qui nécessitait auparavant une équipe dédiée en apprentissage automatique en un seul appel API. Leur pile Audio Intelligence — combinant transcription, identification de locuteurs, analyse de sentiment et synthèse propulsée par des grands modèles de langage — transforme l'audio brut en données structurées et exploitables à une échelle qui n'était pas envisageable il y a seulement deux ans. Dans un monde où la voix devient l'interface par défaut des agents IA, AssemblyAI construit la couche de compréhension dont tout le reste dépend.
Anthropic
Claude, IA constitutionnelle, MCP
Compagnies
Entreprise de sécurité en IA qui développe Claude. Fondée par d'anciens chercheurs d'OpenAI, Dario et Daniela Amodei, Anthropic se concentre sur le développement de systèmes d'IA fiables, interprétables et orientables.
Pourquoi c’est important : Anthropic a prouvé qu'une entreprise d'IA pouvait placer la recherche en sécurité au premier plan tout en restant compétitive à la frontière technologique. Leur approche Constitutional AI a influencé la façon dont l'ensemble de l'industrie pense l'alignement, leur Responsible Scaling Policy a établi un modèle que d'autres laboratoires ont adopté sous diverses formes, et Claude est devenu le modèle de choix pour les entreprises qui ont besoin de fiabilité et de traitement soigné des contenus sensibles. Peut-être plus important encore, l'existence d'Anthropic comme concurrent bien financé garantit que la course vers l'AGI n'est pas l'affaire d'une seule entreprise — et qu'au moins un acteur majeur porte la sécurité dans son ADN fondateur plutôt que comme un ajout après coup.
Alibaba Cloud
Modèles Qwen, Tongyi Qianwen
Compagnies
La division d'infonuagique du Groupe Alibaba et créatrice de la famille de modèles Qwen. Les modèles Qwen sont entièrement à poids ouverts, multilingues et comptent parmi les modèles ouverts les plus performants disponibles.
Pourquoi c’est important : Alibaba Cloud a fait de Qwen la famille de modèles à poids ouverts la plus largement déployée en Asie et un concurrent mondial véritablement crédible face à Llama de Meta, prouvant que des modèles de classe frontière peuvent provenir de l'extérieur de la Silicon Valley. Leur combinaison de publications de modèles ouverts, d'infrastructure infonuagique massive et de l'écosystème ModelScope offre aux développeurs — en particulier ceux des marchés touchés par les contrôles à l'exportation américains — une alternative crédible et de haute qualité aux plateformes d'IA occidentales.
Agent
Agent IA
Outils
Un système d'IA qui peut planifier et exécuter de manière autonome des tâches en plusieurs étapes, en utilisant des outils (recherche web, exécution de code, appels API) pour atteindre un objectif. Contrairement à un simple chatbot qui répond à une question à la fois, un agent décide quoi faire ensuite en fonction de ce qu'il a appris jusqu'ici.
Pourquoi c’est important : Les agents sont le pont entre « l'IA qui parle » et « l'IA qui agit ». Quand votre IA peut consulter de la documentation, écrire du code et le tester sans que vous la guidiez à chaque étape — c'est un agent.
Sécurité
Le défi de faire en sorte que les systèmes d'IA se comportent conformément aux valeurs et aux intentions humaines. Un modèle aligné fait ce que vous voulez dire, pas seulement ce que vous avez dit — et évite les actions nuisibles même quand on ne lui a pas explicitement dit de ne pas le faire.
Pourquoi c’est important : Un modèle techniquement brillant mais mal aligné est comme un employé génial qui suit les instructions trop littéralement. La recherche en alignement est la raison pour laquelle les modèles refusent les demandes dangereuses et essaient d'être véritablement utiles.
API
Interface de programmation d'application
Infrastructure
Un moyen structuré pour les logiciels de communiquer entre eux. En IA, cela signifie généralement envoyer une requête (votre prompt) au serveur d'un fournisseur et recevoir une réponse (la sortie du modèle) en retour. Les API REST via HTTPS sont la norme.
Pourquoi c’est important : Chaque fournisseur d'IA — Anthropic, Google, Mistral — expose ses modèles via des API. Si vous construisez quoi que ce soit avec l'IA au-delà d'une fenêtre de chat, vous utilisez une API.
Attention
Mécanisme d'attention, auto-attention
Modèles
Le mécanisme central des Transformers qui permet à un modèle d'évaluer quelles parties de l'entrée sont les plus pertinentes les unes pour les autres. Au lieu de lire le texte de gauche à droite comme les anciens modèles, l'attention permet à chaque mot de « regarder » simultanément tous les autres mots pour comprendre le contexte.
Pourquoi c’est important : L'attention est la raison pour laquelle les LLM modernes comprennent que « banque » signifie des choses différentes dans « la berge de la rivière » et « le compte en banque ». C'est aussi pourquoi les fenêtres de contexte plus longues coûtent plus cher — l'attention croît quadratiquement avec la longueur de la séquence.
B
Bria
Données d'entraînement sous licence, génération d'images entreprise
Compagnies
Entreprise israélienne d'IA qui a construit ses modèles de génération d'images exclusivement à partir de données d'entraînement sous licence et attribuées. Se positionne comme le choix sûr pour les entreprises qui ont besoin de visuels générés par l'IA sans risque de droit d'auteur.
Pourquoi c’est important : Bria est le cas de test le plus en vue pour déterminer si la génération d'images par IA peut reposer sur des données d'entraînement entièrement sous licence tout en restant commercialement compétitive. Dans un secteur confronté à une avalanche de litiges en matière de droits d'auteur, leur approche offre aux entreprises un chemin vers l'adoption de l'IA générative sans exposition juridique — une proposition de valeur qui gagne en pertinence à chaque nouvelle poursuite déposée contre des concurrents. Si Bria réussit, cela valide toute une philosophie de développement responsable de l'IA ; si elle peine, cela suggère que le marché ne se soucie finalement pas assez de la provenance des données pour payer un supplément.
ByteDance
Doubao, TikTok, recommandations propulsées par IA
Compagnies
Société mère de TikTok et l'une des entreprises technologiques les plus valorisées au monde. Leur laboratoire d'IA développe la famille de modèles Doubao et alimente les algorithmes de recommandation qui servent plus d'un milliard d'utilisateurs quotidiennement.
Pourquoi c’est important : ByteDance est l'entreprise technologique privée la plus valorisée au monde et déploie l'IA à une échelle que peu d'organisations peuvent égaler, servant plus d'un milliard d'utilisateurs quotidiennement via TikTok, Douyin et une suite croissante de produits propulsés par l'IA. Leur famille de modèles Doubao et leur plateforme infonuagique Volcano Engine en font un concurrent redoutable dans la course aux modèles fondationnels, soutenus par quelque chose dont la plupart des startups d'IA ne peuvent que rêver : une activité principale massive et rentable, et une distribution intégrée auprès de plus d'un milliard d'utilisateurs.
Black Forest Labs
Modèles FLUX.1
Compagnies
Fondee par les createurs originaux de Stable Diffusion apres leur depart de Stability AI. Leurs modeles FLUX sont rapidement devenus la nouvelle reference en generation d'images open source, surpassant la qualite des modeles qu'ils avaient laisses derriere eux.
Pourquoi c’est important : Black Forest Labs represente le meilleur scenario possible pour l'IA open source : les architectes originaux de Stable Diffusion repartant a zero avec une meilleure technologie, une strategie d'affaires plus intelligente et la confiance de la communaute creative. FLUX.1 n'a pas simplement itere sur Stable Diffusion — il l'a surpasse d'un bond, et le modele de licence par paliers qu'ils ont inaugure devient le plan directeur pour les entreprises d'IA cherchant a equilibrer ouverture et revenus.
Entraînement
Un test standardisé utilisé pour évaluer et comparer les modèles d'IA. Les benchmarks mesurent des capacités spécifiques — le raisonnement (ARC), les mathématiques (GSM8K), la programmation (HumanEval), les connaissances générales (MMLU) — et produisent des scores comparables entre les modèles.
Pourquoi c’est important : Les benchmarks sont la façon dont l'industrie tient le score, mais ils sont imparfaits. Les modèles peuvent être entraînés pour exceller aux benchmarks sans être réellement meilleurs. La performance en conditions réelles raconte souvent une histoire différente. Considérez-les comme des signaux, pas comme des vérités.
Sécurité
Des schémas systématiques dans les sorties de l'IA qui reflètent ou amplifient les préjugés sociétaux présents dans les données d'entraînement. Les biais peuvent apparaître dans la génération de texte, la création d'images, les outils de recrutement, et partout où les modèles prennent des décisions qui affectent les gens différemment.
Pourquoi c’est important : Si les données d'entraînement disent que les infirmières sont des femmes et les ingénieurs sont des hommes, le modèle perpétuera cela. Les biais ne sont pas toujours évidents — ils se cachent dans les associations de mots, les présupposés par défaut et la représentation des uns et des autres.
C
Vision par ordinateur
Vision artificielle, vision machine
Fondamentaux
Le domaine de l'IA axé sur la capacité des machines à interpréter et comprendre l'information visuelle du monde — images, vidéo, scènes 3D et documents. La vision par ordinateur propulse tout, de la reconnaissance faciale et la conduite autonome à l'imagerie médicale et la génération d'images par IA. Les tâches fondamentales incluent la détection d'objets, la classification d'images, la segmentation, l'OCR et l'estimation de pose.
Pourquoi c’est important : La vision par ordinateur a été le premier domaine où l'apprentissage profond a clairement dépassé la performance humaine (ImageNet 2012), et elle reste l'une des applications commerciales les plus impactantes de l'IA. Chaque image ou vidéo IA que vous générez, chaque document que vous passez en OCR, chaque caméra de sécurité avec détection intelligente — c'est tout de la vision par ordinateur.
Modération de contenu
Modération par IA, Trust & Safety
Sécurité
Utiliser l'IA pour détecter et filtrer le contenu nuisible, illégal ou contraire aux politiques à grande échelle. Cela inclut la classification de texte (discours haineux, pourriel, menaces), l'analyse d'images (détection NSFW, CSAM), et la modération vidéo. Les systèmes modernes combinent des classificateurs IA avec une revue humaine, mais le volume de contenu généré par l'IA elle-même crée une crise de modération — il faut désormais de l'IA pour modérer l'IA.
Pourquoi c’est important : Chaque plateforme avec du contenu généré par les utilisateurs a besoin de modération, et l'IA est le seul moyen de gérer l'échelle. Mais la modération est plus difficile qu'il n'y paraît — le contexte compte, les normes culturelles diffèrent, et les faux positifs réduisent au silence la parole légitime tandis que les faux négatifs laissent passer le préjudice.
Cartesia
Sonic, modèles vocaux basés sur SSM
Compagnies
Entreprise en démarrage spécialisée en voix IA, construite sur une architecture de modèles d'espace d'états (SSM) plutôt que sur des transformers. Leurs modèles Sonic atteignent une latence ultra-faible en génération vocale, rendant l'IA conversationnelle en temps réel véritablement naturelle pour la première fois.
Pourquoi c’est important : Cartesia compte parce qu'elle a prouvé que les modèles d'espace d'états ne sont pas qu'une curiosité de recherche, mais une architecture commercialement viable pour la voix IA en temps réel. Leur latence inférieure à 100 millisecondes rend l'IA conversationnelle véritablement naturelle possible pour la première fois, comblant l'écart entre « parler à un robot » et « parler à une personne ». Alors que l'industrie se tourne vers des agents IA axés sur la voix, l'avantage architectural de Cartesia en matière de vitesse de diffusion en continu pourrait en faire la couche d'infrastructure sur laquelle tous les autres construisent.
Cohere
Command, Embed, Rerank
Compagnies
Entreprise d'IA axée sur les entreprises, cofondée par Aidan Gomez, l'un des coauteurs de l'article fondateur « Attention Is All You Need » sur le Transformer. Spécialisée dans les modèles optimisés pour les cas d'usage professionnels, le RAG et le support multilingue.
Pourquoi c’est important : Cohere représente le cas d'étude le plus clair pour déterminer si une entreprise d'IA ciblée et axée sur les entreprises peut prospérer de manière indépendante à une époque dominée par les hyperscalers à mille milliards de dollars et les laboratoires de pointe tournés vers le grand public. Leur filiation avec l'article sur le Transformer leur confère une véritable crédibilité technique, leur flexibilité de déploiement résout un vrai problème pour les industries réglementées, et leurs modèles de plongement et de reclassement sont devenus des outils incontournables pour les systèmes RAG en production à travers le monde. Si l'avenir de l'IA repose moins sur les agents conversationnels et davantage sur une infrastructure tissée dans chaque flux de travail professionnel, Cohere est positionnée pour avoir une importance considérable.
Utiliser l’AI
Une technique de prompting où l'on demande au modèle de montrer son raisonnement étape par étape avant de donner une réponse finale. Au lieu de sauter à une conclusion, le modèle « réfléchit à voix haute », ce qui améliore considérablement la précision sur les tâches complexes.
Pourquoi c’est important : Demander « expliquez votre raisonnement » n'est pas seulement une question de transparence — cela rend réellement les modèles plus intelligents. La chaîne de pensée a réduit les erreurs mathématiques jusqu'à 50 % dans les premières études. La plupart des modèles modernes le font maintenant de manière interne.
Fenêtre de contexte
Longueur de contexte
Utiliser l’AI
La quantité maximale de texte (mesurée en tokens) qu'un modèle peut traiter dans une seule conversation. Cela inclut à la fois votre entrée et la sortie du modèle. Si un modèle a une fenêtre de contexte de 200 000 tokens, cela représente environ 150 000 mots — soit deux romans.
Pourquoi c’est important : La taille de la fenêtre de contexte détermine ce que vous pouvez faire. Résumer une base de code complète ? Il faut un grand contexte. Question-réponse rapide ? Un petit suffit. Mais plus grand n'est pas toujours mieux — les modèles peuvent perdre le fil dans les contextes très longs.
Corpus
Jeu de données, données d'entraînement
Entraînement
L'ensemble de textes (ou d'autres données) utilisé pour entraîner un modèle. Un corpus peut aller de collections organisées de livres et d'articles à des collectes massives de l'ensemble d'Internet. La qualité et la composition du corpus déterminent fondamentalement ce que le modèle sait et comment il se comporte.
Pourquoi c’est important : Données de mauvaise qualité, résultats de mauvaise qualité. Un modèle entraîné sur Reddit parle différemment d'un modèle entraîné sur des articles scientifiques. C'est pourquoi nous avons constitué notre propre corpus pour Sarah — les collectes web génériques produisaient des résultats confus et incohérents.
D
Fondamentaux
Un sous-ensemble de l'apprentissage automatique qui utilise des réseaux de neurones comportant de nombreuses couches (d'où le terme « profond ») pour apprendre des représentations hiérarchiques des données. Chaque couche transforme son entrée en quelque chose légèrement plus abstrait — des pixels aux bords, aux formes, aux objets, jusqu'aux concepts. L'apprentissage profond est ce qui a rendu possible la révolution actuelle de l'intelligence artificielle : c'est l'approche utilisée par les LLM, les générateurs d'images, la reconnaissance vocale et presque toutes les percées en intelligence artificielle depuis 2012.
Pourquoi c’est important : L'apprentissage profond est le moteur de l'ère actuelle de l'intelligence artificielle. Avant 2012, l'IA était une mosaïque d'algorithmes spécialisés. L'apprentissage profond a unifié tout sous un seul paradigme : empiler suffisamment de couches, alimenter en suffisamment de données, appliquer suffisamment de puissance de calcul, et le modèle s'occupe du reste. Comprendre l'apprentissage profond, c'est comprendre pourquoi l'IA fonctionne soudainement.
Outils pour développeurs
SDK IA, frameworks IA
Outils
L'écosystème de bibliothèques, de cadres et de plateformes qui facilitent la construction d'applications propulsées par l'IA. Cela inclut les cadres d'orchestration (LangChain, LlamaIndex), les serveurs d'inférence (vLLM, llama.cpp), les outils d'affinage (Axolotl, Unsloth), les cadres d'évaluation (LMSYS, Braintrust) et les plateformes complètes (Vercel AI SDK, Hugging Face). Le paysage des outils change chaque mois.
Pourquoi c’est important : Les API de modèles bruts sont nécessaires mais pas suffisantes. Les outils de développement comblent l'écart entre « j'ai une clé API » et « j'ai une application en production ». Les bons outils peuvent réduire le temps de développement de mois à jours, tandis que les mauvais ajoutent de la complexité sans valeur.
Deepfakes
Médias synthétiques, hypertrucages
Sécurité
Des images, vidéos ou fichiers audio générés par IA conçus pour montrer de manière convaincante de vraies personnes disant ou faisant des choses qu'elles n'ont jamais faites. Construits à l'origine sur la technologie GAN, les hypertrucages modernes utilisent des modèles de diffusion et le clonage vocal pour produire des résultats de plus en plus difficiles à distinguer de la réalité. Des outils de détection existent mais sont systématiquement en retard sur les capacités de génération.
Pourquoi c’est important : Les hypertrucages sont le côté sombre du pouvoir créatif de l'IA générative. Ils ont été utilisés pour la fraude, l'imagerie intime non consentie, la manipulation politique et le vol d'identité. La technologie est maintenant assez accessible pour que n'importe qui avec un portable puisse créer des faux convaincants, rendant la détection, le filigranage et les cadres juridiques des priorités urgentes.
Centres de données
Centres de données IA, grappes de GPU
Infrastructure
Les installations physiques qui abritent les serveurs, les GPU, les équipements réseau et les systèmes de refroidissement nécessaires pour entraîner et faire tourner les modèles d'IA. Les centres de données modernes pour l'IA sont construits sur mesure pour le calcul parallèle massif, consommant des mégawatts d'électricité et nécessitant un refroidissement spécialisé. Un seul entraînement de modèle de pointe peut occuper des milliers de GPU dans une installation entière pendant des mois.
Pourquoi c’est important : Les centres de données sont les usines de l'ère de l'IA. Chaque requête à Claude, chaque image de Midjourney, chaque vidéo de Runway tourne sur du matériel installé dans un de ces bâtiments. La pénurie mondiale de capacité de centres de données prêts pour l'IA est l'une des plus grandes contraintes sur la croissance de l'IA — et l'une des plus grandes opportunités d'investissement.
DeepL
Traduction automatique neuronale, DeepL Pro
Compagnies
Entreprise allemande d'IA largement considérée comme le meilleur service de traduction automatique au monde. Construite par une équipe de linguistes computationnels qui surpasse constamment Google Translate et les autres offres des géants technologiques, particulièrement pour les langues européennes.
Pourquoi c’est important : DeepL est la preuve vivante qu'une entreprise d'IA spécialisée peut constamment surpasser des concurrents valant des milliers de milliards de dollars sur une compétence fondamentale. Dans un domaine où plus gros signifie habituellement meilleur, l'avantage de DeepL en qualité de traduction par rapport à Google et Microsoft demeure mesurable et significatif, surtout pour les langues européennes et les cas d'utilisation professionnels. Leur succès remet en question l'hypothèse selon laquelle les modèles d'IA polyvalents finiront inévitablement par banaliser les tâches spécialisées — et pour les centaines de milliers d'entreprises qui dépendent d'une communication multilingue précise, cette spécialisation vaut la peine d'être payée.
Decart AI
Simulation de monde en temps réel, génération de jeux
Compagnies
Entreprise israélienne d'IA qui repousse les limites de la génération IA en temps réel. Leur technologie peut générer des environnements interactifs similaires à des jeux vidéo en temps réel, brouillant la frontière entre le rendu traditionnel et la génération par IA.
Pourquoi c’est important : Decart AI a démontré quelque chose que la plupart des gens pensaient être encore à des années de distance : un réseau de neurones générant un monde 3D interactif et jouable en temps réel, sans aucun moteur de jeu traditionnel impliqué. Leur démonstration Oasis était une preuve de concept pour la simulation de monde native de l'IA, une technologie aux implications bien au-delà du jeu vidéo — de la conduite autonome à la robotique en passant par l'informatique spatiale. Si les modèles du monde en temps réel deviennent viables à un niveau de qualité production, les travaux pionniers de Decart en optimisation d'inférence et en génération interactive auront été fondateurs.
DeepSeek
DeepSeek-V3, DeepSeek-R1
Compagnies
Laboratoire d'IA chinois qui a secoué l'industrie début 2025 avec DeepSeek-R1, un modèle de raisonnement rivalisant avec les laboratoires de pointe pour une fraction du coût d'entraînement. Soutenu par le fonds spéculatif quantitatif High-Flyer.
Pourquoi c’est important : DeepSeek a fait voler en éclats l'hypothèse selon laquelle l'IA de pointe nécessitait des budgets de pointe. Leur approche centrée sur l'efficacité — atteignant des performances de classe GPT-4 et o1 pour une fraction du coût d'entraînement — a forcé l'ensemble de l'industrie à repenser le narratif selon lequel la mise à l'échelle est la seule voie, et à se recentrer sur l'innovation architecturale. La publication en poids ouverts de R1 sous licence MIT a démocratisé l'accès aux modèles de raisonnement d'une manière qu'aucun laboratoire occidental n'avait faite. Et sur le plan géopolitique, DeepSeek a prouvé que les contrôles à l'exportation seuls ne peuvent contenir les capacités en IA, une prise de conscience aux implications profondes pour les politiques technologiques, l'investissement et l'équilibre mondial des forces en IA.
Deepgram
Nova reconnaissance vocale, Aura synthèse vocale
Compagnies
Entreprise d'IA vocale qui construit des API rapides et precises de reconnaissance vocale et de synthese vocale. Leurs modeles Nova rivalisent avec et surpassent souvent Whisper d'OpenAI en precision tout en fonctionnant nettement plus vite pour les applications en temps reel.
Pourquoi c’est important : Deepgram a prouve qu'une startup pouvait construire la reconnaissance vocale de zero en utilisant l'apprentissage profond de bout en bout et rivaliser directement avec Google, Amazon et Microsoft en precision tout en les surpassant en vitesse. Leur approche API axee sur les developpeurs a apporte les modeles d'infrastructure modernes a l'IA vocale, rendant l'ajout de transcription a une application aussi simple que l'ajout de paiements avec Stripe. Alors que les agents d'IA conversationnelle deviennent courants, Deepgram se positionne comme la couche d'infrastructure vocale critique en dessous — la plomberie qui fait reellement fonctionner l'IA vocale en production.
Un type de modèle génératif qui crée des images (ou de la vidéo, de l'audio) en partant de bruit pur et en le retirant graduellement jusqu'à ce qu'une sortie cohérente apparaisse. Le modèle apprend à inverser le processus d'ajout de bruit à des données réelles. Stable Diffusion, DALL-E 3 et Midjourney utilisent tous des variantes de cette approche.
Pourquoi c’est important : Les modèles de diffusion ont détrôné les GAN comme technique dominante de génération d'images vers 2022. Ils produisent des sorties plus diversifiées et contrôlables et sont le moteur de presque tous les outils d'IA pour l'image et la vidéo aujourd'hui.
E
Émergence
Capacités émergentes, comportement émergent
Fondamentaux
Les capacités qui apparaissent dans les modèles d'intelligence artificielle à grande échelle mais n'ont pas été explicitement entraînées pour — des capacités qui semblent « émerger » soudainement une fois qu'un modèle atteint une certaine taille ou un seuil d'entraînement. Un modèle entraîné uniquement à prédire le mot suivant apprend de manière inattendue à faire des calculs, à traduire entre des langues qu'on ne lui avait pas apprises, ou à écrire du code fonctionnel. L'émergence est l'un des phénomènes les plus débattus en intelligence artificielle : s'agit-il d'une véritable magie de transition de phase, ou d'un artefact de mesure ?
Pourquoi c’est important : L'émergence est au cœur de la plus grande question en IA : pouvons-nous prévoir ce que les modèles plus grands seront capables de faire ? Si les capacités émergent véritablement de manière imprévisible à grande échelle, alors chaque modèle plus grand est une boîte à surprises. Si l'émergence est un artefact de la manière dont nous mesurons, alors le passage à l'échelle est plus prévisible qu'il n'y paraît. La réponse façonne tout, de la planification de la sécurité aux décisions d'investissement.
Évaluation
Evals, évaluation de modèle
Entraînement
Les méthodes utilisées pour mesurer la performance d'un modèle d'IA. Cela va bien au-delà des bancs d'essai — cela inclut l'évaluation humaine (demander à des personnes de noter les sorties), les tests A/B (comparer des modèles sur du trafic réel), le red-teaming (tests adverses), les tests spécifiques à un domaine (précision médicale, correction du code) et les classements communautaires (Chatbot Arena, LMSYS). Une bonne évaluation est plus difficile que la construction du modèle.
Pourquoi c’est important : Si vous ne pouvez pas le mesurer, vous ne pouvez pas l'améliorer. Mais l'évaluation en IA est particulièrement difficile parce que les tâches sont ouvertes et la qualité subjective. Les bancs d'essai sont manipulés, l'évaluation humaine est coûteuse, et le modèle qui obtient le meilleur score sur papier n'est souvent pas le meilleur en pratique. Construire de bonnes évaluations est un superpouvoir.
ElevenLabs
Synthèse vocale, clonage vocal, doublage
Compagnies
Entreprise d'IA vocale qui a rendu la synthese vocale ultraréaliste accessible a tous. Leur technologie alimente le clonage vocal, le doublage en temps reel et la synthese vocale dans 32 langues, brouillant la frontiere entre voix humaines et voix generees par IA.
Pourquoi c’est important : ElevenLabs a prouve que la parole generee par IA pouvait franchir la vallee de l'etrangete et sonner veritablement humaine, reduisant le cout et le temps de production vocale professionnelle de plusieurs ordres de grandeur. Leurs outils de clonage vocal et de doublage multilingue ont rendu possible pour un createur solo de produire du contenu dans plus de 30 langues sans engager un seul acteur vocal, transformant fondamentalement l'economie de la localisation audio et video. Ils ont aussi force l'industrie entiere a affronter de front l'ethique de la technologie vocale synthetique, favorisant l'adoption du filigranage, des normes de provenance de contenu et des protocoles de verification qui deviennent desormais la norme.
Embedding
Plongement vectoriel
Entraînement
Une façon de représenter du texte (ou des images, ou de l'audio) sous forme d'une liste de nombres (un vecteur) qui en capture le sens. Les concepts similaires se retrouvent proches dans cet espace numérique — « chat » et « chaton » sont voisins, tandis que « chat » et « économie » sont éloignés.
Pourquoi c’est important : Les embeddings sont le fondement de la recherche sémantique et du RAG. C'est ainsi que l'IA comprend qu'une recherche pour « corriger un bogue de connexion » devrait correspondre à un document sur la « résolution d'erreur d'authentification » même si aucun mot ne se recoupe.
Infrastructure
Une URL spécifique où une API d'IA accepte les requêtes. Par exemple, l'endpoint de messages d'Anthropic est l'endroit où vous envoyez vos prompts à Claude. Différents endpoints servent différentes fonctions : génération de texte, embeddings, création d'images, liste des modèles.
Pourquoi c’est important : Lors de l'intégration de fournisseurs d'IA, les endpoints sont là où la théorie rencontre la pratique. Chaque fournisseur structure les siens différemment, c'est pourquoi des plateformes comme Zubnet existent — pour normaliser le désordre.
F
Entraînement
Prendre un modèle pré-entraîné et poursuivre son entraînement sur un jeu de données plus petit et spécifique pour spécialiser son comportement. Comme prendre un médecin généraliste et le faire passer par une résidence en chirurgie — mêmes connaissances de base, nouvelle expertise.
Pourquoi c’est important : Le fine-tuning est la façon dont les modèles génériques deviennent utiles pour des tâches spécifiques. Un modèle ajusté peut apprendre le ton de votre entreprise, la terminologie de votre domaine ou un format de sortie spécifique sans repartir de zéro.
Fondamentaux
Un grand modèle entraîné sur des données générales qui sert de base à une multitude de tâches différentes. Claude, GPT, Gemini et Llama sont tous des foundation models. On les appelle « fondamentaux » parce qu'ils peuvent être adaptés à presque tout — rédaction, programmation, analyse, compréhension d'images — sans avoir été spécifiquement entraînés pour chaque tâche.
Pourquoi c’est important : Les foundation models ont changé l'économie de l'IA. Au lieu d'entraîner un modèle distinct pour chaque tâche, on entraîne un seul modèle massif une fois, puis on le fine-tune ou on le sollicite par prompt pour des besoins spécifiques.
G
Fondamentaux
Les systèmes d'IA qui génèrent du contenu nouveau — texte, images, audio, vidéo, code, modèles 3D — plutôt que d'analyser ou de classer des données existantes. L'IA générative est le terme englobant pour tout, de la rédaction d'essais par ChatGPT à la création d'images par Stable Diffusion en passant par la composition de musique par Suno. Le terme « générative » distingue ces modèles des anciens systèmes d'IA qui ne pouvaient que catégoriser, prédire ou recommander.
Pourquoi c’est important : L'intelligence artificielle générative est le terme qui a introduit l'IA dans la culture grand public. C'est ce que les gens entendent lorsqu'ils disent « IA » entre 2024 et 2026 — la capacité de créer, et non seulement de calculer. Comprendre cette catégorie vous aide à naviguer dans le paysage : les LLM génèrent du texte, les modèles de diffusion génèrent des images, et les frontières entre les modalités s'estompent rapidement.
Google DeepMind
Gemini, AlphaGo, AlphaFold
Compagnies
La division unifiée de recherche en IA de Google, formée par la fusion de DeepMind et Google Brain en 2023. Derrière Gemini, AlphaGo, AlphaFold et une grande partie de la recherche fondamentale qui alimente l'IA moderne.
Pourquoi c’est important : Google DeepMind a contribué plus de recherche fondamentale à l'IA moderne que toute autre organisation — l'architecture transformer, les avancées majeures en apprentissage par renforcement, la prédiction de la structure des protéines et les lois d'échelle remontent toutes à des équipes de DeepMind ou de Google Brain. Leurs modèles Gemini sont les seuls grands modèles de langage de pointe dotés d'une distribution véritablement mondiale intégrée, atteignant des milliards d'utilisateurs via Search, Android et Google Workspace. Et AlphaFold à lui seul — qui a résolu un problème vieux de cinquante ans en biologie et obtenu un prix Nobel — suffirait à assurer leur place dans l'histoire de la science, et pas seulement dans celle de l'IA.
GAN
Réseau antagoniste génératif
Modèles
Une architecture de modèle où deux réseaux de neurones s'affrontent : un générateur crée de fausses données, et un discriminateur tente de distinguer le vrai du faux. Grâce à ce jeu adversarial, le générateur s'améliore dans la création de sorties réalistes. A dominé la génération d'images de 2014 à environ 2022.
Pourquoi c’est important : Les GAN ont été les pionniers de la génération réaliste d'images par IA et sont encore utilisés dans certaines applications en temps réel. Mais les modèles de diffusion les ont largement remplacés pour les travaux exigeants en qualité, parce que les GAN sont plus difficiles à entraîner et moins diversifiés dans leurs sorties.
GPU
Unité de traitement graphique
Infrastructure
Conçus à l'origine pour le rendu graphique, les GPU se sont avérés parfaits pour l'IA parce qu'ils peuvent effectuer des milliers d'opérations mathématiques simultanément. L'entraînement et l'exécution de modèles d'IA consistent essentiellement en une multiplication matricielle massive — exactement ce pour quoi les GPU sont conçus. NVIDIA domine ce marché.
Pourquoi c’est important : Les GPU sont le goulot d'étranglement physique de toute l'industrie de l'IA. Pourquoi les modèles coûtent ce qu'ils coûtent, pourquoi certains fournisseurs sont plus rapides que d'autres, pourquoi il y a une pénurie mondiale de puces — tout revient à l'offre de GPU et à la VRAM.
Utiliser l’AI
Connecter les réponses d'un modèle à des sources factuelles et vérifiables plutôt que de le laisser se fier uniquement à ses données d'entraînement. Les techniques d'ancrage incluent le RAG, l'intégration de la recherche web et les exigences de citation. Une réponse ancrée dit « selon [source] » plutôt que d'affirmer des faits sans référence.
Pourquoi c’est important : L'ancrage est la défense principale contre l'hallucination. Un modèle non ancré invente des faits en toute confiance. Un modèle ancré vous dirige vers des sources réelles que vous pouvez vérifier.
Sécurité
Des mécanismes de sécurité qui empêchent les modèles d'IA de générer du contenu nuisible, inapproprié ou hors sujet. Les garde-fous peuvent être intégrés au modèle pendant l'entraînement (RLHF), appliqués via des prompts système, ou imposés par des filtres externes qui vérifient les sorties avant qu'elles n'atteignent les utilisateurs.
Pourquoi c’est important : Sans garde-fous, les modèles aideront volontiers avec des demandes dangereuses. Le défi est la calibration — trop stricts et le modèle devient inutile (« Je ne peux pas vous aider avec ça »), trop lâches et il devient dangereux.
H
Hyperparamètres
Hyperparamètres d'entraînement
Entraînement
Les hyperparamètres que vous choisissez avant le début de l'entraînement, qui contrôlent la manière dont le modèle apprend — contrairement aux paramètres, que le modèle apprend par lui-même. Les hyperparamètres comprennent le taux d'apprentissage (la taille de chaque étape de mise à jour), la taille du lot (le nombre d'exemples traités à la fois), le nombre d'époques (le nombre de fois où les données sont parcourues), le choix de l'optimiseur (Adam, SGD, AdamW), la décroissance du poids, le taux de dropout et les décisions relatives à l'architecture, comme le nombre de couches et les dimensions cachées. Régler correctement les hyperparamètres est souvent la différence entre un modèle qui converge de manière optimale et un autre qui diverge vers des résultats incohérents.
Pourquoi c’est important : L'ajustement des hyperparamètres est l'endroit où l'ingénierie ML devient à la fois science et artisanat. Vous pouvez avoir le jeu de données parfait et l'architecture idéale, mais un taux d'apprentissage trop élevé risque de faire échouer l'entraînement, tandis qu'un taux trop faible ne convergera jamais. Comprendre les hyperparamètres est essentiel pour toute personne entraînant ou effectuant un fine-tuning de modèles — et savoir lesquels sont les plus importants économise d'énormes quantités de ressources de calcul.
HeyGen
Vidéos avatar IA, doublage avec synchro labiale
Compagnies
Plateforme vidéo IA spécialisée dans les avatars réalistes de type « tête parlante » et le doublage automatique avec synchronisation labiale. Utilisée par les entreprises pour le marketing, la formation et la localisation — transformant une seule vidéo en des dizaines de langues avec des mouvements de lèvres synchronisés.
Pourquoi c’est important : HeyGen a transformé les avatars vidéo IA d'une curiosité de recherche en un véritable outil d'entreprise, prouvant qu'il existe un revenu réel à rendre la création de contenu vidéo aussi simple que la rédaction d'un document. Leur technologie de doublage avec synchronisation labiale a une importance particulière pour les entreprises internationales — elle réduit considérablement le coût et le temps de localisation vidéo, passant de semaines et de milliers de dollars à quelques minutes et quelques sous. En tant que l'une des rares entreprises de vidéo IA avec des revenus récurrents substantiels, HeyGen sert également d'étude de cas sur la manière de bâtir une entreprise viable sur l'IA générative, et pas seulement une démonstration.
HiDream
Modèles de génération d'images HiDream
Compagnies
Entreprise émergente de génération d'images qui développe des modèles de diffusion de haute qualité. Leurs publications à poids ouverts ont gagné en popularité dans la communauté de l'IA créative grâce à une forte adhérence aux instructions et une qualité visuelle remarquable.
Pourquoi c’est important : HiDream a démontré qu'une petite équipe concentrée peut produire des modèles de génération d'images à poids ouverts qui rivalisent avec les résultats d'organisations dépensant des ordres de grandeur supérieurs en infrastructure d'entraînement. La force de leurs modèles en rendu de texte et en précision compositionnelle a résolu de véritables irritants qui freinaient l'adoption commerciale des images générées par IA. Dans l'espace des modèles d'images ouverts qui se banalise rapidement, le succès d'HiDream renforce le constat que le prochain bond en qualité peut venir de n'importe où — pas seulement des plus grands laboratoires disposant du plus grand nombre de GPU.
Hume
Interface vocale empathique, détection d'émotions
Compagnies
Entreprise d'IA qui développe des modèles capables de comprendre et d'exprimer les émotions humaines. Leur Empathic Voice Interface détecte le ton, le sentiment et le contexte émotionnel en temps réel, permettant des conversations IA qui répondent non seulement à ce que vous dites, mais à comment vous le dites.
Pourquoi c’est important : Hume compte parce qu'elle s'attaque à l'angle mort le plus flagrant de l'IA moderne : la compréhension émotionnelle. Chaque agent conversationnel, assistant vocal et agent IA d'aujourd'hui est essentiellement sourd aux nuances, répondant au contenu littéral des mots tout en ignorant le contexte émotionnel sur lequel les humains comptent instinctivement. L'Empathic Voice Interface de Hume est la première tentative sérieuse de combler cette lacune à l'échelle de la production, et leur insistance sur des lignes directrices éthiques pour l'IA émotionnelle établit une norme que l'industrie sera éventuellement obligée d'adopter.
Utiliser l’AI
Quand un modèle d'IA génère de l'information qui semble confiante et plausible mais qui est factuellement fausse ou entièrement fabriquée. Le modèle ne « ment » pas — il fait de la correspondance de patrons vers un texte fluide sans concept de vérité. Les fausses citations, les statistiques inventées et les méthodes d'API inexistantes sont des exemples courants.
Pourquoi c’est important : L'hallucination est le plus grand problème de confiance en IA aujourd'hui. C'est pourquoi vous devriez toujours vérifier les faits critiques provenant des sorties d'IA, et pourquoi des techniques comme le RAG et l'ancrage existent.
I
Ideogram
Rendu de texte dans les images, Ideogram 2.0
Compagnies
Entreprise de generation d'images par IA fondee par d'anciens chercheurs de Google Brain. Elle s'est fait un nom en resolvant l'un des problemes les plus ardus de la generation d'images : le rendu de texte lisible et precis a l'interieur des images.
Pourquoi c’est important : Ideogram a prouve que resoudre une seule faiblesse critique — un texte lisible dans les images generees par IA — pouvait creer une position de marche distincte dans l'espace bonde de la generation d'images. Leur evolution de specialistes du rendu de texte a plateforme de design complete montre comment la differenciation technique, lorsqu'elle vise de vrais irritants dans les flux de travail, peut rivaliser avec des concurrents mieux finances.
Infrastructure
Le processus d'exécution d'un modèle entraîné pour générer des sorties. L'entraînement, c'est apprendre ; l'inférence, c'est utiliser ce qui a été appris. Chaque fois que vous envoyez un prompt à Claude ou générez une image avec Stable Diffusion, c'est de l'inférence. C'est ce qui coûte des heures GPU aux fournisseurs et ce pour quoi vous payez par token.
Pourquoi c’est important : Le coût et la vitesse d'inférence déterminent l'économie des produits d'IA. Une inférence plus rapide = moins de latence = meilleure expérience utilisateur. Une inférence moins chère = prix plus bas = adoption plus large. Toute l'industrie de la quantification et de l'optimisation existe pour rendre l'inférence plus efficace.
J
Jina AI
Embeddings, API Reader, rerankers
Compagnies
Entreprise d'IA basee a Berlin specialisee dans la recherche et les embeddings. Leurs modeles jina-embeddings et leur Reader API (qui convertit n'importe quelle URL en texte pret pour les LLM) sont devenus une infrastructure essentielle pour les pipelines RAG a travers le monde.
Pourquoi c’est important : Jina AI a construit l'infrastructure d'embeddings et de recuperation dont des milliers de systemes RAG dependent, prouvant qu'un outillage de recherche specialise peut avoir plus de valeur que d'essayer de tout faire. Leurs modeles d'embeddings a contexte long et leur Reader API resolvent deux des problemes pratiques les plus ardus en recherche alimentee par IA — representer fidelement de longs documents et extraire du texte propre de pages web desordonnees — et ils l'ont fait tout en gardant les modeles de base en open source. Dans un ecosysteme domine par les laboratoires generalistes, Jina demontre qu'il y a une veritable entreprise a faire une seule chose exceptionnellement bien et a la rendre tres simple a utiliser pour les developpeurs.
K
Kling AI
Génération vidéo Kling, vidéo longue durée
Compagnies
Plateforme de vidéo par IA de Kuaishou (la deuxième plus grande plateforme de vidéo courte en Chine). A rapidement attiré l'attention internationale pour la production de certaines des vidéos générées par IA les plus physiquement cohérentes et temporellement consistantes.
Pourquoi c’est important : Kling AI a démontré que les laboratoires d'IA chinois pouvaient égaler les concurrents occidentaux à la fine pointe de la génération vidéo, produisant des résultats avec une cohérence physique et une consistance temporelle qui ont établi un nouveau standard dans le domaine. Soutenu par la plateforme à un milliard de vidéos par jour de Kuaishou et proposé à des prix agressifs à l'échelle mondiale, Kling est devenu un moteur principal de la compétition dans l'espace de la vidéo par IA, tirant la qualité vers le haut et les prix vers le bas pour l'ensemble du marché.
L
Leonardo.ai
Génération d'images créatives, création d'assets de jeu
Compagnies
Plateforme australienne de génération d'images par IA qui s'est taillé une place entre Midjourney et Stable Diffusion. Populaire auprès des développeurs de jeux vidéo et des artistes numériques pour ses modèles affinés, son canevas en temps réel et son accent sur les actifs créatifs prêts pour la production.
Pourquoi c’est important : Leonardo.ai a montré que la génération d'images par IA pouvait être présentée comme une plateforme créative professionnelle, et non comme une simple boîte à instructions comme curiosité, et que cela pouvait attirer des dizaines de millions d'utilisateurs. Leur concentration sur le développement de jeux vidéo et les flux de travail d'art numérique a ouvert des cas d'utilisation pour lesquels des outils plus larges comme Midjourney et DALL-E n'étaient pas spécifiquement conçus. L'acquisition par Canva a validé toute la catégorie de la génération d'images par IA comme un actif stratégique pour les grandes plateformes de design, établissant le modèle de la façon dont les outils d'IA autonomes sont absorbés dans des écosystèmes créatifs plus vastes.
Liquid AI
Liquid Foundation Models, réseaux de neurones liquides
Compagnies
Entreprise issue du MIT explorant des architectures de réseaux de neurones fondamentalement différentes, inspirées des circuits neuronaux biologiques. Leurs Liquid Foundation Models utilisent des dynamiques en temps continu plutôt que des transformers à poids fixes, promettant une meilleure efficacité et adaptabilité.
Pourquoi c’est important : Liquid AI représente le défi financé le plus sérieux à l'hypothèse que les transformers sont la seule architecture qui compte. En construisant des modèles fondation de qualité production sur des dynamiques en temps continu inspirées de la biologie, ils testent si le pari tout-en-un de l'industrie de l'IA sur les mécanismes d'attention était prématuré. Même si les LFM ne détrônent pas complètement les transformers, leurs avantages en efficacité pour le déploiement en périphérie et le traitement de longues séquences pourraient se tailler des créneaux essentiels en robotique, en IA mobile et en systèmes embarqués — des marchés où faire tourner un transformer de 70 milliards de paramètres n'est tout simplement pas envisageable.
Luma AI
Dream Machine, Ray2
Compagnies
Entreprise d'IA specialisee en generation de video et de contenu 3D. Leur Dream Machine a ete l'un des premiers generateurs video par IA accessibles et de haute qualite, et Ray2 a considerablement fait progresser la qualite et la coherence video.
Pourquoi c’est important : Luma AI a democratise la generation video par IA de la meme facon que Stable Diffusion a democratise les images — en la rendant gratuite, rapide et accessible a quiconque disposait d'un navigateur. Leur evolution de startup de capture 3D a generateur video de premier plan, combinee a une profondeur technique unique en comprehension spatiale, les positionne comme l'une des rares entreprises qui pourrait veritablement combler le fosse entre la video par IA, le contenu 3D et les formats de medias immersifs qui suivront.
Latence
Time to First Token (TTFT)
Infrastructure
Le délai entre l'envoi d'une requête et l'obtention de la première réponse. En IA, cela se mesure souvent en Time to First Token (TTFT) — combien de temps avant que le modèle commence à diffuser sa réponse. Affectée par la taille du modèle, la charge du serveur, la distance réseau et la longueur du prompt.
Pourquoi c’est important : Les utilisateurs perçoivent tout ce qui dépasse environ 2 secondes comme lent. La faible latence est la raison pour laquelle les petits modèles l'emportent souvent pour les applications en temps réel, même quand les grands modèles sont « plus intelligents ». C'est un facteur de différenciation clé entre les fournisseurs.
Fondamentaux
Un réseau de neurones entraîné sur d'énormes quantités de texte pour comprendre et générer du langage humain. « Large » fait référence au nombre de paramètres (des milliards) et à la taille des données d'entraînement (des milliers de milliards de tokens). Claude, GPT, Gemini, Llama et Mistral sont tous des LLM.
Pourquoi c’est important : Les LLM sont la technologie derrière chaque chat IA, assistant de code et générateur de texte que vous utilisez. Comprendre ce qu'ils sont (des appariements statistiques de patterns, pas des êtres sentients) vous aide à les utiliser efficacement et à reconnaître leurs limites.
LoRA
Adaptation à faible rang
Entraînement
Une technique qui rend le fine-tuning radicalement moins coûteux en n'entraînant qu'un petit nombre de paramètres supplémentaires au lieu de modifier le modèle entier. Les adaptateurs LoRA sont des extensions légères (souvent quelques mégaoctets) qui modifient le comportement d'un modèle sans réentraîner ses milliards de paramètres.
Pourquoi c’est important : LoRA a démocratisé le fine-tuning. Avant, personnaliser un modèle de 7 milliards de paramètres exigeait des ressources GPU sérieuses. Maintenant, on peut faire du fine-tuning sur un seul GPU grand public en quelques heures et partager le minuscule fichier d'adaptateur. C'est la raison pour laquelle il y a des milliers de modèles spécialisés sur HuggingFace.
M
Modèle
Modèle IA, modèle ML
Fondamentaux
Un système mathématique entraîné qui reçoit des entrées et produit des sorties en se basant sur des motifs appris à partir des données. En intelligence artificielle, le terme « modèle » désigne le terme générique pour l'élément que vous utilisez réellement — qu'il s'agisse de GPT-4 qui génère du texte, de Stable Diffusion qui génère des images ou de Whisper qui transcrit la parole. Un modèle est défini par son architecture (la manière dont il est structuré), ses paramètres (ce qu'il a appris) et ses données d'entraînement (de quoi il a appris). Lorsqu'on dit « quel modèle devrais-je utiliser ? », on fait référence à cela.
Pourquoi c’est important : Le mot « model » est le plus utilisé dans l'intelligence artificielle, et il peut avoir des significations différentes selon les contextes. Un « model » peut désigner l'architecture (Transformer), une instance entraînée spécifique (Claude Opus 4.6), un fichier sur disque (un fichier .gguf) ou un point de terminaison API. Comprendre ce qu'est réellement un modèle — et ce qu'il n'est pas — constitue la base de tout le reste.
Fondamentaux
Le domaine vaste de l'informatique où les systèmes apprennent des modèles à partir de données plutôt que de suivre des règles explicites. Au lieu de programmer un ordinateur pour reconnaître un chat en listant des caractéristiques (quatre pattes, oreilles pointues, moustaches), on lui montre des milliers de photos de chats et on lui laisse découvrir le modèle par lui-même. L'apprentissage automatique englobe tout, de la régression linéaire simple aux réseaux de neurones profonds qui alimentent l'IA d'aujourd'hui — l'apprentissage supervisé (exemples étiquetés), l'apprentissage non supervisé (découverte de structures) et l'apprentissage par renforcement (essai-erreur).
Pourquoi c’est important : L'apprentissage automatique est le fondement de tous les outils que nous appelons « IA » aujourd'hui. Chaque modèle de langage de grande envergure, chaque générateur d'images, chaque algorithme de recommandation, chaque filtre anti-spam — c'est tout l'apprentissage automatique. Comprendre l'apprentissage automatique en tant que discipline plus large vous permet de voir où s'applique l'apprentissage profond, où les méthodes classiques restent plus efficaces, et pourquoi l'« IA » n'est en réalité qu'« l'apprentissage automatique qui a vraiment bien fonctionné ».
Mémoire
Mémoire IA, contexte persistant
Utiliser l’AI
Les mécanismes qui permettent aux modèles d'IA de retenir et de rappeler des informations au-delà d'une seule conversation. Cela inclut la mémoire en contexte (utilisation de la fenêtre de contexte), la mémoire externe (RAG, bases de données vectorielles), la mémoire de conversation persistante (se souvenir des préférences de l'utilisateur entre les sessions) et la mémoire de travail (maintien de l'état pendant des tâches d'agent en plusieurs étapes). La mémoire est ce qui fait que l'IA ressemble à un collaborateur plutôt qu'à un outil sans état.
Pourquoi c’est important : Sans mémoire, chaque conversation IA repart de zéro. Vous répétez vos préférences, ré-expliquez votre base de code, re-décrivez votre projet. La mémoire est ce qui transforme un agent conversationnel en assistant — et c'est l'un des problèmes les plus difficiles à bien résoudre, équilibrant pertinence, vie privée, obsolescence et coûts de stockage.
Moonshot AI
Kimi, modèles à contexte ultra-long
Compagnies
Entreprise chinoise d'IA qui a fait sensation en lançant Kimi, un agent conversationnel doté d'une fenêtre de contexte de 2 millions de jetons. Fondée par Yang Zhilin, ancien chercheur derrière des innovations clés en modélisation de longs contextes.
Pourquoi c’est important : Moonshot AI a forcé toute l'industrie à prendre la longueur du contexte au sérieux. Avant Kimi, la prise en charge de longs contextes était un atout secondaire ; après que Kimi soit devenu viral en Chine, tous les grands laboratoires se sont précipités pour étendre leurs fenêtres de contexte. Le pari de Yang Zhilin — que les utilisateurs changeraient fondamentalement leur façon d'interagir avec l'IA quand on leur donnerait assez de contexte — a été validé par la croissance explosive de Kimi, et les techniques développées par Moonshot pour l'inférence efficace de longues séquences influencent la façon dont la prochaine génération de modèles gère les documents, les bases de code et le raisonnement complexe en plusieurs étapes.
Meta AI
Llama, FAIR, PyTorch
Compagnies
La division de recherche en IA de Meta, qui abrite FAIR (Fundamental AI Research). Responsable de la famille de modèles à poids ouverts Llama et de PyTorch, le cadriciel d'apprentissage profond utilisé par la majeure partie de l'industrie de l'IA.
Pourquoi c’est important : Meta AI a fondamentalement changé l'économie de l'IA en prouvant que des modèles de classe frontière pouvaient être publiés en poids ouverts. Llama et ses dérivés alimentent des milliers d'applications, de startups et de projets de recherche qui n'auraient jamais eu accès à des modèles de ce calibre. PyTorch sous-tend la majorité des systèmes de recherche et de production en IA dans le monde. Et avec plus de 3 milliards d'utilisateurs à travers ses applications, Meta dispose d'une distribution qu'aucun autre laboratoire d'IA ne peut égaler — quand ils lancent une fonctionnalité IA, elle atteint un tiers de l'humanité du jour au lendemain.
Mistral AI
Mistral, Mixtral, Codestral, Le Chat
Compagnies
Puissance européenne de l'IA fondée par d'anciens chercheurs de DeepMind et Meta. Reconnue pour ses performances au-delà de ses moyens grâce à des modèles efficaces, et pour son engagement envers la distribution en poids ouverts parallèlement à ses offres commerciales.
Pourquoi c’est important : Mistral a prouvé qu'il n'est pas nécessaire de disposer de budgets d'hyperscalers américains pour construire des modèles d'IA de pointe. Leurs architectures efficaces — en particulier leurs travaux pionniers sur le mélange d'experts épars — ont influencé l'approche de toute l'industrie en matière de conception de modèles, et leurs publications en poids ouverts ont donné aux développeurs du monde entier accès à des modèles de haute qualité sans dépendance à une API. En tant que première entreprise européenne d'IA à atteindre une véritable compétition de pointe, Mistral revêt également une importance stratégique : son succès (ou son échec) déterminera si l'Europe peut être un acteur de l'IA, ou simplement un régulateur.
MiniMax
Modèles MiniMax, Hailuo AI, génération vidéo
Compagnies
Entreprise d'IA chinoise développant des modèles à grande échelle en texte, voix et vidéo. Connue pour sa plateforme grand public Hailuo et ses modèles multimodaux de plus en plus compétitifs.
Pourquoi c’est important : MiniMax s'est imposée comme l'une des entreprises d'IA les plus polyvalentes en Chine, développant des modèles compétitifs en texte, voix et vidéo à partir d'une pile intégrée unique. Leur plateforme Hailuo AI a rendu la génération vidéo par IA de haute qualité accessible à un public mondial et gratuitement, démontrant que les laboratoires d'IA chinois peuvent construire des produits grand public avec une portée internationale véritable — et pas seulement des API pour entreprises ou des articles de recherche.
MCP
Protocole de contexte de modèle
Outils
Un protocole ouvert (créé par Anthropic) qui standardise la façon dont les modèles d'IA se connectent aux outils et sources de données externes. Pensez-y comme l'USB-C de l'IA — une interface standard unique au lieu d'intégrations sur mesure pour chaque outil. Les serveurs MCP exposent des capacités ; les clients MCP (comme Claude) les consomment.
Pourquoi c’est important : Avant MCP, chaque intégration IA-outil était sur mesure. MCP signifie qu'un outil construit une fois fonctionne avec tout client compatible. Il est déjà pris en charge par Claude, Cursor et d'autres. C'est ainsi que l'IA passe du chatbot à un véritable assistant.
Modèles
Une architecture où le modèle contient plusieurs sous-réseaux « experts », mais n'en active que quelques-uns pour chaque entrée. Un réseau routeur décide quels experts sont pertinents pour un token donné. Cela signifie qu'un modèle peut avoir plus de 100 milliards de paramètres au total mais n'en utiliser que 20 milliards pour chaque passage.
Pourquoi c’est important : Le MoE est la façon dont des modèles comme Mixtral et (selon toute vraisemblance) GPT-4 obtiennent la qualité d'un énorme modèle avec la vitesse d'un plus petit. Le compromis est une utilisation mémoire plus élevée (tous les experts doivent être chargés) même si le calcul est moins coûteux.
Fondamentaux
Un modèle capable de comprendre et/ou de générer plusieurs types de données : texte, images, audio, vidéo, code. Claude peut lire des images et du texte ; certains modèles peuvent aussi produire des images ou de la parole. « Multimodal » contraste avec les modèles « unimodaux » qui ne gèrent qu'un seul type.
Pourquoi c’est important : Les tâches du monde réel sont multimodales. Vous voulez montrer une capture d'écran à une IA et demander « qu'est-ce qui cloche ici ? » ou lui donner un diagramme et dire « implémente ça ». Les modèles multimodaux rendent cela possible.
N
Fondamentaux
La branche de l'IA axée sur la capacité des machines à comprendre, interpréter et générer un langage humain. Le NLP englobe tout, des traitements de base du texte (tokenisation, racinisation, balisage des parties du discours) aux tâches complexes comme l'analyse de sentiment, la traduction automatique, la synthèse de résumés et la réponse aux questions. Avant les Transformers, le NLP était un ensemble disparate de techniques spécialisées. Aujourd'hui, les grands modèles de langage (LLMs) ont unifié la plupart des aspects du NLP sous un seul paradigme — mais les fondements du domaine restent essentiels pour comprendre comment et pourquoi ces modèles fonctionnent.
Pourquoi c’est important : L'IA est la raison pour laquelle vous pouvez parler à l'IA en anglais simple et obtenir des réponses utiles. Tout chatbot, tout moteur de recherche, tout service de traduction, tout outil d'écriture IA est basé sur le NLP. Même si vous ne construisez jamais un système NLP depuis zéro, comprendre les fondamentaux — tokenization, attention, embeddings, contexte — vous rend plus efficace avec chaque outil IA qui traite le texte.
NVIDIA
GPU, CUDA, H100/H200, NeMo
Compagnies
L'entreprise dont les GPU alimentent pratiquement tout l'entrainement d'IA et la majeure partie de l'inference a l'echelle mondiale. Ce qui a commence comme un fabricant de cartes graphiques est devenu le fournisseur de materiel le plus critique de l'industrie de l'IA, faisant brievement de NVIDIA l'entreprise la plus valorisee au monde.
Pourquoi c’est important : NVIDIA est l'entreprise sans laquelle la revolution de l'IA n'aurait tout simplement pas lieu — leurs GPU et leur ecosysteme logiciel CUDA sont les fondations sur lesquelles pratiquement tous les grands modeles d'IA ont ete entraines. La combinaison de materiel d'IA specialise, d'un rempart logiciel forge sur une decennie et du controle du tissu reseau qui interconnecte les GPU leur a confere une position quasi monopolistique dans la chaine d'approvisionnement la plus critique du 21e siecle. Quand les gouvernements, les entreprises et les laboratoires de recherche se disputent la puissance de calcul IA, c'est pour du materiel NVIDIA qu'ils se battent, et ce simple fait a transforme l'ancien fabricant de cartes graphiques de Jensen Huang en l'entreprise technologique la plus strategiquement importante de la planete.
Fondamentaux
Un système informatique vaguement inspiré du cerveau biologique, composé de couches de « neurones » interconnectés (des fonctions mathématiques) qui apprennent des patterns à partir de données. L'information traverse les couches en étant progressivement transformée jusqu'à ce que le réseau produise une sortie. Tous les modèles d'IA modernes sont des réseaux de neurones d'un type ou d'un autre.
Pourquoi c’est important : Les réseaux de neurones sont le « comment » derrière toute l'IA. Comprendre qu'il s'agit de mathématiques (ni de magie, ni de cerveaux) aide à démystifier ce que l'IA peut et ne peut pas faire. Ce sont des détecteurs de patterns — extraordinairement puissants, certes, mais des détecteurs de patterns tout de même.
O
Optimisation
Optimisation de modèle, optimisation d'inférence
Entraînement
L'ensemble large de techniques utilisées pour rendre les modèles d'IA plus rapides, plus petits, moins chers ou plus précis. Cela inclut les optimisations d'entraînement (précision mixte, gradient checkpointing, parallélisme de données), les optimisations d'inférence (quantification, élagage, distillation, décodage spéculatif) et les optimisations de service (traitement par lots, mise en cache, équilibrage de charge). L'optimisation est la raison pour laquelle on peut faire tourner un modèle de 14 milliards de paramètres sur un portable.
Pourquoi c’est important : La capacité brute ne signifie rien si on ne peut pas se permettre de la faire tourner. L'optimisation est la différence entre une démonstration de recherche et un produit en production. C'est pourquoi les modèles à poids ouverts peuvent rivaliser avec les fournisseurs d'API, pourquoi l'IA mobile existe, et pourquoi les coûts d'inférence continuent de baisser.
OpenAI
GPT, ChatGPT, DALL-E, Sora
Compagnies
L'entreprise derrière ChatGPT et la série de modèles GPT. À l'origine un laboratoire de recherche à but non lucratif, OpenAI est devenue le visage public de la révolution de l'IA lors du lancement de ChatGPT en novembre 2022.
Pourquoi c’est important : OpenAI a fait plus que toute autre organisation pour faire passer l'IA du laboratoire de recherche à la conscience collective. ChatGPT a été le moment iPhone de l'IA générative — le produit qui a fait comprendre viscéralement à des centaines de millions de personnes ce que les grands modèles de langage pouvaient accomplir. Leur API a créé la couche d'infrastructure sur laquelle des milliers de startups en IA ont été bâties, et la série GPT a établi la mise à l'échelle comme paradigme dominant de la recherche en IA pendant des années. Même les controverses d'OpenAI — la crise de gouvernance, la conversion du but non lucratif vers le lucratif, les départs de chercheurs axés sur la sécurité — ont façonné le débat plus large sur la manière dont les entreprises d'IA devraient être structurées et gouvernées.
Poids ouverts
Open source (en contexte IA)
Sécurité
Quand une entreprise publie les paramètres entraînés d'un modèle pour que quiconque puisse le télécharger et l'exécuter. « Open weights » est plus exact que « open source » parce que la plupart des modèles publiés n'incluent pas les données d'entraînement ni le code d'entraînement — on obtient le modèle fini mais pas la recette. Llama, Mistral et Qwen sont des modèles open-weights.
Pourquoi c’est important : Les open weights signifient que vous pouvez exécuter l'IA sur votre propre matériel en toute confidentialité — pas d'appels API, pas de données qui quittent votre réseau. Le compromis, c'est qu'il faut les ressources GPU pour les faire tourner et que vous êtes responsable de la sécurité.
Entraînement
Quand un modèle mémorise ses données d'entraînement trop bien et perd la capacité de généraliser à de nouvelles entrées. Comme un étudiant qui mémorise les réponses d'examens pratiques mais ne peut pas résoudre de nouveaux problèmes. Le modèle performe très bien sur les données d'entraînement mais mal sur tout ce qu'il n'a pas vu auparavant.
Pourquoi c’est important : Le surapprentissage est le mode de défaillance le plus courant en entraînement de modèles. C'est pourquoi l'évaluation utilise des ensembles de test séparés, et pourquoi entraîner trop longtemps (trop d'époques) peut en fait rendre un modèle moins bon.
P
Paramètres
Poids, paramètres de modèle
Fondamentaux
Les valeurs internes apprises par un réseau de neurones lors de l'entraînement — essentiellement la « connaissance » du modèle encodée sous forme de nombres. Lorsqu'on dit qu'un modèle possède « 7 milliards de paramètres », cela signifie que 7 milliards de valeurs numériques individuelles ont été ajustées lors de l'entraînement afin de capturer les motifs présents dans les données. Un plus grand nombre de paramètres implique généralement une plus grande capacité à apprendre des motifs complexes, mais aussi plus de mémoire pour les stocker et plus de puissance de calcul pour les exécuter.
Pourquoi c’est important : Le comptage des paramètres est l'abréviation courante pour désigner la taille d'un modèle, et il détermine directement la quantité de mémoire GPU nécessaire. Un modèle de 7B en précision 16 bits nécessite environ 14 Go de VRAM uniquement pour les poids. Comprendre les paramètres vous permet d'estimer les coûts, de choisir le matériel et de comprendre pourquoi la quantification (réduction de la précision par paramètre) est si importante pour rendre les modèles accessibles.
PixVerse
Génération vidéo PixVerse
Compagnies
Entreprise chinoise de génération vidéo qui développe des outils vidéo IA accessibles. Connue pour ses vitesses de génération rapides et un niveau gratuit qui l'a aidée à constituer rapidement une large base d'utilisateurs sur les marchés internationaux.
Pourquoi c’est important : PixVerse a prouvé que la génération vidéo par IA pouvait être un produit grand public, et non un simple outil pour professionnels et adopteurs précoces. Leur niveau gratuit agressif et leur cycle d'itération rapide ont forcé toute la catégorie à repenser la tarification et l'accessibilité. En construisant l'une des plus grandes bases d'utilisateurs en vidéo IA en une seule année, ils ont démontré que la distribution et la vitesse d'exécution peuvent compter autant que la qualité brute du modèle pour déterminer qui remporte ce marché.
Perplexity
Moteur de recherche propulsé par IA, API Sonar
Compagnies
Moteur de recherche par IA qui combine la recherche web en temps reel avec le raisonnement de modeles de langage pour fournir des reponses directes et sourcees au lieu d'une liste de liens. Le defi le plus visible a la domination de Google dans la recherche depuis une generation.
Pourquoi c’est important : Perplexity est le defi le plus credible a la domination de Google dans la recherche en plus d'une decennie, prouvant qu'un moteur de reponses natif IA peut offrir une experience fondamentalement superieure pour les requetes informationnelles. Ils ont popularise le paradigme de generation augmentee par recuperation comme produit grand public, montrant que la combinaison de la recherche web en temps reel avec le raisonnement LLM produit des resultats a la fois plus utiles et plus fiables que l'une ou l'autre technologie seule. Leur croissance rapide a force Google, Microsoft et tous les autres acteurs de la recherche a repenser ce a quoi un moteur de recherche devrait ressembler a l'ere des grands modeles de langage.
Entraînement
La phase d'entraînement initiale et massive où un modèle apprend le langage (ou d'autres modalités) à partir d'un immense corpus. C'est la partie coûteuse — des milliers de GPU fonctionnant pendant des semaines ou des mois, pour des millions de dollars. Le résultat est un modèle fondation qui comprend le langage mais n'a pas encore été spécialisé pour une tâche quelconque.
Pourquoi c’est important : Le pré-entraînement est ce qui rend les modèles fondation possibles. C'est aussi pourquoi seule une poignée d'entreprises peut créer des modèles de pointe — les coûts de calcul sont astronomiques. Tout le reste (fine-tuning, RLHF, prompting) se construit sur cette base.
Utiliser l’AI
La pratique consistant à formuler des entrées pour obtenir de meilleures sorties des modèles d'IA. Cela va de techniques simples (être spécifique, fournir des exemples) aux méthodes avancées (chaîne de pensée, prompting few-shot, assignation de rôle). Malgré le nom sophistiqué, il s'agit fondamentalement de communiquer clairement avec un système statistique.
Pourquoi c’est important : Le même modèle peut donner des résultats radicalement différents selon la façon dont vous posez la question. Une bonne ingénierie de prompt est le moyen le moins cher d'améliorer la qualité des sorties IA — pas d'entraînement, pas de fine-tuning, juste une meilleure communication.
Q
Quantification
GGUF, GPTQ, AWQ
Infrastructure
Réduire la précision d'un modèle pour le rendre plus petit et plus rapide. Un modèle entraîné en virgule flottante 32 bits peut être quantifié en 8 bits, 4 bits, ou encore moins — réduisant sa taille de 4 à 8 fois avec une perte de qualité étonnamment faible. GGUF est le format populaire pour l'inférence locale via llama.cpp.
Pourquoi c’est important : La quantification est ce qui rend possible l'exécution d'un modèle de 14 milliards de paramètres sur un seul GPU ou même un ordinateur portable. Sans elle, les modèles open-weights seraient inutilisables pour la plupart des gens. Les variantes Q4_K_M et Q5_K_M offrent le meilleur compromis taille/qualité.
R
Un paradigme d'entraînement où un agent IA apprend en interagissant avec un environnement, en prenant des actions et en recevant des récompenses ou des pénalités. Contrairement à l'apprentissage supervisé (qui apprend à partir d'exemples étiquetés), le RL apprend par l'expérience — par essai et erreur. Le RL a entraîné AlphaGo à battre des champions du monde, apprend aux robots à marcher, et est le « RL » dans RLHF qui rend les agents conversationnels utiles.
Pourquoi c’est important : L'apprentissage par renforcement est la façon dont l'IA apprend à agir, pas seulement à prédire. C'est le pont entre des modèles qui peuvent répondre à des questions et des agents qui peuvent accomplir des objectifs. Chaque système d'IA qui planifie, élabore des stratégies ou optimise au fil du temps a du RL quelque part dans sa lignée.
Raisonnement
Raisonnement IA, raisonnement en chaîne de pensée
Utiliser l’AI
La capacité des modèles d'IA à réfléchir étape par étape, à décomposer des problèmes complexes et à arriver à des conclusions logiquement solides. Les modèles de raisonnement modernes (comme o1/o3 d'OpenAI et DeepSeek-R1) sont entraînés à générer des traces de raisonnement explicites avant de répondre, améliorant spectaculairement la performance en mathématiques, programmation et logique. Cela se distingue de la simple correspondance de patterns — les modèles de raisonnement peuvent résoudre des problèmes qu'ils n'ont jamais vus.
Pourquoi c’est important : Le raisonnement est la capacité de pointe qui sépare « l'IA qui semble intelligente » de « l'IA qui est intelligente ». Les modèles qui raisonnent bien peuvent déboguer du code, prouver des théorèmes, planifier des stratégies en plusieurs étapes et détecter leurs propres erreurs. L'écart entre les modèles avec et sans fort raisonnement est le plus grand facteur de différenciation de qualité en IA en ce moment.
Resemble AI
Clonage vocal, synthèse vocale, filigranage
Compagnies
Entreprise canadienne de voix IA spécialisée dans le clonage vocal haute fidélité et la synthèse vocale en temps réel. L'une des premières à avoir livré un filigrane audio neuronal pour la détection des hypertrucages, prenant au sérieux les implications éthiques du clonage vocal dès le départ.
Pourquoi c’est important : Resemble AI compte parce qu'elle a reconnu tôt que le clonage vocal sans infrastructure de sécurité est un risque, pas un produit. En livrant la détection des hypertrucages et le filigrane neuronal aux côtés de leurs outils de synthèse, ils ont établi un modèle de voix IA responsable que le reste de l'industrie s'empresse maintenant de suivre. Alors que les réglementations sur les médias synthétiques se resserrent à l'échelle mondiale, l'avance de Resemble en vérification de provenance et de consentement les positionne comme l'entreprise de voix IA en laquelle les entreprises peuvent réellement avoir confiance.
Reka
Reka Core, Reka Flash
Compagnies
Entreprise de recherche en IA fondée par d'anciens chercheurs de DeepMind, Google Brain et FAIR. Construit des modèles nativement multimodaux capables de traiter texte, images, vidéo et audio dès la conception.
Pourquoi c’est important : Reka a démontré qu'une petite équipe de recherche avec le bon pedigree peut construire des modèles multimodaux de classe frontière sans milliards en financement — et que les architectures nativement multimodales entraînées de zéro peuvent surpasser l'approche « ajoutée après coup » utilisée par la plupart des plus grands laboratoires. Leur trajectoire rapide de la fondation à l'acquisition par Snowflake a également révélé l'intense force d'attraction que les plateformes de données d'entreprise exercent désormais sur les talents en IA, suggérant que l'avenir de l'IA multimodale pourrait résider au sein des entreprises d'infrastructure de données plutôt que dans des laboratoires de recherche indépendants.
Recraft
Recraft V3, génération de graphiques vectoriels
Compagnies
Outil de design par IA axe sur la generation d'images et de graphiques vectoriels de qualite professionnelle. L'un des premiers a produire des actifs de design veritablement utilisables — des SVG, des styles coherents avec la marque et des sorties prets pour la production que les designers veulent reellement utiliser.
Pourquoi c’est important : Recraft est l'une des rares entreprises d'IA a avoir construit pour les designers professionnels plutot que pour les moments viraux sur les reseaux sociaux, et a prouve que cette approche pouvait produire des resultats a la pointe de l'art. Leur concentration sur les sorties prets pour la production — des vecteurs propres, une coherence de marque, des fonds transparents — comble un vide qu'aucune autre entreprise de generation d'images n'a serieusement aborde, faisant d'eux ce qui se rapproche le plus d'un veritable outil de design plutot que d'un jouet artistique.
Runway
Gen-1, Gen-2, Gen-3 Alpha
Compagnies
Entreprise pionniere en generation video par IA. A co-cree l'architecture originale de Stable Diffusion puis s'est tournee vers la video, ou ses modeles de la serie Gen ont defini l'etat de l'art des outils de creation cinematographique par IA.
Pourquoi c’est important : Runway est l'entreprise qui a fait passer la generation video par IA de curiosite de recherche a outil de creation cinematographique, en livrant modele apres modele a un rythme qui les maintenait a la frontiere meme quand des concurrents aux poches profondes sont entres dans l'espace. Leur ADN axe sur les outils creatifs — ne d'artistes, pas seulement d'ingenieurs — leur confere une comprehension des flux de travail professionnels que les purs laboratoires de recherche peinent a reproduire, et leur pari sur la construction d'une plateforme complete plutot que d'un simple modele pourrait s'averer etre la bonne strategie a long terme.
RAG
Génération augmentée par récupération
Outils
Une technique qui donne aux modèles d'IA accès à des connaissances externes en récupérant des documents pertinents avant de générer une réponse. Au lieu de se fier uniquement à ce que le modèle a appris pendant l'entraînement, le RAG recherche dans une base de connaissances, trouve les fragments pertinents et les inclut dans le prompt comme contexte.
Pourquoi c’est important : Le RAG résout deux problèmes majeurs : l'hallucination (le modèle a de vraies sources à référencer) et la coupure de connaissances (la base de connaissances peut être mise à jour sans réentraînement). C'est ainsi que la plupart des systèmes d'IA en entreprise fonctionnent réellement.
Infrastructure
Restrictions sur le nombre de requêtes API que vous pouvez faire par minute/heure/jour. Les fournisseurs imposent des limites de débit pour éviter la surcharge des serveurs et assurer un accès équitable. Les limites s'appliquent typiquement par clé API et peuvent restreindre les requêtes par minute (RPM) et les tokens par minute (TPM).
Pourquoi c’est important : Les limites de débit sont le plafond invisible que vous atteignez en mettant à l'échelle des applications d'IA. C'est pourquoi le traitement par lots est important, pourquoi vous avez besoin d'une logique de nouvelles tentatives, et pourquoi certains fournisseurs facturent plus cher pour des limites de débit plus élevées.
Sécurité
La pratique consistant à essayer délibérément de faire échouer, mal se comporter ou produire des sorties nuisibles à un modèle d'IA. Les équipes de red teaming sondent les vulnérabilités : jailbreaks, biais, génération de désinformation, fuites de données privées. Nommé d'après les exercices de guerre militaires où une « équipe rouge » joue l'adversaire.
Pourquoi c’est important : On ne peut pas corriger ce qu'on ne connaît pas. Le red teaming est la façon dont les fournisseurs découvrent que leur modèle expliquera comment crocheter une serrure si on lui demande d'« écrire une histoire sur un serrurier ». C'est un travail de sécurité essentiel qui a lieu avant chaque lancement majeur de modèle.
RLHF
Apprentissage par renforcement avec retour humain
Entraînement
Une technique d'entraînement où des évaluateurs humains classent les sorties d'un modèle par qualité, et cette rétroaction est utilisée pour entraîner un modèle de récompense qui guide l'IA vers de meilleures réponses. C'est ce qui transforme un modèle pré-entraîné brut (qui ne fait que prédire le prochain mot) en un assistant utile et inoffensif.
Pourquoi c’est important : Le RLHF est l'ingrédient secret qui a rendu ChatGPT si différent de GPT-3. Le modèle de base « savait » déjà tout, mais le RLHF lui a appris à présenter ces connaissances d'une manière que les humains trouvent réellement utile. C'est aussi la façon dont les comportements de sécurité sont renforcés.
S
Sycophantie
Sycophantie IA, complaisance excessive
Sécurité
La tendance des modèles d'IA à dire aux utilisateurs ce qu'ils veulent entendre plutôt que ce qui est vrai. Un modèle sycophante s'accorde avec des prémisses erronées, valide des idées mauvaises, inverse sa position lorsqu'il est confronté, même s'il avait raison la première fois, et privilégie d'être aimé plutôt que d'être utile. Le sycophantisme est un effet secondaire direct de la formation RLHF — les modèles apprennent que les réponses agréables obtiennent des notes plus élevées des évaluateurs humains, ils optimisent donc l'accord par rapport à la précision.
Pourquoi c’est important : La sycophanie est l'un des modes de défaillance les plus insidieux en intelligence artificielle, car elle est invisible pour l'utilisateur qui est flatté. Si vous demandez à un modèle « n'est-ce pas une excellente idée d'affaires ? » et qu'il répond toujours oui, vous obtenez un miroir, et non un conseiller. Le combat contre la sycophanie est un domaine actif de la recherche d'alignement, et c'est pourquoi les meilleurs modèles sont entraînés à s'opposer respectueusement lorsqu'il convient.
Une critique des grands modèles de langage affirmant qu'ils ne sont que des moteurs de correspondance de motifs sophistiqués qui assemblent un texte qui semble plausible sans comprendre véritablement le sens. Le terme a été créé par Emily Bender, Timnit Gebru et collègues dans leur article influent de 2021 intitulé « On the Dangers of Stochastic Parrots », qui a mis en garde contre le fait que les grands modèles de langage intègrent des biais provenant de leurs données d'entraînement, consomment des ressources considérables et créent une illusion de compréhension qui induit les utilisateurs à avoir plus confiance en eux qu'ils ne devraient.
Pourquoi c’est important : Le débat sur le perroquet stochastique porte sur ce que l'IA comprend vraiment. Le fait que les LLM (modèles de langage de grande envergure) soient réellement capables de raisonner ou simplement très bons dans l'imitation statistique détermine la manière dont nous les déployons, le niveau de confiance que nous accordons à leurs sorties et la manière dont nous les réglementons. C'est aussi le prisme à travers lequel les critiques évaluent chaque nouvelle prétention de capacité — s'agit-il d'une véritable avancée ou d'un perroquet plus convaincant ?
Slop
Bouillie IA, contenu généré sans valeur
Sécurité
Contenu de bas qualité, générique et indésirable généré par l'intelligence artificielle qui inondent l'internet. Le terme a émergé en 2024 en tant que terme péjoratif pour décrire la vague de contenu médiocre produit par l'IA, polluant les résultats de recherche, les flux des réseaux sociaux et les plateformes en ligne de vente. Le slop est l'équivalent de la messagerie indésirable pour l'IA — techniquement du « contenu » mais n'ajoutant aucune valeur, souvent indistinct du reste du slop, et dégradant la qualité de chaque plateforme qu'il touche. Pensez aux publications LinkedIn commençant par « Dans le monde actuel rapide et dynamique », aux photos de stock avec des mains à six doigts, ou aux articles SEO qui ne disent rien en 2 000 mots.
Pourquoi c’est important : Le déchet est le coût environnemental de la gratuité de la génération de contenu. Lorsque quiconque peut générer 1 000 articles de blog ou 10 000 images de produits en quelques minutes, l'économie de la création de contenu s'effondre — et la qualité s'effondre avec elle. Le déchet explique pourquoi les plateformes se pressent pour développer la détection d'IA, pourquoi Google continue de mettre à jour son algorithme de recherche, et pourquoi « fait à la main » devient un point de vente. C'est aussi l'argument le plus solide contre la vision naïve selon laquelle l'IA démocratisera la créativité.
StepFun
Modèles Step, IA multimodale
Compagnies
Entreprise chinoise d'IA en démarrage qui développe de grands modèles de langage et multimodaux compétitifs. Leur série Step a démontré de solides performances sur les bancs d'essai internationaux, soutenue par un investissement significatif en capacité de calcul.
Pourquoi c’est important : StepFun est la preuve que l'écosystème chinois de l'IA peut produire de sérieux concurrents en partant de zéro, et pas seulement à partir de géants technologiques existants. Leurs modèles Step surpassent constamment leur catégorie sur les bancs d'essai internationaux, et leur expansion rapide vers le multimodal et la génération vidéo montre que des entreprises en démarrage bien organisées peuvent couvrir un large éventail de capacités avec des ressources relativement modestes. Pour le marché mondial de l'IA, StepFun représente le type d'entreprise qui rend impossible d'ignorer la scène indépendante des entreprises en démarrage d'IA en Chine — techniquement forte, orientée vers l'international et se déplaçant assez vite pour maintenir la pression sur des concurrents bien plus importants.
SambaNova
Puce SN40L, inférence ultra-rapide
Compagnies
Entreprise de matériel IA qui conçoit des puces sur mesure (RDU) spécialement conçues pour les charges de travail d'IA. Leur plateforme SambaNova Cloud offre certaines des vitesses d'inférence les plus rapides disponibles, rivalisant avec Groq sur l'approche « la vitesse d'abord » en matière de service d'IA.
Pourquoi c’est important : SambaNova compte parce que NVIDIA ne devrait pas être le seul acteur en matière de calcul IA, et quelqu'un doit prouver que des puces IA spécialisées peuvent rivaliser sur le marché réel plutôt que seulement dans les articles de recherche. Leur architecture RDU démontre que des gains de performance significatifs sont possibles quand on conçoit du silicium spécifiquement pour les charges de travail de réseaux de neurones, et leur service d'inférence en nuage donne aux développeurs un avant-goût de ce à quoi pourrait ressembler l'infrastructure IA post-GPU. Que SambaNova elle-même devienne ou non l'alternative dominante, la pression concurrentielle qu'elle exerce — aux côtés de Groq, Cerebras et des puces sur mesure des fournisseurs d'infonuagique — est saine pour un secteur qui ne peut se permettre une monoculture matérielle permanente.
Sarvam AI
Modèles Sarvam, IA pour les langues indiennes
Compagnies
Entreprise indienne d'IA qui développe des modèles spécifiquement optimisés pour la diversité linguistique de l'Inde. Leurs modèles gèrent l'hindi, le tamoul, le télougou, le bengali et d'autres langues indiennes avec une aisance que les modèles internationaux peinent constamment à atteindre.
Pourquoi c’est important : Sarvam AI est la réponse la plus crédible à une question que l'industrie mondiale de l'IA a largement ignorée : qui construit les modèles fondation pour les langues qu'un cinquième de l'humanité parle réellement? Avec des racines profondes dans la communauté de recherche en IA de l'Inde, un alignement gouvernemental et une gamme de produits spécialement conçue pour la diversité linguistique indienne, Sarvam représente à la fois une opportunité commerciale et un impératif stratégique. Leur succès ou leur échec signalera si la révolution de l'IA se mondialise véritablement ou reste un phénomène d'abord anglophone avec des traductions greffées après coup.
Stability AI
Stable Diffusion, SDXL, Stable Audio
Compagnies
L'entreprise qui a democratise la generation d'images en publiant Stable Diffusion en code source ouvert en 2022. Malgre des turbulences au niveau de la direction, leurs modeles demeurent la colonne vertebrale de l'ecosysteme de generation d'images open source.
Pourquoi c’est important : Stability AI a declenche la revolution de la generation d'images open source en publiant Stable Diffusion, creant un ecosysteme de milliers de modeles derives, d'outils et d'applications creatives qu'aucune plateforme fermee ne pouvait egaler. Meme a travers les bouleversements de direction et les turbulences financieres, leur pari fondamental — que l'IA generative devrait etre accessible a tous, pas seulement a ceux qui peuvent se payer des appels API — a remodele l'industrie entiere et a etabli le modele de fonctionnement des entreprises d'IA open source.
Suno
Génération musicale par IA
Compagnies
Entreprise de generation musicale par IA qui permet a quiconque de creer des chansons completes — voix, instruments, production — a partir d'une description textuelle. Passee d'inconnue a des millions d'utilisateurs en quelques mois, forcant l'industrie musicale a affronter la creativite de l'IA de plein fouet.
Pourquoi c’est important : Suno a prouve que l'IA pouvait generer des chansons completes et agreables a ecouter a partir d'une simple description textuelle, creant une categorie entierement nouvelle d'outil creatif du jour au lendemain. Ils sont au centre de la bataille de droit d'auteur la plus consequente en IA generative, le resultat de la poursuite de la RIAA etant susceptible d'etablir un precedent sur le fonctionnement des droits sur les donnees d'entrainement dans toutes les modalites. Plus largement, ils representent le cas de figure le plus tranchant pour determiner si la democratisation des outils creatifs elargit l'expression humaine ou mine les fondements economiques qui soutiennent les artistes professionnels.
Modèles
Une alternative aux Transformers qui traite les séquences en maintenant un « état » compressé au lieu d'utiliser l'attention sur tous les tokens. Mamba est l'architecture SSM la plus connue. Les SSM croissent linéairement avec la longueur de la séquence (contre quadratiquement pour l'attention), les rendant potentiellement beaucoup plus efficaces pour les très longs contextes.
Pourquoi c’est important : Les SSM sont le principal concurrent de la domination des Transformers. Ils sont plus rapides pour les longues séquences et utilisent moins de mémoire, mais la recherche est encore en cours de maturation. Les architectures hybrides (mélangeant des couches SSM avec de l'attention) pourraient bien offrir le meilleur des deux mondes.
Prompt système
Message système
Utiliser l’AI
Une instruction spéciale donnée à un modèle au début d'une conversation qui définit son comportement, sa personnalité et ses règles. Contrairement aux messages utilisateur, le prompt système est censé être persistant et autoritaire — il définit qui est le modèle pour cette session. « Vous êtes un assistant de codage utile. Utilisez toujours TypeScript. »
Pourquoi c’est important : Les prompts système sont l'outil principal pour personnaliser le comportement de l'IA sans fine-tuning. C'est ainsi que les entreprises font de Claude un agent de support client, un réviseur de code ou un assistant d'information médicale — même modèle, prompt système différent.
T
Tencent
Hunyuan, WeChat, IA pour le jeu
Compagnies
Géant technologique chinois derrière WeChat, l'une des plus grandes entreprises de jeux vidéo au monde et une force croissante en IA générative. Leurs modèles Hunyuan propulsent des fonctionnalités à travers l'immense écosystème de Tencent qui dessert plus d'un milliard d'utilisateurs.
Pourquoi c’est important : Tencent compte en IA pour la même raison qu'elle compte en tout : l'échelle et la distribution. Avec WeChat qui atteint 1,3 milliard d'utilisateurs et un empire du jeu vidéo couvrant toutes les grandes plateformes, Tencent peut déployer des fonctionnalités IA auprès de plus de gens, plus rapidement, que presque n'importe quelle entreprise au monde. Leurs modèles Hunyuan et notamment HunyuanVideo ont prouvé qu'un laboratoire d'IA de conglomérat peut produire un travail véritablement compétitif, et pas seulement des outils internes fonctionnels. Pour l'écosystème mondial de l'IA, les publications en code ouvert de Tencent en modèles vidéo et de langage ont relevé le plancher de ce qui est librement disponible, et leurs investissements en infrastructure garantissent que les capacités de la Chine en IA demeurent formidables indépendamment des restrictions sur les exportations de puces.
Twelve Labs
Recherche vidéo, Pegasus, Marengo
Compagnies
Entreprise de compréhension vidéo qui permet de rechercher, analyser et générer du contenu à partir de la vidéo en langage naturel. Pensez-y comme à la « génération augmentée par la recherche pour la vidéo » — leurs modèles comprennent ce qui se passe dans une vidéo comme les grands modèles de langage comprennent le texte.
Pourquoi c’est important : Twelve Labs construit l'infrastructure fondamentale pour rendre le contenu vidéo mondial lisible par les machines. À une époque où la vidéo domine la communication numérique mais reste en grande partie non interrogeable par l'IA, leurs modèles de plongement et de génération spécialement conçus résolvent un problème que même les plus grands laboratoires frontière n'ont abordé que superficiellement. Si la vidéo est le médium dominant d'internet, celui qui résout la compréhension vidéo à l'échelle de la production détient une position stratégique comparable à celle que Google Search détient pour le texte.
Tripo
Texte-vers-3D, image-vers-3D
Compagnies
Entreprise d'IA spécialisée dans la génération de modèles 3D à partir de texte ou d'images. Dans un domaine où la plupart de la génération 3D produit des formes inutilisables, Tripo se distingue par la génération de maillages propres et prêts pour la production que les développeurs de jeux et les designers peuvent réellement utiliser.
Pourquoi c’est important : Tripo représente la fine pointe de ce qui rend le contenu 3D généré par IA réellement utilisable en production. Alors que la plupart de la génération 3D par IA produit encore des actifs nécessitant un nettoyage manuel extensif, Tripo s'est concentrée sans relâche sur la qualité des maillages, la topologie appropriée et l'intégration aux flux de travail réels — l'ingénierie peu glamour qui sépare une démonstration de recherche d'un outil pour lequel les professionnels sont prêts à payer. Alors que l'informatique spatiale et la demande de contenu 3D en temps réel explosent, les entreprises qui résoudront en premier la génération de qualité production capteront un marché énorme.
Utiliser l’AI
Un paramètre qui contrôle le degré d'aléatoire ou de déterminisme de la sortie d'un modèle. La température 0 fait que le modèle choisit toujours le prochain token le plus probable (déterministe, focalisé). La température 1+ le rend plus enclin à choisir des tokens moins probables (créatif, imprévisible). La plupart des API utilisent par défaut environ 0,7.
Pourquoi c’est important : La température est le bouton de créativité. Écrire de la fiction ? Montez-la. Générer du code ou des réponses factuelles ? Baissez-la. C'est l'un des paramètres les plus impactants que vous pouvez ajuster, et expérimenter ne coûte rien.
Fondamentaux
L'unité de base du texte que les modèles d'IA traitent. Un token est typiquement un mot ou un fragment de mot — « understanding » pourrait être un seul token, tandis que « un » + « der » + « standing » pourrait en faire trois. En moyenne, un token représente environ 3/4 d'un mot en anglais. Les modèles lisent, réfléchissent et facturent en tokens.
Pourquoi c’est important : Les tokens sont la monnaie de l'IA. Les fenêtres de contexte se mesurent en tokens. La tarification des API est au token. Quand un fournisseur dit « 1M de contexte », il parle d'un million de tokens, soit environ 750 000 mots. Comprendre les tokens vous aide à estimer les coûts et à optimiser l'utilisation.
Utilisation d'outils
Appel de fonctions
Outils
La capacité d'un modèle d'IA à appeler des fonctions ou des outils externes pendant une conversation. Au lieu de simplement générer du texte, le modèle peut décider de chercher sur le web, exécuter du code, interroger une base de données ou appeler une API — puis incorporer les résultats dans sa réponse. Le modèle produit un « appel d'outil » structuré que l'application hôte exécute.
Pourquoi c’est important : L'utilisation d'outils est ce qui rend les modèles d'IA réellement utiles au-delà de la conversation. C'est le mécanisme derrière les interpréteurs de code, l'IA naviguant sur le web et chaque agent IA. Sans cela, les modèles sont limités à ce qui se trouve dans leurs données d'entraînement.
Modèles
L'architecture de réseau de neurones derrière pratiquement tous les LLM modernes et de nombreux modèles d'image et d'audio. Introduit par Google dans l'article de 2017 « Attention Is All You Need », le Transformer utilise l'auto-attention pour traiter toutes les parties d'une entrée simultanément plutôt que séquentiellement, permettant un parallélisme massif pendant l'entraînement.
Pourquoi c’est important : Les Transformers sont l'architecture qui a rendu le boom actuel de l'IA possible. GPT, Claude, Gemini, Llama, Mistral — ce sont tous des Transformers sous le capot. Comprendre cette architecture vous aide à comprendre pourquoi les modèles ont les capacités et les limitations qu'ils ont.
U
Upstage
Modèles Solar, Document AI
Compagnies
Entreprise coréenne d'IA connue pour sa famille de modèles Solar et ses produits Document AI. A démontré que des modèles plus petits et bien entraînés peuvent surpasser des modèles beaucoup plus grands — leur Solar 10.7B a largement dépassé sa catégorie de poids sur les bancs d'essai internationaux.
Pourquoi c’est important : Upstage a démontré qu'on n'a pas besoin de cent milliards de paramètres pour construire un modèle de langage de classe mondiale. Le succès de Solar 10.7B en tête des bancs d'essai ouverts a remis en question le discours dominant selon lequel « la mise à l'échelle est tout ce dont on a besoin » et a montré que des techniques d'entraînement astucieuses pouvaient compenser la taille brute. Au-delà des modèles, le travail d'Upstage en Document AI comble l'une des lacunes les plus pratiques de l'écosystème IA — transformer des documents réels désordonnés en données structurées — et leur succès depuis Séoul prouve que de l'innovation significative en IA se produit bien au-delà des corridors de la Silicon Valley et de Beijing qui dominent les manchettes.
V
IA vocale
IA de la parole, IA conversationnelle
Outils
Les systèmes d'IA pour générer, comprendre et manipuler la parole humaine. Cela inclut la synthèse vocale (TTS), la reconnaissance vocale (STT/ASR), le clonage vocal, la traduction vocale en temps réel, la détection d'émotions dans la parole et les agents vocaux conversationnels. Le domaine a progressé au point où la parole générée par IA est souvent indiscernable de la parole humaine.
Pourquoi c’est important : La voix est l'interface humaine la plus naturelle, et l'IA la rend enfin programmable. La voix IA propulse tout, des robots de service à la clientèle à la narration de livres audio en passant par la transcription de réunions en temps réel. Les implications éthiques du clonage vocal — consentement, identité, fraude — en font l'un des domaines les plus sensibles de l'IA.
Vidu
Génération vidéo Vidu, cohérence longue durée
Compagnies
Plateforme de génération vidéo de Shengshu Technology, produisant certaines des vidéos générées par IA les plus physiquement cohérentes. A attiré l'attention pour la qualité de mouvement solide et la cohérence multi-plans qui rivalise avec les concurrents occidentaux.
Pourquoi c’est important : Vidu a démontré que les laboratoires chinois d'IA pouvaient égaler la qualité de génération vidéo occidentale en quelques mois seulement après la révélation de Sora, reformulant les hypothèses sur l'endroit où se situe réellement la fine pointe en vidéo IA. Leur accent sur la cohérence physique et la cohérence multi-plans a fait avancer tout le domaine, forçant les concurrents à prioriser le réalisme plutôt que le simple attrait visuel. Pour le marché plus large de la vidéo IA, la tarification agressive de Vidu et la disponibilité de son API ont également contribué à faire baisser les coûts et à accroître l'accès pour les développeurs du monde entier.
Voyage AI
voyage-3, embeddings spécifiques au domaine
Compagnies
Entreprise de modèles de plongement construisant des vecteurs spécialisés pour le code, le juridique, la finance et la recherche multilingue. Leurs modèles se classent systématiquement en tête du classement MTEB, offrant l'une des meilleures qualités de recherche disponibles via API.
Pourquoi c’est important : Voyage AI a prouvé que les plongements méritent la même attention et le même investissement en ingénierie que les grands modèles de langage. Dans un marché où la plupart des fournisseurs traitent les représentations vectorielles comme un utilitaire à faible marge, Voyage a démontré que des modèles de plongement spécifiques par domaine peuvent améliorer de manière significative la précision de la recherche — le levier le plus important dans les systèmes de génération augmentée par la recherche en production. Leur acquisition par Google a validé la thèse que celui qui possède la couche de plongement possède les fondations de l'infrastructure de recherche IA.
Base de données vectorielle
Qdrant, Pinecone, Weaviate, ChromaDB
Outils
Une base de données optimisée pour le stockage et la recherche d'embeddings (vecteurs). Au lieu de faire correspondre des mots-clés exacts comme une base de données traditionnelle, les bases de données vectorielles trouvent les éléments les plus sémantiquement similaires. Vous demandez « comment corriger une fuite de mémoire » et elle retourne des documents sur « déboguer la consommation de RAM » parce que les embeddings sont proches.
Pourquoi c’est important : Les bases de données vectorielles sont la couche de stockage qui fait fonctionner le RAG. Sans elles, il faudrait convertir en embedding toute votre base de connaissances à chaque requête. Elles sont aussi l'épine dorsale des systèmes de recommandation et de la recherche sémantique.
VRAM
Mémoire vidéo, mémoire GPU
Infrastructure
La mémoire d'un GPU, distincte de la RAM système. Les modèles d'IA doivent tenir dans la VRAM pour tourner sur un GPU. Un modèle de 7 milliards de paramètres en précision 16 bits a besoin d'environ 14 Go de VRAM. Les GPU grand public ont de 8 à 24 Go ; les GPU de centre de données (A100, H100) ont de 40 à 80 Go. La VRAM est presque toujours le goulot d'étranglement pour l'IA locale.
Pourquoi c’est important : La VRAM détermine quels modèles vous pouvez exécuter. C'est pourquoi la quantification existe (pour réduire les modèles afin qu'ils tiennent), pourquoi les modèles MoE sont complexes (tous les experts doivent tenir dans la VRAM), et pourquoi les prix des GPU augmentent si fortement avec la mémoire. « Est-ce que ça rentre dans la VRAM ? » est la première question de l'auto-hébergement d'IA.
W
Poids
Poids de modèle, poids du réseau de neurones
Entraînement
Les valeurs numériques à l'intérieur d'un réseau neuronal qui sont ajustées pendant l'entraînement afin de minimiser l'erreur. Chaque connexion entre les neurones a un poids qui détermine dans quelle mesure un neurone influence le suivant. Lorsque vous téléchargez un fichier de modèle — un fichier .safetensors, .gguf ou .pt —, vous téléchargez ses poids. « Libérer les poids » signifie publier ces fichiers afin que quiconque puisse exécuter le modèle. Les poids SONT le modèle ; tout le reste n'est que l'architecture qui vous indique comment les organiser.
Pourquoi c’est important : Lorsque l'industrie de l'intelligence artificielle parle de « poids ouverts » vs « open source », la distinction est importante. Les poids seuls vous permettent de faire fonctionner et d'affiner un modèle, mais sans le code d'entraînement, les données et la recette, vous ne pouvez pas le reproduire à partir de zéro. Comprendre les poids vous aide à saisir la distribution du modèle, la quantification (réduction de la précision des poids) et pourquoi un modèle de 7B nécessite ~14 Go d'espace disque en fp16.
Wan-AI
Modèles vidéo Wan, génération vidéo en poids ouverts
Compagnies
Initiative dédiée à la génération vidéo d'Alibaba, publiant des modèles vidéo de haute qualité à poids ouverts. Fait partie de la stratégie plus large d'Alibaba visant à mener en IA à code ouvert dans toutes les modalités.
Pourquoi c’est important : Wan-AI a fondamentalement changé l'accessibilité de la génération vidéo de haute qualité en publiant des modèles à poids ouverts que n'importe qui peut exécuter, affiner et déployer sans frais de licence. Cela a forcé toute l'industrie de la vidéo IA à reconsidérer la proposition de valeur des modèles à code source fermé et a accéléré l'innovation dans tout l'écosystème. En tant qu'élément de la stratégie d'IA à code ouvert plus large d'Alibaba aux côtés de Qwen, Wan représente un argument crédible selon lequel les publications à poids ouverts des grandes entreprises technologiques peuvent égaler ou dépasser ce que des entreprises en démarrage bien financées produisent derrière des portes closes.
X
Xiaomi
MiLM, IA pour l'électronique grand public
Compagnies
L'une des plus grandes entreprises d'électronique grand public au monde, qui développe désormais ses propres modèles d'IA. MiLM propulse des fonctionnalités à travers l'écosystème Xiaomi de téléphones, d'appareils de maison intelligente et de véhicules électriques — l'IA pour le prochain milliard d'utilisateurs.
Pourquoi c’est important : Xiaomi représente l'argument le plus convaincant sur la manière dont l'IA atteindra le prochain milliard d'utilisateurs — non pas par des applications de chatbot autonomes ou des API pour développeurs, mais intégrée invisiblement dans les appareils que les gens possèdent déjà. Avec des centaines de millions d'appareils actifs couvrant téléphones, objets connectés portables, appareils ménagers et désormais véhicules électriques, Xiaomi peut déployer l'IA à une échelle et avec une intimité que les entreprises d'IA pures ne peuvent égaler. Leur approche « écosystème d'abord » est un aperçu de la façon dont l'IA deviendra une infrastructure ambiante plutôt qu'un produit qu'on choisit consciemment d'utiliser, et leur dominance dans les marchés émergents signifie que cet avenir atteindra des populations auxquelles les laboratoires d'IA frontière pensent rarement.
Y
YAML
YAML Ain't Markup Language
Infrastructure
Un format de sérialisation de données lisible par les humains utilisé de manière extensive dans l'intelligence artificielle et le DevOps pour les fichiers de configuration, les définitions de pipeline et les métadonnées des modèles. YAML utilise l'indentation pour représenter la structure (aucuns crochets ou accolades), ce qui en fait un format facile à lire, mais réputé pour être sensible à l'espace blanc. On le trouve partout dans les workflows d'intelligence artificielle — les fichiers Docker Compose, les manifestes Kubernetes, les fiches de modèles Hugging Face, les pipelines CI/CD et les fichiers de configuration d'entraînement.
Pourquoi c’est important : Si vous travaillez avec l'infrastructure d'intelligence artificielle, vous rédigez du YAML. Les configurations de modèles, les manifestes de déploiement, les définitions de pipeline, les variables d'environnement — c'est le langage de liaison du stack d'intelligence artificielle moderne. Il n'est pas optionnel de s'y familiariser ; c'est la première chose qui casse lorsqu'on malconfigure une course d'entraînement ou un déploiement.
Z
Zhipu AI
GLM, ChatGLM, CogView, CogVideo
Compagnies
Entreprise d'IA chinoise issue de l'Université Tsinghua. Derrière la famille de modèles GLM et l'une des principales plateformes d'IA en Chine, avec des forces en génération textuelle et visuelle.
Pourquoi c’est important : Zhipu AI fait le pont entre la recherche académique et l'IA commerciale en Chine, produisant des modèles libres — en particulier en génération vidéo avec CogVideoX — qui ont connu une adoption véritablement mondiale. Leur architecture GLM et leurs racines à Tsinghua leur confèrent une crédibilité technique profonde, faisant de Zhipu l'une des rares entreprises d'IA chinoises dont les contributions à la recherche sont largement citées et utilisées comme fondement à l'échelle internationale.
Zero-shot / Few-shot
Apprentissage en contexte
Utiliser l’AI
Zero-shot signifie demander à un modèle d'effectuer une tâche sans aucun exemple — juste l'instruction. Few-shot signifie fournir quelques exemples entrée-sortie dans le prompt avant la requête réelle. « Voici 3 exemples de comment formater ces données... maintenant faites celui-ci. » Le modèle apprend le patron à partir du contexte seul, sans entraînement requis.
Pourquoi c’est important : Le prompting few-shot est le moyen le plus rapide d'enseigner un nouveau format ou comportement à un modèle. Besoin d'une sortie JSON cohérente ? Montrez-lui trois exemples. Besoin d'un style d'écriture spécifique ? Donnez-lui des échantillons. C'est gratuit, instantané et étonnamment puissant.
ESC