Hume AI a été fondée en 2021 par Alan Cowen, ancien chercheur chez Google qui avait passé des années à étudier la science des émotions à UC Berkeley et chez Google. Les travaux universitaires de Cowen ont cartographié l'expression émotionnelle humaine avec une granularité remarquable — ses recherches ont identifié plus de 28 catégories distinctes d'émotion vocale et construit des jeux de données à grande échelle pour entraîner des modèles sur celles-ci. Hume était la commercialisation de ces recherches, bâtie sur une thèse que la plupart de l'IA ignore complètement : la manière dont quelque chose est dit compte autant que ce qui est dit. L'entreprise a son siège à New York et a attiré l'attention sérieuse tant des investisseurs que des éthiciens.
Le produit phare de Hume est l'Empathic Voice Interface (EVI), un système vocal IA qui écoute non seulement les mots mais le contenu émotionnel encodé dans la prosodie, le ton, le rythme et la texture vocale. EVI peut détecter des dizaines d'états émotionnels en temps réel — frustration, amusement, confusion, confiance, hésitation — et utiliser cette compréhension pour moduler ses propres réponses. En pratique, cela signifie qu'un agent IA propulsé par EVI peut remarquer quand un utilisateur devient frustré et ajuster son ton, ralentir ou proposer de transférer à un humain. Il peut détecter quand quelqu'un est confus et reformuler sans qu'on le lui demande. Ce n'est pas de l'analyse de sentiment greffée comme étape de post-traitement ; la compréhension émotionnelle est tissée dans la boucle d'inférence centrale du modèle.
Ce qui donne à Hume une crédibilité inhabituelle, c'est la profondeur de la science sous-jacente. Cowen a publié abondamment sur la perception des émotions avant de fonder l'entreprise, et les modèles de Hume sont entraînés sur des jeux de données construits avec des protocoles d'annotation rigoureux — pas des étiquettes externalisées de Mechanical Turk, mais des évaluations structurées conçues pour capturer l'expression émotionnelle interculturelle. L'API de mesure d'expression de l'entreprise peut analyser simultanément les expressions faciales, les vocalisations (rires, soupirs, halètements) et la prosodie du discours, construisant une image multimodale de l'état émotionnel. Ils ont publié leurs propres recherches sur la manière d'évaluer équitablement les modèles d'émotion à travers les groupes démographiques, ce qui est extrêmement important pour une technologie qui pourrait facilement encoder des biais culturels sur ce à quoi ressemble « en colère » ou « heureux ».
Hume adopte une position inhabituellement fondée sur des principes quant à la façon dont l'IA émotionnelle devrait être déployée. Ils ont publié The Hume Initiative, un ensemble de lignes directrices éthiques pour l'IA émotionnelle, élaborées en collaboration avec des chercheurs et des éthiciens avant le lancement de leurs produits commerciaux. Leurs lignes directrices abordent explicitement les préoccupations relatives à la manipulation — le risque qu'un système IA qui comprend votre état émotionnel puisse l'exploiter pour vous vendre des choses ou vous maintenir engagé. La position de Hume est que l'IA émotionnelle devrait être utilisée pour améliorer le bien-être humain, pas pour optimiser les indicateurs d'engagement, et ils ont intégré des garde-fous dans les conditions d'utilisation de leur API pour faire respecter cela. Que ces garde-fous tiennent à mesure que l'entreprise prend de l'ampleur reste à voir, mais le fait qu'ils existent place Hume bien en avance sur la plupart des entreprises d'IA en matière de responsabilité.
Hume a levé 50 millions de dollars en série B en 2024, menée par EQT Ventures, portant le financement total à plus de 67 millions de dollars. Le marché qu'ils visent est énorme mais naissant : si chaque agent IA, robot de service à la clientèle et assistant virtuel finit par avoir besoin de comprendre et de répondre aux émotions, l'entreprise qui fournit cette couche devient une infrastructure essentielle. Leur concurrence ne vient pas tant d'autres entreprises en démarrage en IA émotionnelle — il en existe peu avec une profondeur technique comparable — que de la possibilité que les grandes entreprises de modèles fondation (OpenAI, Google, Anthropic) intègrent la compréhension émotionnelle directement dans leurs modèles de base. Le pari de Hume est que l'émotion est suffisamment complexe, et la science suffisamment spécifique, pour qu'une entreprise dédiée surpasse toujours un modèle polyvalent sur cette dimension. Compte tenu de la piètre gestion des indices tonaux de base par la plupart des IA actuelles, ce pari semble raisonnable pour le moment.