Hume AI fue fundada en 2021 por Alan Cowen, un exinvestigador de Google que había pasado años estudiando la ciencia de la emoción en UC Berkeley y Google. El trabajo académico de Cowen mapeó la expresión emocional humana con una granularidad notable — su investigación identificó más de 28 categorías distintas de emoción vocal y construyó datasets a gran escala para entrenar modelos en ellas. Hume fue la comercialización de esa investigación, construida sobre una tesis que la mayoría de la IA ignora completamente: cómo se dice algo importa tanto como lo que se dice. La empresa tiene sede en Nueva York y ha atraído atención seria tanto de inversores como de especialistas en ética.
El producto insignia de Hume es la Empathic Voice Interface (EVI), un sistema de voz con IA que escucha no solo las palabras sino el contenido emocional codificado en la prosodia, el tono, el ritmo y la textura vocal. EVI puede detectar docenas de estados emocionales en tiempo real — frustración, diversión, confusión, confianza, vacilación — y usar esa comprensión para modular sus propias respuestas. En la práctica, esto significa que un agente de IA impulsado por EVI puede notar cuando un usuario se está frustrando y ajustar su tono, ir más lento u ofrecer escalar a un humano. Puede detectar cuando alguien está confundido y reformular sin que se lo pidan. Esto no es análisis de sentimiento añadido como un paso de post-procesamiento; la comprensión emocional está integrada en el bucle central de inferencia del modelo.
Lo que le da a Hume una credibilidad inusual es la profundidad de la ciencia subyacente. Cowen publicó extensamente sobre la percepción emocional antes de fundar la empresa, y los modelos de Hume están entrenados con datasets construidos con protocolos de anotación rigurosos — no etiquetas obtenidas por crowdsourcing en Mechanical Turk, sino evaluaciones estructuradas diseñadas para capturar expresión emocional intercultural. La API de medición de expresión de la empresa puede analizar expresiones faciales, fenómenos vocales (risas, suspiros, exclamaciones) y prosodia del habla simultáneamente, construyendo una imagen multimodal del estado emocional. Han publicado su propia investigación sobre cómo los modelos de emoción pueden evaluarse de manera justa entre demografías, lo cual importa enormemente para una tecnología que fácilmente podría codificar sesgos culturales sobre cómo suena “enojado” o “feliz”.
Hume adopta una postura inusualmente principista sobre cómo debe desplegarse la IA emocional. Publicaron The Hume Initiative, un conjunto de lineamientos éticos para IA emocional que fueron desarrollados en colaboración con investigadores y especialistas en ética antes de que la empresa lanzara sus productos comerciales. Sus lineamientos abordan explícitamente preocupaciones sobre manipulación — el riesgo de que un sistema de IA que entiende tu estado emocional pueda explotarlo para venderte cosas o mantenerte enganchado. La posición de Hume es que la IA emocional debería usarse para mejorar el bienestar humano, no para optimizar métricas de engagement, y han construido guardrails en sus términos de servicio de API para hacer cumplir eso. Si esos guardrails se mantendrán a medida que la empresa escale queda por verse, pero el hecho de que existan los pone muy por delante de la mayoría de las empresas de IA en el frente de responsabilidad.
Hume recaudó $50 millones en una Serie B en 2024, liderada por EQT Ventures, llevando el financiamiento total a más de $67 millones. El mercado al que apuntan es enorme pero naciente: si cada agente de IA, bot de servicio al cliente y asistente virtual eventualmente necesita entender y responder a la emoción, la empresa que proporcione esa capa se convierte en infraestructura crítica. Su competencia no son tanto otras startups de IA emocional — hay pocas con profundidad técnica comparable — sino más bien la posibilidad de que las grandes empresas de foundation models (OpenAI, Google, Anthropic) construyan comprensión emocional directamente en sus modelos base. La apuesta de Hume es que la emoción es lo suficientemente difícil, y la ciencia lo suficientemente específica, como para que una empresa dedicada siempre supere a un modelo de propósito general en esta dimensión. Dado lo mal que la mayoría de la IA actual maneja incluso señales tonales básicas, esa apuesta se ve razonable por ahora.