Reka a été fondée en 2023 par Dani Yogatama, Yi Tay et Che Zheng — des chercheurs dont le pedigree collectif se lit comme un tour des laboratoires d'IA les plus importants de la planète. Yogatama a passé des années chez DeepMind à travailler sur la compréhension et le raisonnement en langage naturel. Yi Tay était chercheur principal chez Google Brain (devenu Google DeepMind), reconnu pour ses travaux sur les Transformers efficaces, les lois d'échelle et le modèle unifié UL2. Zheng apportait une expertise approfondie en ingénierie pour la construction de systèmes à grande échelle. La thèse fondatrice était directe mais ambitieuse : la prochaine génération de modèles d'IA ne devrait pas ajouter des capacités multimodales après coup. Au contraire, ils devraient être nativement multimodaux dès le départ — entraînés de zéro pour traiter texte, images, vidéo et audio dans une architecture unifiée. Cette conviction a attiré un financement précoce et une équipe de chercheurs convaincus que l'approche consistant à « ajouter la vision plus tard » utilisée par la plupart des laboratoires était fondamentalement limitante.
La distinction technique que Reka établit est entre les modèles qui sont « multimodaux » parce que quelqu'un a affiné un encodeur de vision par-dessus un modèle textuel, et les modèles qui sont multimodaux parce que de multiples modalités ont été intégrées au pré-entraînement dès le premier jour. Leurs modèles phares — Reka Core, Reka Flash et le plus petit Reka Edge — ont été conçus pour gérer texte, images, vidéo et audio nativement. Ce n'est pas qu'une affirmation marketing ; cela se manifeste dans des capacités comme la compréhension vidéo, où le modèle peut raisonner sur des séquences temporelles plutôt que de simplement légender des images individuelles. Reka Flash, leur modèle de taille intermédiaire, s'est distingué par des performances bien supérieures à sa catégorie sur les indices de référence multimodaux, égalant ou dépassant souvent des modèles plusieurs fois plus gros. L'équipe a publié son rapport technique en avril 2024, montrant des résultats compétitifs face à GPT-4V, Gemini Pro et Claude 3 Sonnet sur une gamme de tâches — une réalisation remarquable pour une entreprise qui avait à peine un an.
Reka a levé une Série A de 58 millions de dollars menée par DST Global et Radical Ventures en 2024, avec la participation de SoftBank et d'investisseurs providentiels notables. Selon les standards des laboratoires d'IA, c'est modeste — le genre de montant qui achète quelques mois de temps GPU sérieux, pas les trésors de guerre de plusieurs milliards qu'OpenAI, Anthropic et xAI ont accumulés. Reka a compensé en étant inhabituellement efficace : leur équipe est restée petite (moins de 30 personnes pendant une grande partie de leur première année), leurs modèles ont été entraînés avec un budget de calcul rigoureux, et ils ont livré des produits rapidement. Ils ont lancé une API et un assistant grand public appelé Reka Playground, mais le véritable enjeu a toujours été les modèles eux-mêmes — offrir de l'IA multimodale de classe frontière aux développeurs et entreprises ayant besoin de plus que du raisonnement textuel uniquement. L'entreprise a également rendu ses modèles plus petits disponibles en poids ouverts, suivant le modèle consistant à utiliser les publications ouvertes pour gagner l'adhésion des développeurs tout en gardant les modèles les plus performants propriétaires.
Mi-2024, des informations ont émergé selon lesquelles Snowflake était en discussions avancées pour acquérir Reka pour environ un milliard de dollars. L'opération avait un sens stratégique des deux côtés : Snowflake avait besoin de capacités d'IA internes pour rivaliser avec Databricks (qui avait acquis MosaicML pour 1,3 milliard de dollars l'année précédente), et Reka avait besoin de la distribution, des ressources de calcul et des relations entreprises qu'une grande plateforme de données pouvait fournir. Pour les fondateurs de Reka, l'acquisition offrait un chemin pour déployer leurs modèles multimodaux à grande échelle au sein du nuage de données de Snowflake, où les clients stockent déjà les données non structurées — images, documents, vidéo — que les modèles multimodaux sont particulièrement aptes à traiter. L'opération soulignait une tendance plus large en IA : les laboratoires de recherche indépendants, aussi talentueux soient-ils, font face à une pression énorme pour soit lever des milliards de manière autonome, soit trouver un ancrage stratégique où leur technologie peut atteindre les clients sans brûler du capital en mise en marché. L'histoire de Reka, de la fondation à l'acquisition en environ dix-huit mois, est l'une des trajectoires les plus rapides de l'histoire des entreprises d'IA.