Reka证明了一个拥有合适背景的小型研究团队无需数十亿美元的资金即可构建前沿级多模态模型——并且从零开始训练的原生多模态架构可以优于大多数大型实验室采用的拼接式方法。他们从成立到被Snowflake收购的快速轨迹也揭示了企业数据平台如今对AI人才的强大吸引力,这表明多模态AI的未来可能存在于数据基础设施公司,而非独立研究实验室中。
Reka 于 2023 年由 Dani Yogatama、Yi Tay 和 Che Zheng 共同创立——这三位研究人员的背景履历堪称全球顶尖 AI 实验室的巡礼。Yogatama 曾在 DeepMind 工作多年,专注于语言理解和推理。Yi Tay 曾是 Google Brain(后为 Google DeepMind)的高级研究员,以在高效 Transformer、扩展定律和 UL2 统一语言学习器方面的研究而闻名。Zheng 则带来了构建大规模系统的深厚工程经验。创始理念简单却雄心勃勃:下一代 AI 模型不应在后期添加多模态功能,而应从一开始就具备原生多模态能力——从底层架构起就统一处理文本、图像、视频和音频。这种信念吸引了早期资金和一批相信“后期添加视觉”方法本质上存在局限性的研究人员。
Reka 在技术上区分的两类模型:一类是“多模态”因为有人在文本模型上微调了视觉编码器,另一类是多模态因为从预训练开始就融合了多种模态。其旗舰模型——Reka Core、Reka Flash 以及更小型的 Reka Edge——均被设计为原生处理文本、图像、视频和音频。这不仅是营销宣传,其能力体现在视频理解上,模型能够对时间序列进行推理,而不仅仅是对单帧进行描述。中型模型 Reka Flash 在多模态基准测试中表现突出,经常与参数数量多出数倍的模型相媲美甚至超越。团队于 2024 年 4 月发布了技术报告,显示其在一系列任务中与 GPT-4V、Gemini Pro 和 Claude 3 Sonnet 竞争,这对于一家成立不到一年的公司来说是一项非凡的成就。
Reka 于 2024 年获得 DST Global 和 Radical Ventures 领投的 5800 万美元 A 轮融资,SoftBank 以及知名天使投资人也参与其中。按 AI 实验室的标准,这笔资金相对 modest——仅能购买几个月的 GPU 计算时间,远不及 OpenAI、Anthropic 和 xAI 积累的数十亿美元资金。Reka 通过异常高效的方式弥补了这一点:团队规模始终保持较小(在首年大部分时间人数不足 30 人),模型训练时严格控制计算预算,并迅速推出产品。他们推出了 API 和面向消费者的助手 Reka Playground,但真正的重点始终是模型本身——向需要多模态 AI 而非仅文本推理的开发者和企业开放前沿级多模态 AI。公司还将其小型模型以开放权重形式发布,遵循通过开放发布建立开发者认知度,同时保留最强大模型专有的策略。
2024 年中,有报道称 Snowflake 正在与 Reka 进行高级别收购谈判,金额约为 10 亿美元。这笔交易对双方都具有战略意义:Snowflake 需要内部 AI 能力以与 Databricks(此前一年以 13 亿美元收购了 MosaicML)竞争,而 Reka 需要 Snowflake 提供的分发渠道、计算资源和企业关系。对于 Reka 的创始人来说,此次收购为其提供了在 Snowflake 数据云中大规模部署多模态模型的路径,客户已在其中存储了非结构化数据——图像、文档、视频——这些正是多模态模型所擅长处理的数据。这笔交易凸显了 AI 领域的更广泛趋势:无论多么优秀,独立研究实验室都面临巨大压力,要么独立筹集数十亿美元,要么找到战略归宿,使技术能触达客户而无需在市场推广上消耗大量资金。Reka 从创立到被收购仅用了大约 18 个月,其发展速度堪称 AI 公司历史上最快的轨迹之一。