Reka證明了一支規模小、專注於研究且具備適當資歷的團隊,即使沒有數十億資金,也能打造出尖端級別的多模態模型 — 並顯示原生多模態架構從頭開始訓練,其表現可超越大多數較大實驗室所採用的接駁式方法。他們從成立到被Snowflake收購的快速發展軌跡,也揭示了企業數據平台如今對AI人才產生的強大吸引力,暗示多模態AI的未來可能將在數據基礎設施公司內實現,而非獨立研究實驗室中。
Reka 於 2023 年由 Dani Yogatama、Yi Tay 和 Che Zheng 共同創立——這三位研究者集體背景堪稱環遊全球最重要的 AI 實驗室。Yogatama 曾在 DeepMind 工作多年,專注於語言理解與推理。Yi Tay 是 Google Brain(後改為 Google DeepMind)的高階研究員,以在高效 Transformers、擴展定律與 UL2 統一語言學習器方面的研究聞名。Zheng 則帶來了在大型系統建設上的深厚工程經驗。創立的主張簡單卻雄心勃勃:下一代 AI 模型不應該在事後再添加多模態功能,而應從一開始就具備原生多模態能力——從基礎開始訓練,以統一架構處理文字、影像、視頻與音訊。這種信念吸引了早期資金與相信大多數實驗室採用「後加視覺」方法本質上具有局限性的研究團隊。
Reka 所做出的技術區分在於:有些模型之所以是「多模態」,是因為有人在文字模型上微調了視覺編碼器;而有些模型之所以是多模態,是因為從預訓練第一天起就將多種模態融合在一起。其旗艦模型——Reka Core、Reka Flash 以及較小的 Reka Edge——都設計為能原生處理文字、影像、視頻與音訊。這不只是行銷口號;在視頻理解等能力中,模型可以推理時間序列,而不僅僅是為單一畫格加上標註。Reka Flash 這款中型模型在多模態基準測試中表現突出,經常與參數數量數倍於它的模型匹敵甚至超越。團隊於 2024 年 4 月發表技術報告,顯示在一系列任務中,其結果與 GPT-4V、Gemini Pro 和 Claude 3 Sonnet 等模型競爭——這對一家成立不到一年的公司來說,是驚人的成就。
Reka 於 2024 年獲得 DST Global 和 Radical Ventures 領投的 5,800 萬美元 A 輪融資,SoftBank 以及知名天使投資人也參與其中。以 AI 實驗室標準來看,這筆資金規模相對謙遜——僅能買下幾個月的高階 GPU 計算時間,而非 OpenAI、Anthropic 和 xAI 等公司累積的數十億美元戰略資金。Reka 透過異常的效率來彌補:團隊規模始終保持精簡(成立第一年大部分時間人數少於 30 人),模型訓練時謹慎控制計算預算,並快速推出產品。他們推出了 API 和一款面向消費者的助手 Reka Playground,但真正的重點始終是模型本身——向開發者與企業提供前沿級多模態 AI,這些用戶需要的不只是文字推理。公司也將較小的模型作為開放權重釋出,遵循以開放釋出建立開發者關注度,同時保留最強大模型專屬的策略。
2024 年中,有報導指出 Snowflake 正在與 Reka 進行高階談判,擬以約 10 億美元收購該公司。對雙方來說,這筆交易具有戰略意義:Snowflake 需要內建 AI 能力以與 Databricks(該公司前一年以 13 億美元收購 MosaicML)競爭,而 Reka 則需要 Snowflake 這樣的大型數據平台所提供的分發渠道、計算資源與企業關係。對 Reka 創辦人而言,這筆收購提供了一條在 Snowflake 數據雲中以大規模部署其多模態模型的途徑,因為客戶已在該平台存儲了多模態模型專長處理的非結構化數據——影像、文件、視頻等。這筆交易凸顯了 AI 領域的更廣泛趨勢:無論多麼優秀的獨立研究實驗室,都面臨著巨大壓力,必須不是獨立籌集數十億資金,就是尋找一個戰略歸宿,讓其技術能接觸客戶,而不必在市場推廣上耗盡資金。從創立到被收購,Reka 的故事在 AI 公司歷史中屬於最快的軌跡之一。