Zubnet AIAprenderWiki › Reka
Empresas

Reka

Também conhecido como: Reka Core, Reka Flash
Empresa de pesquisa em IA fundada por ex-pesquisadores do DeepMind, Google Brain e FAIR. Construindo modelos nativamente multimodais que podem processar texto, imagens, vídeo e áudio desde a base.

Por que isso importa

A Reka demonstrou que uma equipe pequena e focada em pesquisa com o pedigree certo pode construir modelos multimodais de classe fronteira sem bilhões em financiamento — e que arquiteturas nativamente multimodais treinadas do zero podem superar a abordagem acoplada usada pela maioria dos laboratórios maiores. Sua trajetória rápida da fundação à aquisição pela Snowflake também revelou a intensa força gravitacional que plataformas de dados empresariais agora exercem sobre talento de IA, sugerindo que o futuro da IA multimodal pode residir dentro de empresas de infraestrutura de dados em vez de laboratórios de pesquisa independentes.

Em profundidade

A Reka foi fundada em 2023 por Dani Yogatama, Yi Tay e Che Zheng — pesquisadores cujo pedigree coletivo parece um tour pelos laboratórios de IA mais importantes do planeta. Yogatama passou anos no DeepMind trabalhando em compreensão e raciocínio de linguagem. Yi Tay era pesquisador sênior no Google Brain (depois Google DeepMind), conhecido por seu trabalho em Transformers eficientes, leis de escalonamento e o UL2 unified language learner. Zheng trouxe profunda expertise em engenharia de construção de sistemas de larga escala. A tese fundadora era direta mas ambiciosa: a próxima geração de modelos de IA não deveria adicionar capacidades multimodais posteriormente. Em vez disso, deveriam ser nativamente multimodais desde o início — treinados desde a base para processar texto, imagens, vídeo e áudio em uma arquitetura unificada. Essa convicção atraiu financiamento inicial e uma equipe de pesquisadores que acreditavam que a abordagem de "adicionar visão depois" usada pela maioria dos laboratórios era fundamentalmente limitante.

Nativamente Multimodal por Design

A distinção técnica que a Reka faz é entre modelos que são "multimodais" porque alguém fez fine-tuning de um encoder de visão em cima de um modelo de texto, e modelos que são multimodais porque múltiplas modalidades foram entrelaçadas no pré-treinamento desde o primeiro dia. Seus modelos principais — Reka Core, Reka Flash e o menor Reka Edge — foram projetados para lidar com texto, imagens, vídeo e áudio nativamente. Isso não é apenas uma alegação de marketing; aparece em capacidades como compreensão de vídeo, onde o modelo pode raciocinar sobre sequências temporais em vez de apenas legendar frames individuais. O Reka Flash, seu modelo de tamanho médio, se tornou notável por superar expectativas em benchmarks multimodais, frequentemente igualando ou excedendo modelos várias vezes maiores em contagem de parâmetros. A equipe publicou seu relatório técnico em abril de 2024, mostrando resultados competitivos contra GPT-4V, Gemini Pro e Claude 3 Sonnet em uma gama de tarefas — uma conquista notável para uma empresa com mal um ano de existência.

Operação Enxuta em um Campo Intensivo em Capital

A Reka levantou uma Série A de US$ 58 milhões liderada pela DST Global e Radical Ventures em 2024, com participação da SoftBank e investidores-anjo notáveis. Pelos padrões de laboratórios de IA, isso é modesto — o tipo de dinheiro que compra alguns meses de uso sério de GPU, não os arsenais multibilionários que OpenAI, Anthropic e xAI acumularam. A Reka compensou sendo excepcionalmente eficiente: sua equipe permaneceu pequena (menos de 30 pessoas durante grande parte do primeiro ano), seus modelos foram treinados com orçamento de computação cuidadoso, e entregaram produto rapidamente. Lançaram uma API e um assistente voltado ao consumidor chamado Reka Playground, mas a jogada real sempre foram os modelos em si — oferecer IA multimodal de classe fronteira a desenvolvedores e empresas que precisam de mais do que raciocínio apenas em texto. A empresa também disponibilizou seus modelos menores como open weights, seguindo o padrão de usar lançamentos abertos para construir mindshare entre desenvolvedores enquanto mantém seus modelos mais capazes proprietários.

A Aquisição pela Snowflake e o Que Ela Sinaliza

Em meados de 2024, surgiram relatos de que a Snowflake estava em negociações avançadas para adquirir a Reka por aproximadamente US$ 1 bilhão. O negócio fazia sentido estratégico para ambos os lados: a Snowflake precisava de capacidades internas de IA para competir com a Databricks (que havia adquirido a MosaicML por US$ 1,3 bilhão no ano anterior), e a Reka precisava da distribuição, recursos de computação e relacionamentos empresariais que uma grande plataforma de dados poderia fornecer. Para os fundadores da Reka, a aquisição ofereceu um caminho para implantar seus modelos multimodais em escala massiva dentro da data cloud da Snowflake, onde clientes já armazenam os dados não estruturados — imagens, documentos, vídeo — para os quais modelos multimodais são particularmente adequados. O negócio destacou uma tendência mais ampla em IA: que laboratórios de pesquisa independentes, não importa quão talentosos, enfrentam enorme pressão para ou levantar bilhões independentemente ou encontrar um lar estratégico onde sua tecnologia possa alcançar clientes sem queimar capital em go-to-market. A história da Reka, da fundação à aquisição em aproximadamente dezoito meses, é uma das trajetórias mais rápidas na história de empresas de IA.

Conceitos relacionados

← Todos os termos
← Aprendizado por reforço Resemble AI →
ESC