A Panthalassa, uma startup com sede no Oregon, levantou $140 milhões liderado por Peter Thiel para construir data centers AI flutuantes powered por ondas oceânicas. O protótipo Ocean-3 é um orbe self-contained — sem âncora, sem cabo de alimentação para a costa — que converte movimento das ondas em eletricidade via uma turbina interna, roda compute AI onsite, e transmite resultados via satélites LEO. Os deploys piloto estão slated para agosto 2026, com sistemas comerciais planejados para 2027. O claim econômico se escalar: $0,02 por kWh, o que seria aproximadamente metade dos custos típicos de power de data center onshore ($0,04-0,10/kWh). Esse é o tipo de aposta de infraestrutura fácil de dismiss até você lembrar que capacidade de grid e água para resfriamento são agora as restrições reais sobre scale-out de compute AI, não os GPUs em si.

O mecanismo é direto em conceito: enquanto o orbe cavalga a marola, água num tubo interno é forçada para cima na câmara, depois através de uma turbina, girando geradores. As perguntas duras de engineering não estão na física do wave-power — isso é bem trilhado — estão na integração do sistema. A power output por orbe é de classe sub-MW baseada nas dimensões do protótipo, então a escala comercial significa fazer deploy de muitos orbes, o que significa station-keeping (não-ancorado, posição GPS-corrigida), networking de power e data entre-orbes, agregação de bandwidth de uplink de satélite, e loops de resfriamento com água oceânica que não fouling nem corroem ao longo de vidas operacionais. O uplink de satélite LEO (classe Starlink) cap o bandwidth em ~100 Mbps por terminal — workable para jobs de treino batch e inferência async, terrível para workloads interativos em tempo real onde latência importa. Resfriamento via água oceânica é a vitória arquitetônica: troca de calor contínua grátis a 4-15°C de temperatura de superfície dependendo da latitude, muito melhor que instalações onshore air-cooled que precisam de chillers ativos no verão.

A leitura ecossistema: 2025-2026 foi o ano em que restrições de grid se tornaram visíveis para builders AI. Os hyperscalers assinam PPAs nucleares de 20 anos, neoclouds correm atrás de qualquer megawatt que conseguirem, e lead times de turbinas a gás se esticaram para 4-5 anos. Compute baseado em oceano é uma das respostas mais críveis para «e se contornarmos o grid inteiramente?». Não vai substituir o footprint onshore tão cedo — inferência latency-sensitive, residência de dados regulatory-bound, e a maioria dos workloads enterprise ficam onshore — mas para treino batch, runs de pretraining frontier-model que consomem gigawatt-meses, e inferência async sem orçamento de latência, uma capacidade flutuante offshore que não compete por hookups de grid ou água de resfriamento tem argumento econômico real. O número $0,02/kWh assume escala; a fase de protótipo vai mostrar se a economia do orbe segura a custo unit-1 ou só a unit-10000. Caminho crítico: framework jurisdicional/regulatório para estruturas compute-bearing em águas internacionais e mares territoriais dos EUA, mais a pergunta de quem é dono e alcança os dados quando um orbe se solta.

Movimento prático: isso não é decisão de procurement Q3 para nenhum builder, mas vale ser rastreado como sinal forward sobre onde a oferta de compute se expande. Se você roda infra de treino, observe quais workloads começam a migrar offshore — os early adopters vão ser hyperscalers rodando batches de pretraining que não se importam com latência, onde os savings em grid + resfriamento + terra amortizam contra o capex dos orbes. Se você roda inferência, o piso de latência LEO-uplink (~50-100ms hop LEO + propagação) te mantém onshore por ora. O watch de mais longo prazo é se neoclouds ou hyperscalers pegam a plataforma da Panthalassa vs constroem a própria — a Microsoft fez experimentos de floating data center antes (Project Natick, pods submarinos selados), mas isso era selado/ancorado. O design não-ancorado da Panthalassa é a nova aposta arquitetônica, e se sobrevive a um inverno do Oregon no sítio piloto Ocean-3 é a pergunta real para os próximos doze meses.