Panthalassa, une startup basée en Oregon, a levé 140 millions de dollars menée par Peter Thiel pour bâtir des data centers AI flottants powered par les vagues océaniques. Le prototype Ocean-3 est un orbe self-contained — pas d'ancre, pas de câble d'alimentation à la côte — qui convertit le mouvement des vagues en électricité via une turbine interne, fait tourner du compute AI onsite, et transmet les résultats via satellites LEO. Les déploiements pilotes sont slated pour août 2026, avec des systèmes commerciaux prévus pour 2027. Le claim économique si ça scale : 0,02 $ par kWh, ce qui serait environ la moitié des coûts d'alimentation typiques de data center onshore (0,04-0,10 $/kWh). C'est le genre de pari infra facile à dismiss jusqu'à ce que tu te rappelles que la capacité grid et l'eau de refroidissement sont maintenant les contraintes réelles sur le scale-out du compute AI, pas les GPUs eux-mêmes.
Le mécanisme est simple en concept : alors que l'orbe ride la houle, l'eau dans un tube interne est forcée vers le haut dans la chambre, puis à travers une turbine, faisant tourner des générateurs. Les questions d'engineering dures ne sont pas dans la physique du wave-power — c'est bien connu — elles sont dans l'intégration système. La power output par orbe est de classe sub-MW basée sur les dimensions du prototype, donc le scale commercial veut dire déployer beaucoup d'orbes, ce qui veut dire station-keeping (non-amarré, position GPS-corrigée), networking power et data inter-orbe, agrégation de bandwidth d'uplink satellite, et boucles de refroidissement à eau océanique qui ne foule pas ou ne corrode pas sur des durées de vie opérationnelles. L'uplink satellite LEO (classe Starlink) cap la bandwidth à ~100 Mbps par terminal — travaillable pour des jobs de training batch et de l'inférence async, terrible pour des workloads interactives temps-réel où la latence compte. Le refroidissement via eau océanique est la victoire architecturale : échange de chaleur continu gratuit à 4-15°C de température de surface selon la latitude, bien meilleur que les installations onshore air-cooled qui ont besoin de chillers actifs en été.
La lecture ecosystem : 2025-2026 a été l'année où les contraintes grid sont devenues visibles pour les builders AI. Les hyperscalers signent des PPAs nucléaires de 20 ans, les neoclouds courent après n'importe quel mégawatt qu'ils peuvent trouver, et les lead times des turbines à gaz ont étiré à 4-5 ans. Le compute basé sur l'océan est une des réponses les plus crédibles à « et si on contournait le grid entièrement ». Ça ne remplacera pas le footprint onshore de sitôt — l'inférence latency-sensitive, la résidence de données regulatory-bound, et la plupart des workloads enterprise restent onshore — mais pour le training batch, les runs de pretraining frontier-model qui consomment des gigawatt-mois, et l'inférence async sans budget de latence, une capacité flottante offshore qui ne competit pas pour les hookups grid ou l'eau de refroidissement a un vrai argument économique. Le chiffre 0,02 $/kWh assume du scale ; la phase prototype va montrer si l'économie de l'orbe tient à coût unit-1 ou seulement à unit-10000. Chemin critique : framework juridictionnel/réglementaire pour les structures compute-bearing en eaux internationales et mers territoriales US, plus la question de qui possède et reach la data quand un orbe se détache.
Move pratique : ce n'est pas une décision de procurement Q3 pour aucun builder, mais ça mérite d'être tracké comme un signal forward sur où l'offre de compute s'étend. Si tu fais tourner de l'infra d'entraînement, watch quels workloads commencent à migrer offshore — les early adopters seront des hyperscalers qui font tourner des batches de pretraining qui ne se soucient pas de la latence, où les savings sur grid + refroidissement + terrain amortissent contre le capex des orbes. Si tu fais tourner de l'inférence, le floor de latence LEO-uplink (~50-100ms hop LEO + propagation) te garde onshore pour l'instant. Le watch à plus long terme, c'est si les neoclouds ou hyperscalers ramassent la plateforme Panthalassa vs construisent la leur — Microsoft a fait des expériences de floating data center avant (Project Natick, pods sous-marins scellés), mais c'était scellé/amarré. Le design non-amarré de Panthalassa est le nouveau pari architectural, et savoir s'il survit à un hiver d'Oregon au site pilote Ocean-3 est la vraie question pour les douze prochains mois.
