Offshore-engineering
Onderwater datacenters waren nooit de oplossing

Youp Overtoom
Marketing Director

Onderwater datacenters waren nooit het antwoord
Microsoft stopt met zijn subsea datacenterexperiment en bevestigt dat schaalbare compute energieafstemming nodig heeft, geen exotische locaties.
Wat er gebeurde
Microsoft heeft officieel bevestigd dat Project Natick, zijn experimentele onderwatse datacenterinitiatief, niet langer actief is. Het project begon in 2013 als intern onderzoeksconcept en doorliep twee fasen, waarvan de tweede inhield dat in 2018 855 servers voor de kust van Schotland meer dan twee jaar onder water werden gezet. De subsea capsule liet indrukwekkende betrouwbaarheid zien, met een uitvalpercentage van slechts 0,7% tegenover 5,9% in een parallel landgebaseerd experiment.
Ondanks deze resultaten bevestigde Noelle Walsh, hoofd van Microsoft's Cloud Operations and Innovation-divisie, dat het project niet zou doorgaan naar commerciële uitrol. Microsoft zei dat het de lessen uit Natick zou meenemen naar andere gebieden, waaronder liquid immersion cooling en inzichten rond afgesloten, gecontroleerde omgevingen voor een langere serverlevensduur. Het bedrijf maakte ook meerdere gerelateerde patenten open source.
Structurele context
Project Natick werd bedacht in een periode waarin koelkosten van datacenters en milieuduurzaamheid de strategische planning domineerden. De logica sprak aan: plaats servers in van nature koel oceaanwater, verlaag het energieverbruik voor thermisch beheer en plaats infrastructuur dicht bij kustbevolking. Destijds was dit een creatieve poging om iets op te lossen dat vooral een koelprobleem was.
Het landschap is veranderd. Vandaag is de beperkende factor voor de uitrol van datacenters niet koeling of nabijheid van gebruikers. Het is toegang tot stroom. Nu AI-workloads zijn geëxplodeerd, zijn de stroomvereisten per rack dramatisch gestegen, en de infrastructuursector is verschoven van de vraag "hoe koelen we compute?" naar "waar vinden we de energie om het überhaupt te laten draaien?" Subsea-capsules, hoe elegant ook vanuit engineeringperspectief, lossen deze nieuwere en fundamentelere uitdaging niet op. Ze zijn moeilijk te onderhouden, duur om uit te rollen en pakken de structurele kloof tussen energieaanbod en computevraag niet aan.
Ondertussen zijn andere koelmethoden, vooral direct liquid cooling en immersiesystemen, snel volwassen geworden en kunnen ze op schaal worden uitgerold in conventionele of modulaire faciliteiten. De sector heeft de thermische les verwerkt zonder onder water te hoeven gaan.
Het Enki-perspectief
Het verhaal van Project Natick is uiteindelijk een verhaal over infrastructuurlogica die sneller evolueert dan welk afzonderlijk project ook kan bijbenen. Toen Natick werd ontworpen, was het probleem thermisch. Nu is het elektrisch. Die verschuiving verandert alles aan waar en hoe datacenters moeten worden gebouwd.
Het model van Project Enki begint waar Natick eindigde, niet met de vraag hoe je servers koelt, maar met de vraag waar energie beschikbaar en onderbenut is. Vastgelopen en afgeremde hernieuwbare energie vormt een enorme en groeiende capaciteitsbron die het net niet kan opnemen. In plaats van exotische behuizingen te ontwikkelen voor uitrol op afstand, is de effectievere route om modulaire, energieafgestemde compute-infrastructuur direct naar het punt van opwekking te brengen. Deze aanpak lost toegang tot stroom op, vermindert de afhankelijkheid van beperkte transmissienetwerken en verkort de uitrol van jaren naar maanden.
De betrouwbaarheidsbevindingen van Natick zijn echt waardevol. Afgesloten, gecontroleerde omgevingen met minimale menselijke tussenkomst leverden betere serverresultaten op. Die inzichten vertalen zich direct naar het soort modulaire, autonome uitrolmodellen dat energieafgestemde infrastructuur al bevoordeelt. De les is niet dat onderzees verkeerd is. De les is dat dezelfde principes op land beter werken, dichter bij opwekking, en tegen een fractie van de kosten en complexiteit.
Wat dit signaleert
Microsofts beslissing om Project Natick te sluiten weerspiegelt een bredere herijking in de sector. Het tijdperk van experimentele, locatiegedreven infrastructuurconcepten maakt plaats voor een pragmatischer focus op toegang tot energie en uitrolsnelheid. Hyperscalers hebben geen tekort aan vraag of kapitaal. Ze hebben een tekort aan stroom, en aan de netcapaciteit om die te leveren.
Deze verschuiving creëert structurele kansen voor infrastructuurmodellen die buiten de traditionele keten van netlevering kunnen opereren. Modulaire faciliteiten op of nabij bronnen van hernieuwbare opwek bieden een geloofwaardig pad om compute op te schalen zonder te wachten op transmissie-upgrades die tien jaar of langer duren. Institutioneel kapitaal erkent dit steeds meer en kiest voor herhaalbare, energie-soevereine uitrolmodellen boven op maat gemaakte engineeringexperimenten.
De toekomst van AI-infrastructuur ligt niet op de oceaanbodem. Die ligt overal waar schone energie wordt opgewekt en nu wordt verspild, omgezet in compute-capaciteit die de wereld dringend nodig heeft.
Bron: Sebastian Moss, 2024 https://www.datacenterdynamics.com/en/news/microsoft-confirms-project-natick-underwater-data-center-is-no-more/
Energie naar Intelligentie
Project Enki B.V. | een TJYP Venture
Kamer van Koophandel: 98681036
Energie naar Intelligentie
Project Enki B.V. | een TJYP Venture
Kamer van Koophandel: 98681036
Energie naar Intelligentie
Project Enki B.V. | een TJYP Venture
Kamer van Koophandel: 98681036



