
Doorbraak in superefficiënte serverkoeling
Amerikaanse onderzoekers hebben, met hulp van een paar grote leveranciers, een efficiënte manier van koeling gevonden die op papier eenvoudig is, maar toch nog niet wordt toegepast.
Amerikaanse onderzoekers hebben, met hulp van een paar grote leveranciers, een efficiënte manier van koeling gevonden die op papier eenvoudig is, maar toch nog niet wordt toegepast.

Doorbraak in superefficiënte serverkoeling
Amerikaanse onderzoekers hebben, met hulp van een paar grote leveranciers, een efficiënte manier van koeling gevonden die op papier eenvoudig is, maar toch nog niet wordt toegepast.
Sleutel is een intieme koppeling tussen ict-systemen en facilitaire apparatuur. Het Lawrence Berkeley National Laboratory heeft, in samenwerking met reuzen HP, Intel, IBM en koelerspecialist Emerson Network Power, de eerste testen van hun koelopstelling afgelopen zomer succesvol afgerond. Volgens het rapport zorgt het systeem ervoor dat de koelinstallaties precies de hoeveelheid koeling bieden die nodig is.
In de meeste gevallen worden datacentra overgekoeld, domweg om het zekere voor het onzekere te nemen. Probleem is dat koeling energie vreet, en stroomkosten is bij veel bedrijven een almaar stijgende kostenpost.
Eenvoud
Opvallend aan de oplossing die de onderzoekers aandragen, is de eenvoud die de opstelling op het oog siert. Kort door de bocht heeft het laboratorium namelijk niet meer gedaan dan de temperatuursensoren die in moderne servers zitten ingebouwd direct te koppelen aan het koelsysteem in het datacenter. Het systeem reageert zo direct als de servers bijvoorbeeld een hogere of lagere werklast te verduren krijgen.
Het klinkt raar, maar dat foefje is nog niet eerder toegepast. Meestal meten de thermometers van de CRAH's (Computer Room Air Handlers) de temperatuur in de ruimte zelf, niet van de systemen. Koelsystemen reageren zo alleen op temperatuurveranderingen daar, wat dikwijls overkoeling tot gevolg heeft. Modernere datacentra kiezen ervoor om alleen de temperatuur in de koude gangen te meten. Dat is weliswaar al iets beter, maar nog steeds niet optimaal.
Protocol
De moeilijkheid in de oplossing zit hem vooral in de technische scheiding die traditioneel heerst tussen ict-afdelingen en facilitaire dienst. De gegevens die de temperatuurmeters in de servers vastleggen, moeten worden vertaald naar een protocol die de CRAH's kunnen begrijpen. Dat is niet zo heel makkelijk, omdat de server-sensoren zijn gericht op informatie voor ict-tools en eventuele beheerconsoles en niet op facilitaire apparatuur.
Ook de CRAH's zelf hadden aanpassingen nodig. In dit geval zijn ze uitgerust met ventilatoren met variabele snelheidsregelaar. Met het nieuwe systeem kan tot 90 procent van de energie worden bespaard die nodig is voor de ventilatoren.
Maar de onderzoekers zien nog verdere besparingen, zoals verminderde koelingsbehoefte, omdat het ventilatiesysteem nu veel efficiënter is. Die besparingen zijn nog niet berekend.
Het is niet het enige project die met deze materie bezig is, en verschillende conferenties (zoals de Intel Developer Forum) zullen deze maand presentaties geven over dit onderwerp. Deze specifieke techniek was precies op maat ontwikkeld voor het test-datacentrum, maar de onderzoekers garanderen dat het gestandaardiseerd gaat worden en dat verschillende ontwikkelaars op basis daarvan al bezig zijn met software.
Speerpunt
Efficiëntie van datacenters is een groot speerpunt van bijna elk ict-bedrijf. Dat geldt voor leveranciers van servers maar nog meer voor de grote afnemers ervan, zoals bijvoorbeeld internetgigant Google. Google sleutelt al jaren aan betere efficiëntie en claimt de zuinigste datacenters ter wereld te hebben.
Bron: Techworld.nl
In zekere zin zou dit werken, het zal zeker een hoop energiekosten schelen. Luchtkoeling daarin tegen hoeft niet altijd bakken met geld te kosten, zo lang er maar goed naar de situatie en ruimte wordt gekeken.
Oude wijn in nieuwe zakken.
Ik doe dit al tijden met de APC Infrastructure Central, in combinatie met de APC Inrow koeling.
Dit verhaal is echt oud nieuws.
Leuk filmpje die 2e link!
Ja; APC probeert die dingen al jaren aan me te verkopen.
"Ideaal voor blades enzo."
Het gaat er juist om, om zo efficient mogelijk te koelen, dus als iedere server z'n eigen koelcircuit zou hebben.
Het grootste nadeel van koelvloeistof is dat het kan lekken en ook al kun je 't perfect zo maken dat het geen schade aan je apparatuur aanricht, blijft het een zooitje als het fout gaat.
Ja; er maar even van uitgaande dat dat zo eenvoudig gaat werken... Weer een extra ethernet snoertje naar elke server? Weer een appart netwerk? En dan ook maar consequent blijven en aangeven waar elke server staat.
Als je mij vraagt, voor een mixed datacenter, zoals de meeste Internet datacentra met de bekende "colo" e.d. (dus geen corporate/enterprise datacenter waar maar een enkele klant staat), geen beginnen aan.
Klopt, niet direct buitenlucht, maar bv. via een kyoto wiel.
Zie bv.
[Link]
of
[Link]
Dat wordt al vaker toegepast, maar dan nog niet op server/processor niveau, maar op kastniveau of op cube (groep kasten) niveau.
Voorbeelden zijn
- dedicated kasten met koeler (warme uitblaaslucht wordt langs een koeler in de kast afgekoeld en weer aan de voorkant ingevoerd),
- kasten met een koeler in de achterkant (een soort autoradiator waar de uitblaaslucht langs geblazen en gekoeld wordt, zodat de lucht aan de achterkant weer net zo koud is als de ruimtelucht
- cubes: systemen waarbij een aatal kasten in een cube vorm geplaatst worden, en de warme lucht via koelers weer naar buiten geblazen wordt. Afhankelijk van het vermogen 1 koeler per 2, 3, 4, of meer kasten, en meerdere koelers in totaal voor redundancy.
Klopt, goedkoper en makkelijker te implementeren, maar kost veel meer energie
Ja, zou kunnen werken, maar je moet er wel de juiste opstelling voor hebben om effectief te zijn, dat wil zeggen afgesloten koude gangen.
De truuk is niet om de temperatuur te verlagen, maar de benodigde hoeveelheid lucht aan te passen. Een (moderne) server die harder moet werken, zal namelijk meer lucht aan de voorkant (koude gang) aanzuigen.
Het principe van afgesloten koude en warme gangen helpt op zich al om energiekosten te besparen, omdat systemen altijd koude lucht aanzuigen ('vers' uit de airco), in plaats van lucht die eventueel al door een andere server is opgewarmd (al snel 10 of meer graden opgewarmd). Gevolg is dat je de koellucht bv. op 24 graden kan afstellen, koel genoeg voor een server. Als warme en koude lucht kunnen vermengen moet je de koude lucht veel kouder afstellen (bv. 16 graden) om ervoor te zorgen dat een server niet inlaatlucht van 35 graad of hoger krijgt.
Overigens wordt al veel vaker gemeten, maar dan op kastniveau (temperatuur inkomende lucht, en temperatuur uitgaande lucht). Als het verschil groter wordt, is er een grotere koelbehoefte, en blaas je meer koude lucht in de koude gang. Dit werkt onafhankelijk van de gebruikte servers in een kast.
Ze pompen de lucht intern rond en gebruiken warmte wisselaars om te koelen met de buitenlucht.
Waarom zou dat fout gaan? Zolang het lucht is, is er nix aan de hand. Natuurlijk moet je het wel ff filteren enzo, en liefst de luchtvochtigheid wat omlaag brengen om roest- en schimmelvorming tegen te gaan. En uiteindelijk is het dan ook nog eens gezonder, want lucht die je alleen maar rond pompt binnen je datacenter wordt ook steeds minder leefbaar.
Vloeistofkoeling zou ook prachtig zijn, maar lucht heeft nou eenmaal als voordeel dat je het niet kunt morsen.
Als er een standaard systeem komt wat op alle servers zit, dan kan dat volledig los van het OS opereren. Het hoeft alleen de temperatuur te meten, en dat door te geven. Ik weet niet of dat hier het geval is, maar het zou goed kunnen.
Openluchtkoeling is in gematigde en koudere klimaten wel een optie maar ook niet altijd. Dat hangt natuurlijk af van de buitentemperatuur. Dit kan wel een mooie aanvulling zijn.
Heb er vorig jaar een artikel over gelezen waarin het bij PinkRoccade werd toegepast. Je kunt buitenlucht niet zomaar in je datacenter blazen. Dat zou b.v. bij een regenbuitje goed fout kunnen gaan :-)
Leuk, maar is het niet nóg beter om openluchtkoeling te gebruiken waar ik laatst iets over las? Of vult het elkaar aan?
Hmja; er zijn zat datacenters die koeling aanpassen op lokaal niveau, de meesten gebruiken alleen geen waardes uit servers.
In veel datacentra is dat ook bijzonder lastig, want de servers zijn van de klanten van de datacentra. Het zal dus lang niet altijd mogelijk zijn om van alle servers zinvolle gegevens te krijgen.
Wat mij trouwens veel innovatiever lijkt, is een op vloeistof gebaseerd koelsysteem, waarbij je een soort van vloeistof-bus hebt en elke server een universele poort. Volgens mij is dat uiteindelijk vele malen efficienter dan de huidige opzet, waarbij je een hoop koude lucht precies daar terecht wilt krijgen waar het warm is.
Nee hoor, omdat het veel makkelijker te implementeren is! Eén grote koeling die koude lucht onder de verhoogde vloer blaast is veel makkelijker te bouwen dan het per kast distribueren van precies genoeg koeling.
Ik ken al twee datacenters in Nederland die al langer dan 5 jaar SNMP waardes van hun managed servers om koeling daarop aan te passen.
Toch jammer, hoopte op een innovatie. (misleidende artikel)
Hangt ook af van de airflow door de server zelf. Denk dat het wel werkt, je hebt immers een buffer koelere lucht. Een huidige airco kan vrij snel schakelen, alhoewel dat natuurlijk ook wel energie vreet.
Zou dit wel werken?
Als een server op zeker moment harder moet werken krijgt die het vrij vlot te warm, ik vraag me af of de koeling van het datacenter daar wel snel genoeg op kan reageren, de temperatuur van minstens een koude gang moet daar immers voor naar beneden worden gebracht.
Reageer
Preview