Test

Dit is een popup

Hoe wordt een datacenter ideaal ingericht?

Optimalisatie troef wanneer je een goed datacenter binnenstapt. De koeling wordt in detail uitgewerkt, de hardware is hypermodern en niemand kan er zomaar binnen of buiten.

Optimalisatie troef wanneer je een goed datacenter binnenstapt. De koeling wordt in detail uitgewerkt, de hardware is hypermodern en niemand kan er zomaar binnen of buiten.

Het licht gaat aan

Als het licht wordt ingeschakeld wanneer u de serverzaal van een datacenter binnentreedt, weet u dat er een ‘lights out’ politiek wordt gehanteerd: alle lichten zijn uit tot iemand de zaal binnentreedt, waarna de bewegingssensor de verlichting inschakelt.

In sommige datacenters worden enkele lampen continu ingeschakeld gehouden omdat de tijd tussen het binnentreden van de zaal en het moment dat alle lampen echt branden, soms net iets te lang is om comfortabel te zijn. Om een mogelijk angstgevoel te vermijden en om te voorkomen dat datacenter personeel over draden of andere obstakels zou struikelen, is het ingeschakeld houden van enkele lampen een eerbaar compromis.

[related_article id=”152275″]

Vaak wordt het gebruik van de bewegingssensors dan ook uitgebreid tot andere zalen: monitoringzalen, sanitair, verbindingsgangen enzovoort.

Lege zalen

Dat het licht standaard staat uitgeschakeld, heeft één hoofdoorzaak: doorgaans hoeft in de serverzalen weinig of geen personeel aanwezig te zijn.

Eerst verlieten de server monitoring PC’s de zaal, nadien konden ook stroom, koeling en andere infrastructuuronderdelen vanuit een aparte kamer worden beheerd. Ook servers en zelfs hele racks uit- en terug inschakelen kan probleemloos van op een verder afgelegen toestel worden uitgevoerd. En dus ook van thuis uit, door klanten, ICT-partners en/of datacenterpersoneel.

Dit laatste verklaart ook waarom het argument contra een afgelegen datacenter minder speelt dan ooit tevoren: na installatie van de servers in het datacenter hebt u nog weinig redenen om het datacenter te betreden.

En de meeste datacenter managers hebben het ook liefst zo: het bespaart niet alleen stroom binnen het datacenter, het verlaagt ook gevoelig het veiligheidsrisico. Dus in tegenstelling tot de meeste commerciële zaken geldt voor datacenters: hoe minder volk u aantreft, hoe groter de kans dat u hier goed zit.

Warme gangen, koude gangen

Wellicht één van de meest opvallende kenmerken van een goed uitgerust datacenter is het gebruik van warme en van koude gangen.

Het principe is voldoende gekend: om een server niet zo veel te laten opwarmen dat hij de geest geeft door oververhitting, worden diverse vormen van koeling gebruikt. Vroeger werd de koele lucht gewoon het datacenter ingepompt. Dat was niet bijster efficiënt omdat die koude lucht zich mengde met de warme lucht en dus geen optimale koeling opleverde.

Zolang de elektriciteitsfactuur nog bescheiden bleef, maakte men zich hier weinig zorgen over. Maar intussen kost het koelen van een ruimte op die manier haast zo veel stroom als wat er nodig is om de servers gewoon draaiende te houden.

Dit effect werd nog versterkt door de komst van blade servers, waardoor er heel veel verwerkingskracht en dus verhitting plaatsvond op een zeer kleine ruimte. Dit creëerde de zogezegde hot spots,

Daarom werden principes ingevoerd zoals de koude en hete gang – ‘hot and cold aisle’ in het jargon – die ervoor zorgen dat de koeling wordt aangeleverd waar ze echt nodig is, en niet doorheen het hele datacenter. Die gang, waar de voorzijde van de servers is geplaats, is de koude gang.

De warme lucht die aan de achterkant ontstaat door de verhitting van de servers, wordt dan opgevangen in een warme gang, en weggezogen naar buiten. Beide gangen worden zo hermetisch mogelijk afgesloten zodat er geen extra afkoeling of verhitting gebeurt dan nodig.

Soms kan een koude gang eerder voor een prijsverhoging dan voor een prijsdaling zorgen, dus u hoeft niet meteen weg te hollen als er geen koude en warme gangen in het datacenter te bespeuren zijn. Maar dan kunnen ze maar beter een goede uitleg klaar hebben.

Minder zichtbare kenmerken, die nochtans ook voor een efficiëntere koeling zorgen, zijn onder meer de gaten in de bodem van de koele gang, waaruit de koele lucht tevoorschijn komt, en geleiders waarin de kabels mooi kunnen worden weggeborgen zodat de luchtcirculatie optimaal blijft verlopen.

Maar als u echt indruk wil maken op de datacenter manager, vraagt u: mag ik het tracé van de buizen van de koelvloeistof een zien?” Enerzijds impliceert u hiermee dat dit tracé ergens moet uitgetekend zijn, wat ook klopt. Anderzijds kunt u ook zien of het traject dat de koelvloeistof moet afleggen wel optimaal verloopt.

Twee aandachtspunten hierbij: ten eerste moet dat traject zo kort mogelijk zijn, ten tweede moet het zo weinig mogelijk bochten bevatten. En als het bochten moet bevatten, kunt u beter kiezen voor twee flauwe bochten van 45 graden dan één scherpe van negentig graden.

Ook andere kleine ingrepen wijzen op een doordacht gebruik van koele en warme lucht. Zoals de vloerborstels waardoor u wel kabels kunt trekken zonder tegelijk ook koude of warme lucht de zaal in te trekken.

Moderne servers

Recente modellen van servers wijzen meestal op een vrij nieuw datacenter maar ze geven ook andere bemoedigende signalen. De recentste generatie servers van de meeste hardwareleveranciers is immers ook beter hittebestendig, en dat scheelt op de energie factuur. Immers: hoe beter bestand tegen de hitte, hoe minder koude lucht in de zalen of gangen moet worden gestuwd, hoe minder energie om die koeling te garanderen. Of anders gezegd: hoe nieuwer de servers, hoe lager de PUE.

Geïntegreerde hardware

Naast de leeftijd van de hardware kan ook de samenstelling een rol spelen. Geïntegreerde hardware is een vrij recente trend maar de toestellen zijn nu al in bijzonder veel professionele datacenters terug te vinden.

Geïntegreerde hardware van spelers zeoals HP, EMC en Dell combineert de server met een opslagmodule en vaak ook netwerkconnectiviteit. Het voordeel van deze aanpak is vooral dat er minder toestellen te beheren en te monitoren zijn, wat de beheerkost – een vaak onderschat gedeelte van het datacenter prijskaartje – doet dalen en bovendien de kans op problemen met uitval en/of verbindingen gevoelig vermindert.

Soms is de integratie niet altijd zichtbaar. Zo heeft bijvoorbeeld Cisco niet alleen een geïntegreerd systeem voor rekenkracht, opslag en netwerkconnectiviteit maar ook een zogeheten ‘unified fabric’ om alle types van netwerkconnectiviteit (LAN, SAN en andere) in één overkoepelend netwerk te consolideren, wat het beheer ook weer vereenvoudigt. En het geheel wordt dan idealiter beheerd en gemonitord door managementsoftware alle types hardware in één systeem verenigt.

Camera’s en sensors

Veiligheidscamera’s buiten het datacentergebouw zijn al schering en inslag. Maar ook binnen het datacenter horen ze thuis. Ze wijzen op een compleet monitoringsysteem dat normaal gesproken ook gebruik maakt van sensoren allerhande en van een beheerconsole met grenswaarden en een systeem van waarschuwing en escalering wanneer deze waarden worden overschreden.

De videocamera’s lijken overbodig met een uitgebreide sensorinstallatie. Maar Dennis Bouley, senior research analyst bij Schneider Electric, geeft alvast één tegenvoorbeeld:

“Ooit waren er tijdens renovaties enkele servers ingepakt in folie om ze te beschermen tegen stof. Leuk initiatief maar de IT-afdeling waerd hiervan niet op de hoogte gebracht. Daarom bleven deze servers aanstaan tijdens deze werken met een oververhitting en uiteindelijk kortsluiting van de servers als gevolg. Met een videocamerasysteem hadden we dit zien gebeuren en hadden we de kortsluiting en onbeschikbaarheid van deze servers kunnen voorkomen.”

Een bijkomend voordeel van zulke systemen is dat ze vaak ook de mogelijkheden bieden om van op afstand wijzigingen aan te brengen aan de toestellen die gekoppeld zijn aan het monitoringsysteem.

Optimalisatie troef wanneer je een goed datacenter binnenstapt. De koeling wordt in detail uitgewerkt, de hardware is hypermodern en niemand kan er zomaar binnen of buiten.

Het licht gaat aan

Als het licht wordt ingeschakeld wanneer u de serverzaal van een datacenter binnentreedt, weet u dat er een ‘lights out’ politiek wordt gehanteerd: alle lichten zijn uit tot iemand de zaal binnentreedt, waarna de bewegingssensor de verlichting inschakelt.

In sommige datacenters worden enkele lampen continu ingeschakeld gehouden omdat de tijd tussen het binnentreden van de zaal en het moment dat alle lampen echt branden, soms net iets te lang is om comfortabel te zijn. Om een mogelijk angstgevoel te vermijden en om te voorkomen dat datacenter personeel over draden of andere obstakels zou struikelen, is het ingeschakeld houden van enkele lampen een eerbaar compromis.

[related_article id=”152275″]

Vaak wordt het gebruik van de bewegingssensors dan ook uitgebreid tot andere zalen: monitoringzalen, sanitair, verbindingsgangen enzovoort.

Lege zalen

Dat het licht standaard staat uitgeschakeld, heeft één hoofdoorzaak: doorgaans hoeft in de serverzalen weinig of geen personeel aanwezig te zijn.

Eerst verlieten de server monitoring PC’s de zaal, nadien konden ook stroom, koeling en andere infrastructuuronderdelen vanuit een aparte kamer worden beheerd. Ook servers en zelfs hele racks uit- en terug inschakelen kan probleemloos van op een verder afgelegen toestel worden uitgevoerd. En dus ook van thuis uit, door klanten, ICT-partners en/of datacenterpersoneel.

Dit laatste verklaart ook waarom het argument contra een afgelegen datacenter minder speelt dan ooit tevoren: na installatie van de servers in het datacenter hebt u nog weinig redenen om het datacenter te betreden.

En de meeste datacenter managers hebben het ook liefst zo: het bespaart niet alleen stroom binnen het datacenter, het verlaagt ook gevoelig het veiligheidsrisico. Dus in tegenstelling tot de meeste commerciële zaken geldt voor datacenters: hoe minder volk u aantreft, hoe groter de kans dat u hier goed zit.

Warme gangen, koude gangen

Wellicht één van de meest opvallende kenmerken van een goed uitgerust datacenter is het gebruik van warme en van koude gangen.

Het principe is voldoende gekend: om een server niet zo veel te laten opwarmen dat hij de geest geeft door oververhitting, worden diverse vormen van koeling gebruikt. Vroeger werd de koele lucht gewoon het datacenter ingepompt. Dat was niet bijster efficiënt omdat die koude lucht zich mengde met de warme lucht en dus geen optimale koeling opleverde.

Zolang de elektriciteitsfactuur nog bescheiden bleef, maakte men zich hier weinig zorgen over. Maar intussen kost het koelen van een ruimte op die manier haast zo veel stroom als wat er nodig is om de servers gewoon draaiende te houden.

Dit effect werd nog versterkt door de komst van blade servers, waardoor er heel veel verwerkingskracht en dus verhitting plaatsvond op een zeer kleine ruimte. Dit creëerde de zogezegde hot spots,

Daarom werden principes ingevoerd zoals de koude en hete gang – ‘hot and cold aisle’ in het jargon – die ervoor zorgen dat de koeling wordt aangeleverd waar ze echt nodig is, en niet doorheen het hele datacenter. Die gang, waar de voorzijde van de servers is geplaats, is de koude gang.

De warme lucht die aan de achterkant ontstaat door de verhitting van de servers, wordt dan opgevangen in een warme gang, en weggezogen naar buiten. Beide gangen worden zo hermetisch mogelijk afgesloten zodat er geen extra afkoeling of verhitting gebeurt dan nodig.

Soms kan een koude gang eerder voor een prijsverhoging dan voor een prijsdaling zorgen, dus u hoeft niet meteen weg te hollen als er geen koude en warme gangen in het datacenter te bespeuren zijn. Maar dan kunnen ze maar beter een goede uitleg klaar hebben.

Minder zichtbare kenmerken, die nochtans ook voor een efficiëntere koeling zorgen, zijn onder meer de gaten in de bodem van de koele gang, waaruit de koele lucht tevoorschijn komt, en geleiders waarin de kabels mooi kunnen worden weggeborgen zodat de luchtcirculatie optimaal blijft verlopen.

Maar als u echt indruk wil maken op de datacenter manager, vraagt u: mag ik het tracé van de buizen van de koelvloeistof een zien?” Enerzijds impliceert u hiermee dat dit tracé ergens moet uitgetekend zijn, wat ook klopt. Anderzijds kunt u ook zien of het traject dat de koelvloeistof moet afleggen wel optimaal verloopt.

Twee aandachtspunten hierbij: ten eerste moet dat traject zo kort mogelijk zijn, ten tweede moet het zo weinig mogelijk bochten bevatten. En als het bochten moet bevatten, kunt u beter kiezen voor twee flauwe bochten van 45 graden dan één scherpe van negentig graden.

Ook andere kleine ingrepen wijzen op een doordacht gebruik van koele en warme lucht. Zoals de vloerborstels waardoor u wel kabels kunt trekken zonder tegelijk ook koude of warme lucht de zaal in te trekken.

Moderne servers

Recente modellen van servers wijzen meestal op een vrij nieuw datacenter maar ze geven ook andere bemoedigende signalen. De recentste generatie servers van de meeste hardwareleveranciers is immers ook beter hittebestendig, en dat scheelt op de energie factuur. Immers: hoe beter bestand tegen de hitte, hoe minder koude lucht in de zalen of gangen moet worden gestuwd, hoe minder energie om die koeling te garanderen. Of anders gezegd: hoe nieuwer de servers, hoe lager de PUE.

Geïntegreerde hardware

Naast de leeftijd van de hardware kan ook de samenstelling een rol spelen. Geïntegreerde hardware is een vrij recente trend maar de toestellen zijn nu al in bijzonder veel professionele datacenters terug te vinden.

Geïntegreerde hardware van spelers zeoals HP, EMC en Dell combineert de server met een opslagmodule en vaak ook netwerkconnectiviteit. Het voordeel van deze aanpak is vooral dat er minder toestellen te beheren en te monitoren zijn, wat de beheerkost – een vaak onderschat gedeelte van het datacenter prijskaartje – doet dalen en bovendien de kans op problemen met uitval en/of verbindingen gevoelig vermindert.

Soms is de integratie niet altijd zichtbaar. Zo heeft bijvoorbeeld Cisco niet alleen een geïntegreerd systeem voor rekenkracht, opslag en netwerkconnectiviteit maar ook een zogeheten ‘unified fabric’ om alle types van netwerkconnectiviteit (LAN, SAN en andere) in één overkoepelend netwerk te consolideren, wat het beheer ook weer vereenvoudigt. En het geheel wordt dan idealiter beheerd en gemonitord door managementsoftware alle types hardware in één systeem verenigt.

Camera’s en sensors

Veiligheidscamera’s buiten het datacentergebouw zijn al schering en inslag. Maar ook binnen het datacenter horen ze thuis. Ze wijzen op een compleet monitoringsysteem dat normaal gesproken ook gebruik maakt van sensoren allerhande en van een beheerconsole met grenswaarden en een systeem van waarschuwing en escalering wanneer deze waarden worden overschreden.

De videocamera’s lijken overbodig met een uitgebreide sensorinstallatie. Maar Dennis Bouley, senior research analyst bij Schneider Electric, geeft alvast één tegenvoorbeeld:

“Ooit waren er tijdens renovaties enkele servers ingepakt in folie om ze te beschermen tegen stof. Leuk initiatief maar de IT-afdeling waerd hiervan niet op de hoogte gebracht. Daarom bleven deze servers aanstaan tijdens deze werken met een oververhitting en uiteindelijk kortsluiting van de servers als gevolg. Met een videocamerasysteem hadden we dit zien gebeuren en hadden we de kortsluiting en onbeschikbaarheid van deze servers kunnen voorkomen.”

Een bijkomend voordeel van zulke systemen is dat ze vaak ook de mogelijkheden bieden om van op afstand wijzigingen aan te brengen aan de toestellen die gekoppeld zijn aan het monitoringsysteem.

Datacenterhardwarekoelingkoude gangnieuwsserverstrendswarme gang

Gerelateerde artikelen

Volg ons

ICT Jaarboek 2021-2022 – TechPulse Business

ICT Jaarboek 2021-2022 – TechPulse Business

Bestel nu!